OpenAI está agregando funciones de memoria a ChatGPT para mejorar las conversaciones
Al irse ChatGPT recuerda conversaciones, OpenAI espera reducir la necesidad de que los usuarios proporcionen información de contexto repetitiva y hacer que los chats futuros sean más útiles. Los usuarios podrán preguntar explícitamente qué recordar, qué olvidar o desactivar la función por completo.
El contexto es crucial para que ChatGPT proporcione respuestas coherentes y, por lo general, lo proporciona el usuario en el mensaje. Esto requiere reafirmación con cada nueva conversación. Sin embargo, desde su introducción, ChatGPT ha ganado flexibilidad adicional en este dominio, incluidas instrucciones personalizadas y, ahora, memoria.
La memoria ChatGPT amplía la capacidad de ChatGPT para proporcionar respuestas conscientes del contexto y del usuario. Por ejemplo, explica OpenAI, el nuevo motor de memoria permitirá a ChatGPT aprender y recordar las preferencias del usuario sobre cómo se debe resumir la información al final de una presentación, cuál es su trabajo o empresa actual, etc.
Cuando la memoria ChatGPT está habilitada, puede visitar Configuración > Personalización > Administrar memoria para ver una lista de todos sus recuerdos. Puede eliminar recuerdos específicos o borrarlos todos. Es importante tener en cuenta que eliminar conversaciones no eliminará ningún recuerdo asociado a ellas. OpenAI dice que pueden usar memorias para mejorar la capacitación de GPT, pero los usuarios estándar pueden optar por no participar, mientras que los clientes ChatGPT Team y Enterprise están excluidos de forma predeterminada.
La memoria ChatGPT se utiliza para cada nueva conversación, lo que no siempre es la mejor opción ya que cl42 comentó en Hacker News. De hecho, dicen, la memoria es fundamental para las conversaciones “orientadas a las relaciones”, aunque no es útil para las conversaciones “transaccionales”, donde cada conversación debe ser un tema separado. Para manejar este tipo de uso, OpenAI sugiere usar chats temporales, que «no aparecerán en el historial, no usarán memoria y no se usarán para entrenar nuestros modelos».
Hace pocos meses, OpenAI ha comenzado a implementar instrucciones personalizadas para brindar a los usuarios más control sobre sus conversaciones y reducir la fricción implícita al iniciar nuevas conversaciones nuevamente. Las instrucciones personalizadas abrieron la posibilidad de especificar algún contexto general sobre la forma en que desea que ChatGPT entregue sus respuestas, así como instrucciones sobre el formato de respuesta, el propósito u otros criterios que afectan la forma en que ChatGPT presenta sus respuestas.
Con ChatGPT Memory, OpenAI intenta ir más allá de la instrucción personalizada y proporcionar un mecanismo más general y flexible que puede funcionar de forma transparente entre bastidores y bajo el control directo del usuario.
El contexto se pasa a ChatGPT a través de una ventana de contexto integrada en el mensaje del usuario, el texto que el modelo utiliza como punto de partida para generar respuestas. Como se mencionó, esto es esencial para mantener la coherencia del modelo y garantizar que genere un diálogo significativo con el usuario. Las diferentes versiones de ChatGPT tienen ventanas contextuales de diferentes tamaños. Por ejemplo, aunque ChatGPT Enterprise admite una longitud de contexto de 128 K, el estándar ChatGPT-4 solo proporciona una ventana de 8000 tokens, lo que lo hace menos sensible al contexto que el anterior.