¿Qué pasó? OpenAI ha cambiado la forma en que ChatGPT maneja conversaciones delicadas cuando las personas recurren a él en busca de apoyo emocional. La compañía ha actualizado las especificaciones de su modelo y su modelo predeterminado, GPT-5, para reflejar cómo ChatGPT maneja las conversaciones emocionales relacionadas con la psicosis/manía, la autolesión y el suicidio, y la dependencia psicológica de los asistentes.
Esto es importante porque: La dependencia emocional impulsada por la IA es real, donde los usuarios forman vínculos unidireccionales con los chatbots.
- OpenAI estima que alrededor del 0,15% de los usuarios activos semanales muestran signos de apego emocional al modelo, y el 0,03% de los mensajes indican el mismo riesgo.
- Esa misma cifra del 0,15% se aplica a las conversaciones que indican planes o intenciones suicidas, mientras que el 0,05% de los mensajes muestran ideas suicidas.
- Al ampliarse a la enorme base de usuarios de ChatGPT, más de un millón de personas han desarrollado conexiones emocionales con la IA.
- OpenAI informó mejoras importantes después de la actualización. Las reacciones adversas en este ámbito se reducen entre un 65% y un 80%, y los malos resultados relacionados con la psicodependencia se reducen aproximadamente un 80%.
¿Cómo está mejorando?: La versión actualizada introduce nuevas reglas con respecto a la protección de la salud mental y las relaciones en el mundo real, asegurando que la IA responda con empatía sin pretender ser un terapeuta o un amigo.
- OpenAI trabajó con más de 170 expertos en salud mental para remodelar el comportamiento, agregar herramientas de seguridad y ampliar las pautas.
- El GPT-5 ahora puede detectar signos de manía, confusión o intención suicida y responder de manera segura reconociendo sentimientos mientras dirige suavemente a los usuarios hacia ayuda en el mundo real.
- Una nueva regla asegura que ChatGPT no actúe como un acompañante ni fomente la dependencia emocional; En cambio, fortalece la conexión humana.
- El modelo ahora puede priorizar herramientas confiables o recursos expertos cuando se alinean con la seguridad del usuario.

¿Por qué debería importarme? Las cuestiones emocionales y éticas no sólo conciernen a los adultos que forman vínculos con los chatbots; También abordan cómo la IA interactúa con niños que tal vez no comprendan completamente sus implicaciones.
- Si alguna vez te has aventurado en ChatGPT durante una mala racha, esta actualización tiene como objetivo garantizar tu cordura.
- Ahora, ChatGPT estará más en sintonía con las señales emocionales y ayudará a los usuarios a encontrar ayuda en el mundo real en lugar de reemplazarla.












