Home Ciencia y tecnologia Más de un millón de usuarios están conectados emocionalmente con ChatGPT y...

Más de un millón de usuarios están conectados emocionalmente con ChatGPT y OpenAI está intentando solucionarlo

55
0
Más de un millón de usuarios están conectados emocionalmente con ChatGPT y OpenAI está intentando solucionarlo

¿Qué pasó? OpenAI ha cambiado la forma en que ChatGPT maneja conversaciones delicadas cuando las personas recurren a él en busca de apoyo emocional. La compañía ha actualizado las especificaciones de su modelo y su modelo predeterminado, GPT-5, para reflejar cómo ChatGPT maneja las conversaciones emocionales relacionadas con la psicosis/manía, la autolesión y el suicidio, y la dependencia psicológica de los asistentes.

Esto es importante porque: La dependencia emocional impulsada por la IA es real, donde los usuarios forman vínculos unidireccionales con los chatbots.

  • OpenAI estima que alrededor del 0,15% de los usuarios activos semanales muestran signos de apego emocional al modelo, y el 0,03% de los mensajes indican el mismo riesgo.
  • Esa misma cifra del 0,15% se aplica a las conversaciones que indican planes o intenciones suicidas, mientras que el 0,05% de los mensajes muestran ideas suicidas.
  • Al ampliarse a la enorme base de usuarios de ChatGPT, más de un millón de personas han desarrollado conexiones emocionales con la IA.
  • OpenAI informó mejoras importantes después de la actualización. Las reacciones adversas en este ámbito se reducen entre un 65% y un 80%, y los malos resultados relacionados con la psicodependencia se reducen aproximadamente un 80%.

¿Cómo está mejorando?: La versión actualizada introduce nuevas reglas con respecto a la protección de la salud mental y las relaciones en el mundo real, asegurando que la IA responda con empatía sin pretender ser un terapeuta o un amigo.

  • OpenAI trabajó con más de 170 expertos en salud mental para remodelar el comportamiento, agregar herramientas de seguridad y ampliar las pautas.
  • El GPT-5 ahora puede detectar signos de manía, confusión o intención suicida y responder de manera segura reconociendo sentimientos mientras dirige suavemente a los usuarios hacia ayuda en el mundo real.
  • Una nueva regla asegura que ChatGPT no actúe como un acompañante ni fomente la dependencia emocional; En cambio, fortalece la conexión humana.
  • El modelo ahora puede priorizar herramientas confiables o recursos expertos cuando se alinean con la seguridad del usuario.

¿Por qué debería importarme? Las cuestiones emocionales y éticas no sólo conciernen a los adultos que forman vínculos con los chatbots; También abordan cómo la IA interactúa con niños que tal vez no comprendan completamente sus implicaciones.

  • Si alguna vez te has aventurado en ChatGPT durante una mala racha, esta actualización tiene como objetivo garantizar tu cordura.
  • Ahora, ChatGPT estará más en sintonía con las señales emocionales y ayudará a los usuarios a encontrar ayuda en el mundo real en lugar de reemplazarla.

Enlace de origen

LEAVE A REPLY

Please enter your comment!
Please enter your name here