Home Ciencia y tecnologia Los usuarios de OpenAI ChatGPT comparten datos sobre pensamientos suicidas y psicosis

Los usuarios de OpenAI ChatGPT comparten datos sobre pensamientos suicidas y psicosis

36
0
Los usuarios de OpenAI ChatGPT comparten datos sobre pensamientos suicidas y psicosis

OpenAI ha publicado nuevas estimaciones sobre la cantidad de usuarios de ChatGPT que muestran síntomas potenciales de una emergencia de salud mental, incluidas manía, psicosis o pensamientos suicidas.

La compañía dijo que alrededor del 0,07% de los usuarios activos de ChatGPT mostraron tales síntomas en una semana determinada, y agregó que su chatbot de inteligencia artificial (IA) reconoce y responde a estas conversaciones sensibles.

Aunque OpenAI sostiene que estos casos son “extremadamente raros”, los críticos dicen que un pequeño porcentaje podría ascender a decenas de miles de personas, ya que ChatGPT alcanzó recientemente los 800 millones de usuarios activos semanales, según su jefe Sam Altman.

Además de la investigación de antecedentes, la compañía dijo que ha creado una red de expertos en todo el mundo para ofrecer asesoramiento.

Esos expertos incluyen a más de 170 psiquiatras, psicólogos y médicos de atención primaria que ejercen en 60 países, dijo la organización.

Según OpenAI han creado múltiples respuestas en ChatGPT para animar a los usuarios a pedir ayuda en el mundo real.

Pero los destellos de los datos de la compañía han llamado la atención entre algunos profesionales de la salud mental.

“Aunque el 0,07% parece un porcentaje pequeño, a nivel de población de cientos de millones de usuarios, en realidad puede ser muy poca gente”, afirmó el Dr. Jason Nagata, profesor que estudia el uso de la tecnología entre adultos jóvenes en la Universidad de California, San Francisco.

“La IA puede ampliar el acceso al apoyo a la salud mental y, de alguna manera, apoyar la salud mental, pero debemos ser conscientes de las limitaciones”, añadió el Dr. Nagata.

La compañía estima que el 0,15% de los usuarios de ChatGPT tienen conversaciones que contienen “indicadores obvios de posible planificación o intención suicida”.

OpenAI dice que las actualizaciones recientes de su chatbot están diseñadas para “responder de forma segura y empática a posibles signos de delirio o manía” y detectar “señales indirectas de posible autolesión o riesgo de suicidio”.

ChatGPT está capacitado para redirigir conversaciones confidenciales “que se originan en otros modelos a modelos seguros” abriéndolas en una nueva ventana.

En respuesta a las preguntas de la BBC sobre la cantidad de personas potencialmente afectadas, OpenAI dijo que este pequeño porcentaje de usuarios es una cantidad significativa de personas y señaló que se están tomando los cambios en serio.

Los cambios se producen cuando OpenAI enfrenta un escrutinio legal cada vez mayor sobre la forma en que ChatGPT interactúa con los usuarios de OpenAI.

En una de las demandas más destacadas presentadas recientemente contra OpenAI, una pareja de California demandó a la empresa por la muerte de su hijo adolescente, alegando que ChatGPT lo animó a quitarse la vida en abril.

La demanda fue presentada por los padres de Adam Raine, de 16 años, y fue la primera acción legal que acusa a OpenAI de muerte por negligencia.

En un caso separado, el sospechoso de un asesinato y suicidio en agosto en Greenwich, Connecticut, publicó varias horas de su conversación con ChatGPT, lo que pareció alimentar la paranoia del presunto perpetrador.

Cada vez más usuarios luchan contra la psicosis de la IA, ya que “los chatbots crean la ilusión de la realidad”, dijo el profesor Robin Feldman, director del Instituto de Innovación y Derecho de la IA de la Universidad de California. “Es una ilusión poderosa”.

Dijo que OpenAI merece crédito por “compartir datos y tratar de mejorar el problema”, pero añadió: “La empresa puede poner todo tipo de advertencias en la pantalla, pero una persona que está psicológicamente en riesgo puede no ser capaz de escuchar esas advertencias”.

Enlace de origen

LEAVE A REPLY

Please enter your comment!
Please enter your name here