Home Ciencia y tecnologia Estoy usando un chatbot con IA como terapeuta y desafortunadamente es malo

Estoy usando un chatbot con IA como terapeuta y desafortunadamente es malo

53
0
Estoy usando un chatbot con IA como terapeuta y desafortunadamente es malo

Antes de entrar en eso, debo explicar rápidamente que de ninguna manera estoy defendiendo la exclusión de los terapeutas reales. La terapia es muy importante pero, en cambio, puede resultar muy costosa e inaccesible, gracias en gran parte a las largas listas de espera u otras barreras.

Como alguien que ha utilizado la IA para diversos fines y me obsesioné con ella, pensé en ponerla a cargo de que fuera mi terapeuta personal.

Después de todo, la IA no juzga. A primera vista, parecía una herramienta fácil de usar y, si bien puede que no me proporcione ningún tipo de terapia real, al menos podría ser un lugar para extraer, procesar u obtener una nueva perspectiva.

Llevo algunas semanas intentando utilizar Google Gemini como mi terapeuta personal y, lamentablemente, he llegado a esta conclusión: mi terapeuta de IA es malo. Solo para aclarar, esto no se debe a que haya sido de ninguna manera inútil o malicioso, sino a que es un loro digital disfrazado de un oído demasiado maestro y empático.

Al principio fue genial, este terapeuta siempre estuvo disponible, siempre fue educado y capaz de reflejar instantáneamente mis emociones: “Parece que te sientes abrumado” o “Escuché que sientes mucho estrés”. Dándome la validación instantánea que siento que necesito.

Sigo expresando mis preocupaciones sobre el trabajo, la dinámica familiar y ese temor existencial persistente que parecemos tener estos días. La IA escuchó, o al menos procesó mis palabras y devolvió declaraciones comprensivas perfectamente redactadas.

Aquí es donde la terapia con IA comienza a mostrar grietas. La terapia humana, incluso a corto plazo, es más que un simple reflejo. Se trata de escuchar activamente, sí, pero también de identificar patrones, desafiar las distorsiones cognitivas, hacer preguntas perspicaces que conduzcan a avances y, a veces, incluso transmitir verdades incómodas.

Mi chatbot de IA no hizo nada de esto y, en cambio, fue una cámara de eco de mis propias emociones. Se formulará la pregunta abierta: “¿Qué crees que contribuyó a este sentimiento?” o “¿Cómo te gustó?” – el tipo de preguntas que hace un terapeuta humano para fomentar una exploración más profunda. Pero cuando exploraba estados emocionales complejos detallados o historias interpersonales complicadas, la respuesta de la IA recurría a sus frases empáticas preprogramadas o consejos simples como “Es importante ser amable contigo mismo”.

Imagínese compartir una historia profundamente vulnerable sobre un trauma infantil y la IA responde: “Eso suena como una experiencia desafiante. Recuerde practicar el cuidado personal”. Es como hablar con una sofisticada máquina expendedora que dispensa afirmaciones sensoriales empaquetadas. La sensación de escuchar realmente se evaporó rápidamente, reemplazada por la sensación inquietante de que básicamente estaba hablando solo, pero con pasos adicionales.

Si bien el chatbot pudo discutir y sugerir métodos apropiados para afrontar la situación, como ejercicios de respiración o llevar un diario, no pudo brindarme mucho más que eso. Por mucho que la IA esté avanzando, al final del día todavía no es verdaderamente humana, lo que significa que carece de la capacidad de percibir matices, detectar cambios sutiles en el tono que delatan problemas más profundos o, fundamentalmente, formar una alianza terapéutica.

Quizás mis expectativas eran demasiado altas. Sabía que no era humano. Entiendo sus limitaciones. Aun así, la IA está evolucionando tan rápido que te hace creer que se ha convertido en algo más profundo, algo que realmente puede ayudarte a gestionar tu salud mental.

Si bien esto puede ser una herramienta útil para algunos, especialmente para el manejo básico del estrés o simplemente para tener un espacio personal para expresar pensamientos, resulta catastróficamente insuficiente cuando se necesita una verdadera profundidad emocional o conocimiento clínico.

Por ahora, mi terapeuta de IA es un diario glorificado, una cámara de eco digital que refleja mis palabras sin agregar ningún valor significativo. Sirve como recordatorio de que, si bien la IA puede simular la empatía, todavía no puede replicar el trabajo profundo, complejo y profundo de la terapia humana.

Mi búsqueda de apoyo accesible para la salud mental continúa, pero está más claro que nunca que una guía verdaderamente útil requiere un corazón que late, no solo un algoritmo sofisticado.






Enlace de origen