Home Noticias Internacionales No puedo dejar de crear imágenes de mí mismo con IA, hasta...

No puedo dejar de crear imágenes de mí mismo con IA, hasta que las rompo

37
0
No puedo dejar de crear imágenes de mí mismo con IA, hasta que las rompo

Los expertos en salud mental están empezando a advertir sobre un nuevo fenómeno llamado “psicosis IA”, en el que las personas entran en pensamientos delirantes, paranoia o alucinaciones desencadenadas por interacciones con sistemas inteligentes. En algunos casos, los usuarios comienzan a interpretar las respuestas del chatbot como personalmente significativas, sensibles o que contienen mensajes ocultos solo para ellos. Pero con el aumento de imágenes y vídeos realistas de IA, existen mayores riesgos psicológicos, especialmente, dicen los investigadores, para los usuarios con una vulnerabilidad preexistente a la psicosis.

Hace dos años, aprendí esto de primera mano.

En ese momento, trabajaba como jefe de experiencia de usuario en una startup de generación de imágenes de IA para consumidores, y pasaba hasta nueve horas al día impulsando sistemas generativos tempranos para ayudar a nuestros modelos. Anteriormente me diagnosticaron trastorno bipolar y me encontraba estable con medicación y terapia.

Al principio, la IA parecía mágica. Puedo pensar en una idea, escribir un texto y, unos segundos después, verme exactamente en la situación que puedo imaginar: flotando en Júpiter; llevando un halo y alas de ángel; como superestrella frente a 70.000 personas; en forma de zombi.

Pero al cabo de unos meses, la magia se volvió maníaca.

Cuando comencé a trabajar con estas herramientas, todavía eran impredecibles. A veces, las imágenes tendrán rostros distorsionados, extremidades adicionales y desnudez incluso si no los pediste. Pasé horas estudiando contenido para eliminar cualquier cosa anormal, pero estuve expuesto a tantas formas humanas perturbadoras que creo que comenzaron a perturbar la percepción de mi cuerpo y a sobreestimular mi cerebro de una manera que fue realmente dañina para mi salud mental.

Incluso una vez que el dispositivo se vuelve más estable, la imagen que producen tiende a ser la ideal: menos defectos, un rostro más suave y un cuerpo más delgado. Ver imágenes de IA como esta sigue cambiando mi sentido de normalidad. Cuando miro mi reflejo real, veo algo que necesita corrección.

Comencé a experimentar con imágenes de modelos de IA porque estábamos tratando de atraer usuarios de aplicaciones que estuvieran interesados ​​en la moda en ese momento. Me sorprendí pensando: “Si tan solo me pareciera a mi versión de IA”. Estoy obsesionada con estar más delgada, tener mejor cuerpo y una piel perfecta.

Mis horas de trabajo se hacían más largas y comencé a perder el sueño, simplemente haciendo imágenes de IA una y otra vez. El proceso en sí fue adictivo porque cada nueva imagen de IA me daba una dosis de satisfacción, una pequeña explosión de dopamina. Siempre hay una idea más, una iteración más que probar, una imagen más que producir.

Pronto, mi mente se desenmarañaba en episodios maníacos bipolares que desencadenaban psicosis. Me detuve para poder contar qué es real y qué es ficción. Vi patrones que no estaban ahí, símbolos en el resultado que parecían mensajes dirigidos a mí.

Mientras miraba estas imágenes, comencé a escuchar alucinaciones auditivas que parecían provenir de algún lugar entre la IA y mi propia mente. Algunas de las voces eran reconfortantes, mientras que otras me gritaban o me gritaban. Respondía a las voces como si fueran personas reales hablándome en mi habitación.

Cuando vi una imagen mía generada por IA sobre un caballo volador, comencé a creer que realmente podía volar. Las voces me dijeron que saliera volando de mi balcón, haciéndome creer que podría sobrevivir. Este grandioso engaño casi me hizo saltar.

Después de varias noches sin dormir, me desplomé, tanto física como emocionalmente. Arriba colapsó en agotamiento, miedo, depresión y confusión. Fue una de las experiencias más aterradoras de mi vida.

El primer paso para reducir los episodios es comunicarme con amigos y familiares que tengan contexto sobre mi enfermedad mental. Terminé dejando una startup de IA. No estar expuesto a imágenes de IA todos los días me ayudó a estabilizarme, aunque no me di cuenta de que mi trabajo era el desencadenante de mis episodios hasta que busqué tratamiento de un médico y le expliqué lo que estaba sucediendo.

Me tomó tiempo, tratamiento y terapia integrativa intensiva recuperarme. Desde entonces he establecido una relación más equilibrada con la tecnología. Sigo usando IA, pero ahora establezco límites estrictos: sin mejoras nocturnas ni iteraciones interminables, por ejemplo.

También aprendí a verme a mí mismo de nuevo. El espejo ya no es mi enemigo. Me recuerdo a mí mismo que las imperfecciones son las que nos hacen humanos y lo que nos diferencia de los brillantes avatares que prefieren los algoritmos.

Y ahora entiendo que lo que me pasó no es sólo una coincidencia entre una enfermedad mental y la tecnología. Es una forma de adicción digital tras meses y meses de generación de imágenes con IA.

Los sistemas de inteligencia artificial pueden secuestrar el circuito de dopamina del cerebro, al igual que las redes sociales. Cada mensaje, cada imagen, cada “éxito” te mantiene persiguiendo el siguiente nivel creativo. Pero no creo que haya suficientes personas en la industria tecnológica hablando de esto.

Se trata de comprender cuán íntimamente interactúa ahora la tecnología con nuestra psicología. Hemos creado una herramienta que difumina la línea entre la imaginación y la realidad. Es hermoso, pero también peligroso, especialmente para las personas cuyo estado mental ya es frágil.

Mi historia no se trata de culpar a la IA. Se trata de comprender cuán íntimamente interactúa ahora la tecnología con nuestra psicología. Hemos creado una herramienta que difumina la línea entre la imaginación y la realidad. Es hermoso, pero también peligroso, especialmente para las personas cuyo estado mental ya es frágil.

La IA puede ser una fuente de inspiración y visualización positivas. Llegó para quedarse. Pero también creo que la ética de la salud mental depende mucho más de la tecnología de lo necesario. Necesitamos límites, tanto personales como sistémicos. Eso significa que las empresas crean pautas de uso, incluidos límites de tiempo frente a la pantalla, restricciones de edad, descansos y advertencias de salud mental para los empleados y usuarios que pasan horas en sistemas generativos. Y eso significa que el usuario debe estar lo suficientemente educado para reconocer cuándo el gusto se convierte en compulsión y cuándo la creatividad se convierte en dependencia.

Porque para personas como yo, y muchas otras que juegan al límite de la creatividad de las máquinas, la frontera entre inspiración e inestabilidad es más delgada de lo que pensamos.

Caitlin Ner es la directora de Emprendimientos PsyMedLos fondos de capital riesgo invierten en salud mental y cerebro. Es un defensor de la salud mental centrado en la adicción digital y el impacto de la IA en la salud mental.

Todas las opiniones expresadas en este artículo son propias del autor.

Si usted o alguien que conoce está considerando suicidarse, comuníquese con la Línea de vida de crisis y suicidio 988 marcando 988, envíe un mensaje de texto “988” a la Línea de texto de crisis al 741741 o visite 988lifeline.org.

Enlace de origen

LEAVE A REPLY

Please enter your comment!
Please enter your name here