LOS ÁNGELES (AP) — El gobierno de Trump dejó de compartir en línea imágenes generadas por inteligencia artificial, adoptó imágenes tipo caricatura y memes y los promocionó en los canales oficiales de la Casa Blanca.
Pero una foto editada y real de la defensora de los derechos civiles Nikima Levi Armstrong llorando después de su arresto está generando nuevas alarmas sobre cómo la agencia está desdibujando la línea entre lo real y lo falso.
La cuenta del nombre de la Secretaria de Seguridad Nacional, Christy, publicó la foto original del arresto de Levi Armstrong antes de que la cuenta oficial de la Casa Blanca publicara una foto alterada de él llorando. La foto manipulada es parte de una avalancha de imágenes editadas por IA compartidas en todo el espectro político desde los tiroteos fatales de Renee Goode y Alex Pretty por parte de agentes de la Patrulla Fronteriza de Estados Unidos en Minneapolis.
Sin embargo, el uso de inteligencia artificial por parte de la Casa Blanca ha preocupado a los expertos en desinformación que temen que la difusión de imágenes generadas o editadas por IA erosione el sentido de la realidad del público y genere desconfianza.
En respuesta a las críticas a una foto editada de Levi Armstrong, los funcionarios de la Casa Blanca duplicaron la publicación y el asistente de comunicaciones Keelan Dorr escribió en X que “los memes continuarán”. La secretaria de prensa de la Casa Blanca, Abigail Jackson, también compartió una publicación burlándose de las críticas.
David Rand, profesor de ciencias de la información en la Universidad de Cornell, dijo que la foto alterada “ciertamente parece un intento de presentar esto como una broma o una publicación divertida, como sus caricaturas anteriores. Es probable que los proteja de las críticas por publicar medios intrusivos”. Dijo que el propósito de compartir la imagen capturada alterada parecía “más ambiguo” que las imágenes caricaturescas que la agencia había compartido en el pasado.
Los memes siempre han transmitido mensajes ricos que son divertidos o informativos para las personas que los conocen, pero incomprensibles para los de afuera. Las imágenes mejoradas o editadas por IA son sólo la última herramienta que la Casa Blanca está utilizando para atraer al segmento de la base de Trump que pasa más tiempo en línea, dijo Zach Henry, un consultor de comunicaciones republicano que fundó Total Virality, una firma de marketing de influencers.
“Las personas que están temporalmente en línea verán esto e inmediatamente lo reconocerán como un meme”, dijo. “Es posible que tus abuelos lo vean y no lo recuerden, pero como parece real, les dan ganas de preguntarles a sus hijos o nietos sobre ello”.
Todo está bien si crea una reacción fuerte, que ayude a propagar el virus, dijo Henry, elogiando en general el trabajo del equipo de redes sociales de la Casa Blanca.
La creación y difusión de imágenes alteradas, especialmente cuando son compartidas por fuentes creíbles, “cristaliza una idea de lo que realmente está sucediendo en lugar de lo que se muestra”, dijo Michael A. Speaks, profesor de la Universidad Northwestern e investigador de alfabetización mediática.
“El gobierno debe ser un lugar donde se pueda confiar en la información, donde se pueda estar seguro de que es correcta, porque tiene la responsabilidad de hacerlo”, afirmó. “Compartir ese tipo de contenido y crear ese tipo de contenido… destruye la confianza -aunque siempre soy escéptico sobre el término confianza- pero la confianza que debemos tener en nuestro gobierno federal para que nos brinde información precisa y verificada. Es una pérdida real y realmente me preocupa”.
Speaks dijo que ya está viendo “crisis institucionales” en torno a la desconfianza en las organizaciones de noticias y la educación superior, y siente que este enfoque por parte de los canales oficiales plantea esos problemas.
Ramesh Srinivasan, profesor de UCLA y presentador del podcast Utopias, dijo que muchas personas ahora preguntan dónde pueden acudir para obtener “información confiable”. “Los sistemas de inteligencia artificial simplemente exacerban, amplifican y aceleran estos problemas de falta de confianza, incluso la falta de comprensión de que se puede considerar la realidad, los hechos o las pruebas”, dijo.
Srinivasan dijo que siente que la Casa Blanca y otros funcionarios que comparten contenido generado por IA no sólo están invitando a la gente común a seguir publicando dicho contenido, sino que también permiten que otros en posiciones de credibilidad y poder, como los formuladores de políticas, compartan contenido etiquetado como artificial. Añadió que dado que las plataformas de redes sociales tienden a “discriminar algorítmicamente” el contenido más extremo y conspirativo -que las herramientas de generación de IA pueden generar fácilmente- “tenemos un gran, gran conjunto de desafíos en nuestras manos”.
El flujo de videos generados por IA relacionados con acciones, protestas e interacciones ciudadanas del Servicio de Inmigración y Control de Aduanas ya ha proliferado en las redes sociales. Después de que un oficial de ICE le disparó a Renee Goode mientras estaba en su automóvil, comenzaron a circular varios videos generados por IA de mujeres conduciendo mientras oficiales de ICE les decían que se detuvieran. También hay muchos videos falsos que muestran redadas de inmigración y agentes de ICE confrontando a la gente, a menudo gritándoles o arrojándoles comida a la cara.
Jeremy Carrasco, un creador de contenido que se especializa en alfabetización mediática y desacreditar videos virales de IA, dijo que la mayor parte de estos videos probablemente provienen de cuentas que son “granjas de participación” o que buscan capitalizar los clics creando contenido con palabras clave populares y términos de búsqueda como ICE. Pero también dijo que los videos están recibiendo comentarios de personas que se oponen a ICE y DHS y pueden verlos como “fan fiction” o involucrarse en “ilusiones”, con la esperanza de ver una presión real contra las organizaciones y sus funcionarios.
Aún así, Carrasco también cree que la mayoría de los espectadores no pueden saber si lo que están viendo es falso, y se pregunta si sabrán “qué es falso o no cuando realmente importa, como cuando hay tanto en juego”.
Incluso cuando hay signos obvios de generación de IA, como señales de tráfico sucias u otros errores obvios, sólo en el “mejor de los casos” la audiencia tendrá el conocimiento suficiente o se preocupará lo suficiente como para registrar el uso de la IA.
Por supuesto, la cuestión no se limita a las noticias sobre la aplicación de la ley de inmigración y las protestas. Las fotografías falsas y falsas explotaron en línea a principios de este mes después del arresto del derrocado líder venezolano Nicolás Maduro. Los expertos, incluido Carrasco, creen que la difusión de contenido político generado por IA será cada vez más común.
Carrasco cree que la implementación generalizada de sistemas de marcas de agua que incorporan información sobre el origen de un medio en la capa de metadatos puede ser un paso hacia una solución. La Coalición para la Verificación y Autenticidad de Contenidos ha desarrollado un sistema de este tipo, pero Carrasco no cree que se adopte ampliamente hasta al menos otro año.
“Ahora será un problema permanente”, afirmó. No creo que la gente se dé cuenta de lo malo que es”.
__
Los periodistas de Associated Press Jonathan J. Cooper en Phoenix y Barbara Ortway en San Francisco contribuyeron a este informe.








