¿Qué pasó? Un importante estudio dirigido por la Unión Europea de Radiodifusión (UER) en coordinación con la BBC reveló graves fallas en la forma en que los populares asistentes de inteligencia artificial manejan consultas relacionadas con noticias, destacando Gemini de Google como el que peor desempeño obtuvo en general.
- El estudio analizó 3.000 respuestas en 14 idiomas de los principales asistentes, incluidos ChatGPT, Microsoft Copilot, Gemini y Perplexity.
- En general, el 45% de las respuestas de la IA contenían al menos un error importante, mientras que la IA presentó la opinión como información (81%) o añadió su propia opinión (73%).
- Gemini tuvo el peor desempeño en general, con el 76% de sus respuestas mostrando errores importantes de abastecimiento o de hechos, el doble de la tasa del copiloto de al lado (37%), seguido de ChatGPT (36%) y Perplexity (30%).
- Los errores comunes incluyen mezclar fuentes, utilizar información desactualizada o difuminar la línea entre opinión y hecho verificado.
Esto es importante porque: Estos resultados son importantes si te centras en un asistente de IA para recibir noticias, especialmente cuando un modelo funciona significativamente peor que el resto.
- A medida que las herramientas de inteligencia artificial reemplazan cada vez más a los motores de búsqueda o a los resúmenes de noticias, la retroalimentación errónea puede confundir a los usuarios.
- Los errores de abastecimiento ocurren cuando una IA proporciona información sin realizar una copia de seguridad adecuada, lo que dificulta confiar en los comentarios de los usuarios.
- Dado que la confianza del público en los medios ya es inestable, los errores generados por la IA podrían hacer que la gente se vuelva aún más paranoica sobre lo que es real y lo que no.
- El hecho de que Gemini haya tenido un desempeño inferior por un amplio margen genera preocupación sobre cómo varias empresas están manejando la validación y la transparencia del modelo.
¿Por qué debería importarme? Es posible que ya estés utilizando un asistente de inteligencia artificial para enterarte de las noticias, pero si ese asistente es un Géminis, este estudio sugiere que eres vulnerable a la desinformación.
- Si le pides a un Géminis información sobre asuntos actuales, es más probable que alrededor de 3 de cada 4 respuestas contengan un error de abastecimiento o de hechos.
- Si bien otros asistentes obtuvieron mejores resultados, aun así cometieron muchos errores, lo que demuestra que ningún modelo de IA es completamente confiable cuando se trata de noticias reales.
- Las audiencias más jóvenes, especialmente las menores de 25 años, son las que más rápidamente adoptan la IA para las actualizaciones de noticias, lo que las deja más expuestas a la desinformación.
La conclusión es que los asistentes de IA pueden ayudarle a mantenerse informado, pero no deberían ser su única fuente de información.