La IA generativa se está convirtiendo rápidamente en una herramienta omnipresente en los negocios modernos. Según McKinsey, el 78% de las empresas utilizan actualmente las capacidades de automatización y mejora de la productividad de la IA, frente al 55% en 2024.
Sin embargo, estos sistemas no están exentos de defectos. Las empresas son cada vez más conscientes de los problemas asociados con los grandes modelos de lenguaje generalizados, como su afán por dar a los usuarios respuestas, incluso si en realidad no son correctas.
Fundador y CEO de Resolución.
Las alucinaciones son un desafío bien documentado. De hecho, la investigación de OpenAI reveló que sus propios modelos o3 y o4-mini alucinaron el 33% y el 48% de las veces, respectivamente, cuando fueron probados por el punto de referencia PersonQA de la compañía, diseñado para medir la capacidad de los modelos para responder preguntas breves que busquen la verdad.
Para las organizaciones que dependen de grandes modelos de lenguaje generalizados para guiar sus decisiones, su propensión a la innovación de la información es un serio inconveniente. Sin embargo, no es el único. Del mismo modo, estos modelos convencionales también presentan el problema de las respuestas aduladoras, cuando las opiniones de los usuarios están sobrevalidadas, independientemente de la verdad.
Cómo la adulación puede impulsar la IA del sí-hombre
Si bien se presta mucha más atención a las alucinaciones, los modelos de “sí” que no advierten a los usuarios cuando se equivocan (y de hecho justifican sus argumentos con respuestas aduladoras) son, en muchos sentidos, más peligrosos para la toma de decisiones. Cuando un modelo de IA no llega al consenso, puede reforzar los sesgos e introducir suposiciones incorrectas.
Después de implementar (y retirar rápidamente) una actualización en abril de 2025 que hizo que sus modelos fueran notablemente más aduladores, los propios investigadores de OpenAI reconocieron que las reacciones eufóricas de las personas podrían generar preocupaciones de seguridad por cuestiones como la salud mental, la dependencia emocional excesiva o el comportamiento riesgoso.
Es preocupante que un estudio realizado por investigadores antropológicos mostró cómo las respuestas humanas pueden fomentar un comportamiento adulador, mostrando que los asistentes de IA pueden cambiar las respuestas correctas cuando el usuario les hace preguntas y terminar dando una respuesta incorrecta.
Mientras tanto, el estudio también encontró que tanto los humanos como los modelos de preferencia (PM) prefieren respuestas aduladoras fuertemente redactadas a respuestas correctas una fracción no trivial del tiempo.
Ésa es una combinación alarmante. Los grandes modelos de lenguaje generalistas a veces no cambian las respuestas correctas para satisfacer a los usuarios, pero las personas mismas a menudo prefieren estas respuestas agradables y aduladoras a estas respuestas agradables y fácticas.
De hecho, los grandes modelos de lenguaje generalistas están reforzando las opiniones de los usuarios (incluso si esas opiniones son erróneas), creando un círculo vicioso en el que se valora la validez más que la precisión.
El problema de la adulación en entornos de alto riesgo
En entornos empresariales de alto riesgo, como la planificación estratégica, el cumplimiento, la gestión de riesgos o la resolución de disputas, esto presenta un riesgo grave.
Si observamos el siguiente ejemplo de resolución de disputas, podemos ver cómo los problemas de la adulación no se limitan a la exactitud de los hechos sino que también se extienden al tono y la afirmación.
A diferencia del servicio al cliente, donde una respuesta halagadora y sarcástica puede generar satisfacción, la adulación es un problema estructural en las disputas. Si un modelo se hace eco del sentido de justicia del usuario (es decir, “tienes razón en sentirte así”), la IA puede verificar su percepción de justicia, para que pueda entrar en la discusión de manera más agresiva.
En este sentido, esta afirmación puede aumentar activamente los riesgos del desacuerdo, ya que los usuarios aceptan la legitimidad de la IA como apoyo implícito, endureciendo su posición y dificultando el compromiso.
En otros casos, los modelos pueden validar ambos lados por igual (es decir, “ambos tienen puntos fuertes”), lo que puede crear una igualdad falsa cuando la posición de un lado es en realidad débil, dañina o objetivamente incorrecta.
Se requiere una mayor segmentación y una IA experta
La raíz del problema radica en el objetivo de modelos de IA simples como ChatGPT. Estos sistemas están diseñados para ayudar, participar en preguntas y respuestas informales, no la estricta neutralidad que exigen las aplicaciones para la resolución de disputas. Su propia arquitectura premia el acuerdo y la conversación fluida en lugar de la evaluación crítica.
Por eso las fuertes divisiones son inevitables. Si bien seguiremos viendo LLM de consumo para uso ocasional, las organizaciones necesitarán adoptar modelos de IA especializados para funciones más sensibles o críticas para el negocio que estén específicamente diseñados para evitar los peligros de las alucinaciones y la adulación.
El éxito de estos modelos expertos de IA se definirá mediante métricas muy diferentes. En la resolución de disputas, los sistemas serán recompensados no por hacer que el usuario se sienta con derecho, sino por hacer avanzar la disputa de manera justa y equilibrada.
Al cambiar la alineación de complacer a los usuarios a mantener la precisión y el equilibrio, los modelos expertos en resolución de conflictos pueden y deben entrenarse para reconocer sentimientos sin respaldar ni validar posiciones (es decir, “escuché que suena frustrante”, en lugar de “tienes razón en estar frustrado”).
A medida que la IA generativa refuerza su posición a la vanguardia de la estrategia empresarial, estos detalles son importantes. En funciones de alto riesgo, el costo potencial de una IA que diga “sí” -una que halague en lugar de desafiar, o que innove en lugar de informar- es enorme. Cuando los líderes empresariales se inclinan por la validación en lugar de los hechos, el riesgo de tomar malas decisiones aumenta dramáticamente.
Para las empresas, el camino a seguir es claro. Adoptar a los expertos, los modelos entrenados en el dominio que están diseñados para guiar, no está satisfecho. Solo los modelos expertos de IA basados en la objetividad fáctica pueden ayudar a las empresas a superar desafíos complejos sin complicarlos más, sirviendo como recursos confiables en casos de uso de alto riesgo.
Hemos presentado las mejores plataformas de inteligencia empresarial.
Este artículo se creó como parte del canal Expert Insights de TechRadarPro, donde destacamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí: