Investigaciones recientes han revelado una tendencia preocupante en la inteligencia artificial: el problema de “alucinación”, donde los modelos producen información falsa o engañosa, están empeorando.
El examen interno del OpenAI ha demostrado que sus últimos modelos con versiones de 3 y 4 mini tienen más probabilidades de ser comparadas con la repetición anterior, y el 33% de 3 preguntas fácticas del modelo y las versiones de 48% y 48 minutos tienen información fabricada con información.
Ingeniero de software en Block LAI.
Teniendo en cuenta la adopción de esta confiabilidad degradada, la IA se ha convertido en una barrera importante para las iniciativas, especialmente en industrias superiores donde cualquier decisión incorrecta puede tener grandes consecuencias financieras, legales o de renombre.
Por esta razón, estas empresas deben considerarse otras opciones, que existen, que pueden proporcionar una solución adecuada. Pero primero, es importante entender por qué los LLM se han vuelto tan populares alucinados.
Por qué están empeorando las alucinaciones
Hay un problema fundamental en cómo funcionan los LLM como ChatGPT. Estos sistemas utilizan predicciones estadísticas para crear retroalimentación, básicamente crear estimaciones educadas basadas en patrones en sus datos de capacitación.
En reconocimiento de la propia opeena, la transferencia de modelos más avanzados como GPT -4O ha aumentado involuntariamente “Los usuarios se han dado cuenta como ‘farolas’, que es solo cuando el software proporciona la respuesta incorrecta sin confesar con confianza la incertidumbre.
Dado que LLM usa estadísticas para determinar sus resultados, a veces traen una respuesta incorrecta. Al igual que cuando alguien está jugando a un caballo, incluso explicando todas las variables, ocasionalmente (o frecuenta) se equivocará. Cuando LLM hace esto, lo llamamos una “alucinación”.
El problema es más complicado por los esfuerzos de los desarrolladores para hacer que la IA sea más internacional humana. Los modelos modernos están programados con simpatía, comprensión sensible y deseo de satisfacer.
Estas son las cualidades que los hacen más atractivos, pero es más probable que respondan con confianza a pesar de que son inciertas. Es una tormenta perfecta: IA que suena auténtica cuando es fundamentalmente increíble.
La reciente investigación de Sky News ha destacado drásticamente el problema, revela cómo los telas de chatzipt toda la transcripción de un podcast real, se duplica cuando desafía y solo reconoce el error a una presión sostenible.
La investigación confirma lo que muchos desarrolladores han sospechado: los nuevos modelos se están volviendo menos confiables, no mucho.
¿Qué significa para los negocios?
Para los negocios, estas alucinaciones presentan una barrera inevitable para la toma de IA; Hay consecuencias reales en sectores como atención médica, dinero, servicios legales y seguros.
En algunos modelos, la tasa de error actual del 48% hace que la supervisión humana sea obligatoria, supere la mayoría de los objetivos de IA como una herramienta para mejorar.
El desafío es especialmente intenso porque las alucinaciones a menudo son irrelevantes para los no expertos. Sin embargo, los LLM son admirables para crear un precedente legal completamente monótono, asesoramiento de tratamiento o análisis financiero.
A diferencia de los defectos humanos, que a menudo son seguidos por patrones reconocidos, las alucinaciones de IA pueden ser completamente aleatorias, lo que los hace casi imposibles sin tener habilidades en su tema.
A la luz de cuán rápido se implementan estos sistemas, esta impredecencia se vuelve aún mayor.
En la gravedad de la inversión empresarial en IA, las empresas se apresuran a implementar a gran escala de proyectos piloto.
Obviamente, la inspiración es el riesgo de tomar rápido o leer. Pero en la carrera para integrarse, ¿cuántos son completamente responsables del riesgo de alucinaciones? Mientras tanto, hemos visto serias consecuencias.
Apple tuvo que devolver sus alertas de noticias expuestas a AI, y el étnico quedó atrapado en la presentación del tribunal con una cita de la referencia legal.
Con la adopción acelerada, estos eventos solo se multiplicarán. En cambio, veremos confianza en la IA y los comerciantes se verán obligados a hacer una pregunta difícil: ¿hay un camino más confiable por delante?
Un método diferente: NeuroSamblick AI
Mientras que la industria está en el LLMS, algunas compañías básicamente están adoptando un enfoque diferente.
En Livikeay, decimos “IA neurosimbólica” que desarrollamos, es un sistema híbrido que une la red neuronal tradicional a la lógica simbólica para ganar la resistencia de cada uno.
El argumento simbólico es un método antiguo y bien establecido para codificar el conocimiento utilizando reglas claras y lógicas. Presenta información como una información estable, lo que significa que el software no puede manejarla o explicarla erróneamente. Esta es la misma tecnología que permite el recuento de hojas de cálculo que usamos de Excel.
La principal diferencia aquí es el determinismo. Aunque los LLM pueden responder a diferentes preguntas, los sistemas simbólicos siempre producen la misma salida para la misma entrada.
Más importante aún, pueden admitir si no saben nada. Es una habilidad importante en las industrias controladas que carecen de LLM. Las dos integración permiten a los usuarios beneficiarse de la confiabilidad del modelo simbólico, así como del uso del lenguaje natural de LLM.
Adelante
La idea de que la escala de los modelos de idiomas eventualmente eliminará las alucinaciones comienza a parecer inciertos inciertas. Estos modelos se basan en patrones estadísticos, no en la base de la base, lo que significa que sus limitaciones pueden ser inherentes sin ser temporales.
En lugar de confiar en más datos y mayores modelos, puede ser el momento de explorar caminos alternativos: los métodos que combinan la educación estadística con una lógica más estructural.
Para los negocios, sus impactos son completos: aunque la IA realiza promesas extraordinarias, la generación de modelos actuales no está lista para aplicaciones de alta gota.
El futuro incluye el enfoque híbrido que combina la flexibilidad de las redes neuronales con la confiabilidad de la lógica simbólica, proporcionando lo mejor de ambos mundos sin los costos devastadores de alucinaciones extensas.
Enterprise AI Solutions ya están aquí. Para adoptar el procedimiento que da prioridad y confiabilidad, solo necesitan ir más allá de las limitaciones de nuestros modelos actuales.
Para una empresa preparada para comprender la posibilidad de IA, el camino hacia el delantero es claro: transparencia, precisión y responsabilidad de los sistemas de IA que formarán innovación en la próxima década.
Hemos presentado el mejor chatbot de IA para negocios.
Este artículo fue producido como parte del canal de Insight Specialist TechRaderPro, donde somos la mejor y brillante mente brillante en la industria de la tecnología. Las opiniones publicadas aquí están en el autor y no son esenciales para TechroderPro o Future PLC. Si está interesado en contribuir, busque más aquí: