Dado que las empresas compiten para desbloquear las posibilidades de productividad de los modelos de idiomas grandes (LLM) y el agente IA, muchas también están despertando un problema de seguridad familiar: ¿qué sucede cuando las nuevas herramientas fuertes son muy libertad, muy baja protección y datos confidenciales?
A partir del borrador del código hasta la automatización del servicio al cliente y las ideas comerciales, LLM y los agentes autónomos de IA están definiendo recientemente cómo funciona. Sin embargo, las mismas capacidades que hacen estas herramientas son esenciales: la capacidad de comer, analizar y producir materiales como seres humanos, si no se garantiza la precisión, se puede retrasar rápidamente.
Cuando un sistema de IA está conectado a datos, API y aplicaciones empresariales sin un control adecuado, el riesgo de filtraciones accidentales, acción traviesa o abuso malicioso. Es atractivo asumir que las políticas de seguridad existentes deben sumergirse para habilitar esta nueva capacidad de IA.
En realidad, lo contrario es cierto: en los últimos años, el residente de la arquitectura de confianza cero “verdadera” resistente ahora es más necesaria para asegurar el flujo de trabajo de LLM, agente de IA, IA y datos confidenciales que contactan. Las interacciones complejas de IA pueden protegerse solo con los métodos de aprobación y aplicación basados en la identidad de Trust Trust.
Riesgo de IA: el mismo problema, las complicaciones aumentan, las manchas más altas
LLMS acelera la cantidad de procesamiento de datos. Sin embargo, cada interacción entre el usuario y el agente de IA, un agente y un modelo, o un modelo y una base de datos crea un nuevo riesgo potencial. Considere a un empleado que usa LLM para un breve resumen del acuerdo confidencial. Sin un control fuerte, esos informes o contratos detrás de ellos pueden estar expuestos.
O imagine que cualquier agente autónomo permite que las tareas se aceleren. Si no está guiado por un control de acceso estricto en tiempo real, el mismo agente puede encender más datos que el propósito, o ser absorbido por el atacante para alentar información confidencial. En resumen, los LLM no cambian el desafío de protección básica. Simplemente multiplican el camino y la escala de exposición.
Este efecto de multiplicación está especialmente relacionado porque los sistemas de IA funcionan en la velocidad y la escala de la máquina. Un solo acceso no registrado que puede publicar un puñado de registros en el sistema de TAIT tradicional, cuando un agente de IA absorbe por un agente de IA, puede resultar en contacto con varios miles o incluso millones de puntos de datos confidenciales.
Además, los agentes de IA pueden encadenar los verbos juntos, llamar a API o orquestar el flujo de trabajo en múltiples sistemas, actividades que oscurecen la magnitud de la protección circular y complican la observación y el trabajo de adición.
En este entorno, las empresas ya no pueden confiar en una defensa fija. En cambio, la protección debe ser dinámica y adaptada a cada uso, según la identidad de cada usuario, agente, LLM y organización digital para habilitar el acceso mínimo a los derechos.
Un mundo de IA necesitaba para ahorrar fe cero en el mundo
Zero Trust depende de una idea simple pero poderosa: nunca confíe, siempre verifique. Cada usuario, dispositivo, aplicación o agente de IA debe demostrar quién es y qué hacen para hacer, cada vez que intentan moverse.
Este modelo es naturalmente mapa en el entorno de IA moderno. Solo filtran las indicaciones, o los datos o salidas restaurados, filtrado que se pueden pasar por alto utilizando indicaciones inteligentes, los efectos de la pila de confianza cero más profundos.
Se administra qué agentes y modelos lo administran en cualquier situación y cuánto tiempo puede acceder a datos. Se considera que como la identidad y el contexto de cada interacción en el centro de cada interacción, se administra de forma autónoma en cualquier datos de solicitud humana o antecedentes del proceso de IA.
Un ejemplo de pensamiento es un ataque de inyección instantánea, donde las entradas contaminadas impulsan una LLM para revelar datos confidenciales o realizar tareas no autorizadas. Incluso los sistemas de filtrado más avanzados han demostrado ser vulnerables a estas técnicas de jailbreak.
Sin embargo, con cero creencias en el lugar, la pérdida de este ataque nacional se puede evitar porque el proceso de IA en sí mismo carece de oportunidades permanentes. El sistema verifica la interpretación rápida o el filtrado en el filtrado por parte de los elementos de IA, lo que hace que sea imposible aumentar las indicaciones de la exposición de los datos.
Cómo aplicar Zero Trust al flujo de trabajo LLM
Proteger LLM y Generator AI no significa reinventar la rueda. Esto significa extender las políticas de confianza cero probadas probadas en un nuevo uso:
– ATA en los agentes II Identidad verificada: Trate los procesos de IA como usuarios humanos. Cada agente o modelo requiere su propia identidad, papel y derecho.
-Sexo Limite el acceso a un agente de IA basado en el factor en tiempo real, como el dispositivo o la sensibilidad durante los datos solicitados.
– Aplicar controles al nivel de protocolo: No confíe en el filtrado de información, salida o nivel de recuperación completa. Aplique cero confianza al sistema y las capas de red para bloquear el acceso no autorizado, sin importar cuán sofisticado sea el aviso.
– Mantener cero fe en la cadena de la interacción AI: Incluso para una disciplina compleja de interacción, como un usuario de agente que utiliza un agente que utiliza LLM para acceder a una base de datos, la identidad y el derecho deben identificarse y aplicarse en cada paso de la secuencia de interacción.
– Monitorear y monitorear continuamente: Mantener la visibilidad en cada actividad que toma un agente o modelo. Los registros templados y las sesiones inteligentes aseguran el consentimiento de registro y la responsabilidad.
Aplicando cero confianza a la IA, las agencias requerirán que los modelos y agentes de IA resuelvan la gestión de identidad adecuada, como lo hacen hoy para el personal. Esto reducirá el uso de IAM (gestión de identidad y acceso) con recursos de IA y recursos digitales para políticas consistentes.
Al aplicar Zero Trust a sus sistemas de IA, una agencia de proyectos de IA no podrá filtrar datos o no se volverán pícaros sabiendo que no pueden. Esta garantía es más que beneficios técnicos, es un negocio capaz. Las empresas que pueden implementar IA con confianza en su protección de datos innovarán rápidamente, atraerán a más clientes y mantendrán el consentimiento regulatorio en un entorno donde las leyes alrededor del uso de la IA se desarrollan rápidamente.
Los reguladores globales indican que la administración de la IA deberá demostrarse contra el abuso de la administración y el cero fideicomiso no suprime la innovación y proporciona una forma clara de consentimiento. El convertidor de IA promete ganancias, pero solo para aquellos que pueden usarlo de manera segura. Zero Trust es el modelo de protección probado que garantiza que las instalaciones de IA puedan confirmarse para no abrir la puerta de riesgo inaceptable.
Enumeramos el mejor software antivirus: clasificaciones y reseñas de expertosEl
Este artículo fue producido como parte del canal de Insight Specialist TechRaderPro, donde somos la mejor y brillante mente brillante en la industria de la tecnología. Las opiniones publicadas aquí están en el autor y no son esenciales para TechroderPro o Future PLC. Si está interesado en contribuir, busque más aquí: