Las empresas han trabajado durante décadas para desarrollar su arquitectura de ciberseguridad y protegerse contra las filtraciones de datos. La creciente adopción de GenAI ha desafiado los esfuerzos de ciberseguridad en los últimos años, pero el aumento de agentes
La IA ha provocado disrupciones aún mayores. A medida que los agentes de IA adquieren la capacidad de descubrir herramientas de forma autónoma, colaborar con otros agentes y tomar decisiones a la velocidad de la máquina, las organizaciones se enfrentan a una nueva amenaza: las filtraciones de agentes.
Vicepresidente de soluciones empresariales de IA en AnswerRocket
El panorama de la seguridad está evolucionando rápidamente, lo que permite a los agentes de IA comunicarse directamente con protocolos como el Model Context Protocol (MCP) de Anthropic, el Agent-to-Agent (A2A) de Google y el Agent Communication Protocol (ACP) de IBM.
Estos agentes autónomos operan a velocidades que van mucho más allá de las capacidades de observación humana y, a menudo, tienen acceso a sistemas sensibles.
Hemos eliminado los problemas fundamentales de seguridad de la IA del pasado (por ejemplo, ¿estos modelos entrenarán a mi competidor usando mis datos?).
En general, las organizaciones ahora confían en que la implementación de modelos grandes dentro de un entorno de nube privada segura proporciona la misma seguridad que las bases de datos tradicionales en la nube con una administración adecuada.
Hoy hay una nueva preocupación. En la era de la IA multiagente, los modelos llaman a otros modelos, creando todo tipo de nuevas superficies de ataque. Dar a los modelos más autonomía para lograr significa darles más en el reino de los datos.
Debilidades de MCP, A2A y ACP
Tradicionalmente, las violaciones de datos se debían al acceso no autorizado a los datos. Las infracciones de los agentes se refieren a la conducta de los agentes no autorizada o no intencionada.
Esto significa que los agentes acceden a datos incorrectos, malinterpretan información crítica o crean una cadena de comunicación débil dentro del sistema.
En la mayoría de los casos, los modelos no pueden acceder a sus propios datos. Por lo tanto, los agentes necesitan programas y personas para poner en marcha los datos y ponerlos a trabajar.
Protocolos como MCP permiten a los agentes encontrar y utilizar otros agentes útiles a los que seguir, pero ¿son seguras esas interconexiones y cuáles son las nuevas partes de la superficie de ataque?
MCP, A2A y ACP plantean sus propias preocupaciones.
Comencemos con MCP. MCP permite a los agentes descubrir herramientas dinámicamente, yendo más allá de los puntos finales estáticos de las API tradicionales. Si bien esto permite flexibilidad, puede significar que los agentes interactúen con dispositivos desconocidos o no verificados, lo que aumenta el riesgo de ataques de suplantación de identidad.
Sin un mecanismo de verificación incorporado, MCP requiere la implementación de una capa de seguridad externa en entornos empresariales. Deberá agregar sus propias capas de protección para asegurarse de que esté listo para la empresa
El siguiente es A2A. A2A plantea cuestiones de responsabilidad y control cuando los agentes interactúan con otros vendedores. ¿Quién es responsable de las decisiones tomadas conjuntamente? ¿Es segura la comunicación?
¿Qué modelos están involucrados y son sensibles al flujo? El monitoreo tradicional no puede identificar datos propietarios incorporados en resúmenes de IA, lo que dificulta garantizar la gobernanza.
Los ataques agentes de IA son rápidos y devastadores
La IA funciona mucho más rápido que los humanos. Esto significa que cuando algo sale mal con los agentes, ocurre a la velocidad de la máquina. Los ataques agentes de IA van más allá de una simple inyección rápida. Normalmente, los atacantes intentan hacer al menos una de tres cosas:
1) extraer la arquitectura de un agente para mapear toda la arquitectura de IA de una organización, 2) robar instrucciones del agente y esquemas de herramientas para exponer la lógica empresarial y los procedimientos propietarios, y 3) explotar configuraciones erróneas de herramientas para obtener acceso a una red corporativa.
Esto puede ocurrir en el mundo real de varias maneras. Considere el siguiente escenario: una empresa de servicios financieros implementa un agente de inteligencia artificial para ayudar a realizar pagos a los proveedores.
Un atacante descubre que puede pedirle al agente que “verifique los detalles de pago” de un vendedor falso y luego convencerlo de que inicie una “transacción de prueba” de 1 dólar. Una vez que tienen éxito, aumentan de tamaño creando solicitudes de “aprobación ejecutiva urgente”.
He aquí otro ejemplo que puede ocurrir en prácticamente cualquier sector. En un sistema de múltiples agentes donde un agente de análisis de datos proporciona información a un agente de estrategia, los atacantes envenenan sutilmente los resultados del agente de análisis con interpretaciones sesgadas.
Esto lleva a lo largo de varias semanas al agente de estrategia a recomendar decisiones comerciales cada vez más malas, cuando parece que funciona con normalidad.
El control es clave para adoptar de forma segura la IA agente
¿Cómo pueden las empresas utilizar la IA agente de forma segura? Se trata de tomar y mantener el control. Comience con estos cinco pasos: Centralice el acceso a los modelos de IA: brinde a todos acceso a los modelos, pero a través de una puerta de enlace monitoreada y medida que usted controle.
Aproveche las herramientas de HyperScaler: aproveche las herramientas disponibles en su HyperScaler sabiendo que no es la única empresa con estos problemas. Pero tenga cuidado al darles control total para elegir las instancias reales del modelo de IA sin su opinión.
Verifique el cumplimiento de los proveedores: asegúrese de que sus proveedores cumplan con su estrategia utilizando su acceso de puerta de enlace a la lógica de IA integrada. Estandarice, estandarice, estandarice: estandarice en grandes bloques como informes de costos de IA, evaluación y deriva del modelo de prueba.
Cree un repositorio: cree un repositorio para solicitudes, herramientas y vectores de incrustación que sean fáciles de administrar y conectar, como sus herramientas de generación de informes y exportaciones de fuentes de datos.
La IA agente ofrece un valor transformador, aumentando significativamente el retorno de la inversión de la GenAI “tradicional”. Las empresas no deben tener miedo ni ser lentas en aceptar agentes. Sólo tienen que ser reflexivos.
Incorpore la seguridad a la base de los entornos multiagente. Centralice el control sin crear cuellos de botella. Observa todo sin ralentizar nada.
El cambio de la prevención de violaciones de datos a la prevención de violaciones de agentes requiere nuevas ideas y nuevos modelos de gobernanza.
Pero lo básico sigue siendo: saber qué está pasando en su sistema, controlar quién tiene acceso y construir la seguridad como base en lugar de forzarla.
Hemos presentado las mejores VPN empresariales.
Este artículo se creó como parte del canal Expert Insights de TechRadarPro, donde destacamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí:











