La IA agente está emergiendo rápidamente como la próxima gran disrupción en la industria tecnológica, trasladando la IA de meros chatbots a tomadores de decisiones autónomos. A diferencia de las herramientas de IA tradicionales que requieren indicaciones constantes, la IA agente opera con cierto grado de independencia, aprendizaje, razonamiento y logro de objetivos específicos.
De hecho, para 2028, un tercio de las aplicaciones empresariales incorporarán IA agente, frente a menos del 1% en 2024, y hasta el 15% de las decisiones rutinarias en el lugar de trabajo se tomarán de forma autónoma. Para los líderes empresariales, esto representa un gran cambio en la forma en que la tecnología respalda y da forma a los negocios, especialmente en el área de la ciberseguridad.
Cofundador y director sénior de gestión de productos de HackerOne.
De hecho, Agentic AI tiene el poder de escalar los riesgos más complejos para las entradas de los equipos, garantizar envíos de alta calidad y filtrar duplicados para que los equipos puedan centrarse en lo que importa. Sin embargo, la autonomía que lo hace tan poderoso también introduce nuevos riesgos para los equipos de seguridad.
Los líderes empresariales deben comprender cómo la IA agente puede fortalecer sus defensas y qué obstáculos buscar al implementarla.
¿Qué hace que la IA Agentic sea diferente?
La IA agente se construye alrededor de agentes autónomos, sistemas capaces de razonar, adaptarse y tomar acciones independientes. Se trata de un alejamiento tanto de la automatización convencional como de las formas anteriores de IA. Los modelos tradicionales de aprendizaje automático generan principalmente resultados basados en indicaciones o parámetros específicos.
La IA agente, por el contrario, puede actuar de forma iterativa, evaluar el contexto, planificar un curso de acción, adaptarse a medida que cambian las circunstancias y mejorar a través de la experiencia.
La industria de la ciberseguridad se está alejando de un pasado en el que los bots simplemente señalaban inicios de sesión sospechosos y hacia un sistema conectado que investiga, prioriza vulnerabilidades y proporciona información útil al usuario de forma autónoma.
Mejorar las capacidades de seguridad cibernética
La IA agente es adecuada para algunos de los desafíos de seguridad más apremiantes:
Detección y respuesta a amenazas: El Centro de Operaciones de Seguridad (SOC) suele verse inundado de alertas, muchas de las cuales son falsos positivos. La IA agente puede investigar de forma autónoma alertas de rutina y escalar solo aquellas que requieren juicio humano.
Esto reduce la “fatiga de alertas” y permite a los analistas centrarse en incidentes de alta prioridad. El impacto puede reducir el tiempo necesario para detectar problemas, explotar vulnerabilidades para los atacantes de Windows y reducir el tiempo de reparación.
Pruebas de penetración: La IA agente puede acelerar el descubrimiento de vulnerabilidades escaneando superficies de ataque y encontrando problemas comunes a escala. Luego, los evaluadores humanos quedan libres para centrarse en los aspectos creativos y de alto impacto de las pruebas que las máquinas no pueden replicar. El resultado es una cobertura más amplia y pruebas más frecuentes y asequibles.
Gestión y validación de vulnerabilidades: El ruido en la gestión de vulnerabilidades está en su punto más alto, lo que frustra a los equipos de seguridad internos. Priorizar qué vulnerabilidades remediar después de verificar cuáles son reales es una tarea compleja. Esto requiere contexto histórico, análisis de impacto empresarial y experiencia técnica.
La IA agente puede realizar la mayoría de las tareas básicas, como estandarizar informes, comparar con eventos pasados y recomendar acciones, mientras mantiene a los humanos informados para priorizar el impacto empresarial en las decisiones finales.
Escalabilidad: Reclutar y retener analistas capacitados es difícil y costoso. Al automatizar gran parte del flujo de trabajo de seguridad, Agentic puede encadenar herramientas de inteligencia artificial y adaptarse en respuesta. Esto permite a las organizaciones limitar el crecimiento de costos y mantener a los empleados enfocados en prioridades estratégicas que requieren inteligencia humana.
Por supuesto, utilizar IA agente para reforzar la ciberseguridad es sólo la mitad de la historia. La seguridad de la IA agente también debe considerarse una prioridad. De lo contrario, los sistemas diseñados para proteger a la empresa pueden convertirse en nuevos vectores de ataque.
Los riesgos deben ser gestionados por los líderes empresariales
Si bien la autonomía aporta beneficios, también requiere una supervisión cuidadosa. Si no se controla, la IA agente puede juzgar mal, fallar o ser manipulada. Por ello, es importante prestar mucha atención a las siguientes áreas:
Inyección inmediata: A medida que los agentes de IA interactúan con fuentes de datos externas, los atacantes pueden incorporar instrucciones maliciosas diseñadas para manipular los resultados. Una inyección rápida que parece trivial en un chatbot puede causar un daño mucho mayor cuando un agente autónomo toma decisiones de seguridad.
Por lo tanto, es imperativo mantener un monitoreo continuo y aplicar barreras de seguridad sólidas.
Acceso a datos y privacidad: Los sistemas de inteligencia artificial destacan en el procesamiento de grandes conjuntos de datos, lo que plantea riesgos si los controles de acceso son débiles. Como resultado, la información confidencial enterrada en repositorios descuidados puede quedar expuesta sin darse cuenta. Las organizaciones deben tener una gobernanza y capacitación de datos sólidas y un control estricto de los conjuntos de datos operativos.
Jailbreak: Incluso con salvaguardas implementadas, los actores de amenazas pueden intentar “hacer jailbreak” a un sistema de IA, convenciéndolo de ignorar las restricciones y operar fuera de su alcance previsto. Combinado con inyecciones rápidas, esto puede tener consecuencias graves, como transferencias financieras no autorizadas.
Para mitigar estos riesgos, las organizaciones deben implementar equipos rojos continuos para impulsar los sistemas de IA.
Adoptando la IA agente
Dado que se espera que la adopción de la IA crezca a una tasa anual del 36,6% entre 2023 y 2030, esto es tanto una oportunidad como un desafío. Si las empresas no adoptan la IA agente, la disparidad entre atacantes y defensores se ampliará, especialmente dada la actual escasez de habilidades en ciberseguridad.
Con él, los equipos de seguridad pueden multiplicar sus capacidades, reducir el tiempo de respuesta y pasar de la extinción de incendios reactiva a la gestión continua de amenazas.
Para lograr el equilibrio, la IA agente debe implementarse con marcos de gobernanza claros, supervisión humana en niveles críticos y un fuerte enfoque en la protección de datos. La colaboración entre desarrolladores, profesionales de la seguridad y formuladores de políticas será fundamental para garantizar que estos sistemas sirvan a los intereses de las organizaciones y la sociedad en general.
Hemos presentado el mejor creador de sitios web con IA.
Este artículo se creó como parte del canal Expert Insights de TechRadarPro, donde destacamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí:












