Un sistema de IA resiliente trasciende el rendimiento técnico. Refleja la cultura de equipo detrás de esto.
Y, a medida que la IA se integra cada vez más en las empresas y es utilizada por los empleados y el público, los sistemas de los que dependemos se vuelven más difíciles de gestionar.
Los riesgos que introduce la IA no suelen ser dramáticos ni repentinos. Surgen lentamente, debido a una propiedad poco clara, actualizaciones mal administradas, falta de capacitación y una toma de decisiones fragmentada.
La seguridad, en este contexto, depende menos del código y más de los hábitos y la coordinación de los equipos creados en torno a él.
Replantear la seguridad de la IA
Cuando se habla de seguridad de la IA, la atención se centra en la capa técnica, conjuntos de datos limpios, algoritmos sólidos y modelos bien construidos. Es un instinto comprensible. Estos son elementos visibles, tangibles e importantes.
Pero, en realidad, la mayor parte del riesgo no surge de errores lógicos sino de lagunas de coordinación. Se construyen lentamente cuando las actualizaciones no se registran, cuando los modelos se mueven entre equipos sin contexto o cuando nadie está seguro de quién realizó el último cambio.
El proyecto de ley de resiliencia y seguridad cibernética del Reino Unido es una medida para formalizar cómo se debe proteger la infraestructura digital. Esto introduce nuevos requisitos de garantía operativa, monitoreo continuo y respuesta a incidentes, particularmente para los proveedores de servicios que respaldan sistemas críticos.
Pero si bien el proyecto de ley agudiza las expectativas en torno a la infraestructura, todavía no captura cómo se desarrolla y mantiene realmente la IA.
Los modelos ya están influyendo en decisiones de alto riesgo en sectores como la salud y las finanzas. Y a menudo se construyen en entornos en rápida evolución donde los roles cambian, las herramientas evolucionan y la gobernanza no siempre es dinámica.
Donde aumenta el riesgo
El desarrollo de la IA rara vez reside en un solo equipo. Los modelos se vuelven a entrenar, reutilizar y adaptar a medida que cambian las necesidades. Esa flexibilidad es parte de su valor, pero también añade una capa de complejidad.
Pequeños cambios pueden tener enormes efectos. Un equipo puede actualizar los datos de entrenamiento para reflejar nuevos aportes. Otro podría ajustar un umbral para reducir los falsos positivos. Un tercero puede implementar un modelo sin comprobar cómo se configuró previamente.
Ninguna de estas conclusiones es inherentemente errónea. Pero cuando los equipos no pueden volver a la raíz de una decisión, o nadie está seguro de quién aprobó un cambio, se pierde la capacidad de reaccionar rápidamente.
Estas no son fallas de código o arquitectura, sino señales de que la forma en que los equipos construyen, adaptan y entregan sistemas no ha seguido el ritmo de cuán ampliamente se usan esos métodos ahora. Cuando la cultura laboral se queda atrás, los riesgos se vuelven más difíciles de ver y, por lo tanto, más difíciles de contener.
Convertir la cultura en una superficie de control
Si el riesgo está integrado en las prácticas cotidianas, la resiliencia debe integrarse en el mismo lugar. La cultura es más que un facilitador de buenas prácticas: se convierte en un mecanismo para mantener el control a medida que el sistema crece.
Ese principio se refleja en los reglamentos. La legislación de la UE sobre IA establece requisitos para los sistemas de alto riesgo, incluidas evaluaciones consistentes y códigos de práctica voluntarios, pero gran parte de la responsabilidad de incorporar la gobernanza en las rutinas diarias todavía recae en las organizaciones que los implementan.
En el Reino Unido, el Código de prácticas de ciberseguridad de la IA del Departamento de Ciencia, Innovación y Tecnología sigue un enfoque similar, combinando principios de alto nivel con orientación práctica que ayuda a convertir los principios empresariales en reglas de trabajo.
Los programas de investigación y acreditación apuntan en la misma dirección. Los estudios sobre el desarrollo de la IA en el mundo real, como la iniciativa LASR del Reino Unido, muestran cómo la comunicación, la transferencia y las suposiciones entre equipos dan forma tanto a las creencias como a los modelos.
Iniciativas como los Premios Nacionales de IA destacan a las organizaciones que están poniendo en práctica la gobernanza cultural y estableciendo estándares claros de madurez.
Para las empresas, la tarea ahora es hacer de la claridad cultural una parte más integrada del diseño operativo. Cuanto más puedan confiar los equipos en reglas compartidas, propiedad visible y toma de decisiones consistente, más resilientes se volverán sus sistemas de IA con el tiempo.
Mirando hacia adelante
A medida que la IA se convierte en parte de la toma de decisiones cotidiana, el enfoque del liderazgo debe pasar del desempeño del modelo individual al entorno más amplio en el que operan los sistemas.
Esto significa ir más allá de las soluciones a nivel de proyecto e invertir en el tejido conectivo entre equipos, rutinas, foros y prácticas que brindan al desarrollo de la IA el marco para escalar de manera segura.
Desarrollar esa madurez lleva tiempo, pero comienza con claridad. Claridad de propiedad, cambio y contexto.
Las organizaciones que prosperarán serán aquellas que traten la cultura no como una habilidad social, sino como un activo laboral, que debe ser revisado, dotado de recursos y mejorado continuamente.
Es este marco cultural el que, en última instancia, dará forma a la seguridad. A través de prácticas integradas que hacen que el riesgo sea más fácil de ver, emerger y actuar a medida que la IA se vuelve más importante para la forma en que operan las empresas hoy en día.
Hemos presentado los mejores cursos de ciberseguridad en línea.
Este artículo se creó como parte del canal Expert Insights de TechRadarPro, donde destacamos las mejores y más brillantes mentes de la industria tecnológica actual. Las opiniones expresadas aquí son las del autor y no necesariamente las de TechRadarPro o Future plc. Si está interesado en contribuir, obtenga más información aquí:












