Como los últimos artículos de la Inteligencia Artificial (AI) de la Unión Europea (UE) se implementaron el 2 de agosto, una mayor investigación sobre el sistema de seguridad en torno al caso de uso de la IA se está nominada como “alto riesgo”.
Una de las regulaciones existentes actuales alrededor de la IA, esta ley determina la calidad del uso de IA segura y moral para la región europea, pero las empresas necesitarán una hoja de ruta clara para garantizar que sean leales. Este artículo aborda las preguntas originales de la ley.
Residente CISO EMEA y Netwerix Protection Research VP.
¿Cómo puede la ley volver a entrar en las reglas de la cibergueca?
La Ley de AI de la UE fomenta la elasticidad cibernética al hacer que la protección técnica específica de IA sea obligatoria. Esta ley exige veneno, envenenamiento modelo, ejemplos adversos, ataques de privacidad y defectos del modelo en esta ley.
Aunque es bueno en sí mismo, definirá las leyes que en realidad son la elasticidad que se verá. Como resultado, el consentimiento real se determinará mediante especificaciones técnicas que aún no existen. Estas especificaciones definirán el significado práctico de “el nivel apropiado de ciberastidad”, por ejemplo.
Lo que sabemos es definitivamente esta ley aplica los requisitos de protección del ciclo de vida con la obligación continua de los sistemas de alto riesgo. Esto significa que las empresas, incluida la solución de IA nominada como “alto riesgo”, deben alcanzar y mantener el nivel apropiado de idoneidad, visión y ciberescopio en cada etapa del ciclo de vida del producto.
Al contrario de esta garantía continua, auditoría de punto en el tiempo y verificaciones de cumplimiento, exige el establecimiento de prácticas de devScops en curso contra el certificado único. Las empresas necesitan crear tuberías que controlen, registren, actualicen e informen automáticamente en seguridad en tiempo real.
La necesidad de una observación continua presenta un cambio fundamental de los modelos de cumplimiento tradicionales y el mayor obstáculo para la implementación es la intensidad de los activos necesarios.
Las empresas requerirán un equipo de protección de inteligencia artificial dedicado e infraestructura de monitoreo automático, creando significativos gastos operativos continuos que abrirán toda la nueva gama de servicios proporcionados por los proveedores de servicios operados (MSP), lo que puede ayudar a pequeñas y medianas empresas (PYME).
Estas obligaciones se encuentran en la parte superior de otras regulaciones como NIS 2, la Ley de Resiliencia Cibernética, GDPR y otras reglas departamentales. Dado que la ley de IA agrega una capa adicional a un entorno de múltiples controles, la necesidad de un enfoque general para el consentimiento aumenta, especialmente si uno se enfoca en complicaciones intercontinentes.
Volviéndose leal
Contrariamente a la ANEX III de la ley, cada sistema de IA comienza con la clasificación de riesgos inicial para el mapa y el análisis de una amplia gama de agencias para garantizar que cumplan con la ley de la IA de la UE. Una vez que se identifican los casos de uso de alto riesgo, la auditoría puede comenzar a examinar los controles de seguridad existentes contra la industria. 10-19 requisitos.
El siguiente movimiento está a punto de ser un poderoso edificio de estructura de gobernanza de IA. Para lograr esto, las empresas querrán invertir en una disciplina entre expertos de los antecedentes de legal, protección, ciencia de datos y ética.
Este grupo de trabajo experto estará mejor equipado para el diseño para el diseño para la gestión. No se trata solo de agregar el papel del consentimiento, sino que requiere cambios básicos en el ciclo de vida del desarrollo del producto con el consentimiento de la protección y el consentimiento del diseño inicial a través de actividades de ejecución.
Una zona desafiante especial está a punto de manejar la asociación de terceros y la cadena de suministro correctamente. Los marcos de cumplimiento ya existentes como NIS 2 y Dora requieren que las empresas pongan más peso sobre ese aspecto de la gestión general de riesgos.
Agregar IA en la imagen aumentará más presión para establecer una garantía de seguridad contractual para todos los elementos y servicios de tercera parte. Podemos esperar un rápido aumento en los proveedores especiales de servicios de cumplimiento de IA en respuesta a ese requisito.
Sin embargo, las empresas deben tener cuidado con el lavado de cumplimiento, donde los vendedores exigen la preparación sin un poder técnico profundo.
Miró el futuro
Uno de los éxitos esperados más notables es la estandarización de la protección de la IA en toda la región, creando una línea de base armoniosa de protección de la UE. Esta base está abordando directamente la protección específica de la IA, incluido un enfoque claro en ataques adversos, envenenamiento y violaciones de privacidad.
Una de las principales fortalezas de las reglas propuestas es enfatizar los principios diseñados por su protección que integran consideraciones de seguridad desde el principio y la vida operativa del sistema AI. Se complementa con el registro estricto, una observación extensa después del mercado e informando eventos obligatorios con mayores requisitos de responsabilidad y transparencia.
Dado que la IA está a punto de desempeñar un papel clave en muchas áreas de la vida, incluida la cibernidad, especialmente con el aumento de la IA del agente, es seguro y el término preparará nuestra elasticidad adaptada, la fusión de la resiliencia cibernética, la confianza cero y la alineación de riesgos basado en la IA.
Para superar las pérdidas
A pesar de todos los aspectos comprometidos, varias limitaciones y alertas pueden evitar la efectividad de las reglas de protección de la IA. Una preocupación inicial es la evolución de la rápida amenaza del panorama de IA subyacente. Los nuevos vectores de atacantes pueden cultivarse rápidamente de lo que las reglas estáticas pueden actualizarse, lo que requiere enmiendas regulares a través de leyes representativas.
Las brechas significativas de recursos y habilidades también pueden crear un desafío, ya que la autoridad nacional y las empresas notificadas requerirán fondos adecuados y personal de mayor calificación para hacer cumplir y aplicar de manera efectiva estas reglas.
El tiempo solo dirá cuán efectivos serán estos nuevos sistemas, pero una cosa es segura: esta ley innovadora identificará una nueva era de IA y CyberSefici.
Más allá de la frontera de la UE, el “efecto de Bruselas” en todo el mundo despierta mejoras de protección similares en el sistema de IA, y esto puede crear efectos de reemplazo global al ampliar los beneficios de estas reglas más allá de los Estados miembros de la Unión Europea.
Las empresas que intentan levantar las soluciones de IA deben priorizarse en su práctica y el consentimiento debe considerarse como un cambio fundamental en la forma en que se crean los sistemas y cómo se llevan al mercado los productos, no como una práctica de caja de verificación.
Presentamos el mejor software de cifrado.
Este artículo fue producido como parte del canal de Insight Specialist TechRaderPro, donde somos la mejor y brillante mente brillante en la industria de la tecnología. Las opiniones publicadas aquí están en el autor y no son esenciales para TechroderPro o Future PLC. Si está interesado en contribuir, busque más aquí: