- La codificación Vibe está muy extendida, pero el código generado por IA también tiene vulnerabilidades
- Nadie sabe realmente quién es el responsable final del código de la IA
- Tanto la IA como los humanos tienen un papel que desempeñar en el desarrollo
Una nueva investigación afirma que más de dos tercios (69%) de las organizaciones han encontrado vulnerabilidades en el código generado por IA, a pesar de que el 24% del código de producción ahora está escrito por IA a nivel mundial.
El informe sobre el estado de la IA en la seguridad y el desarrollo de Aikido Security encontró que, si bien las empresas están impulsando agendas de IA para mejorar la eficiencia y aumentar la producción, los equipos de seguridad (53%), los desarrolladores (45%) y los de integración (42%) todavía culpan al código de IA cuando sale mal.
Aikido dice que esto está creando confusión sobre la propiedad de las vulnerabilidades creadas por la IA, lo que en última instancia podría hacer que sea más difícil rastrearlas y remediarlas.
El código generado por IA no es perfecto
“Los desarrolladores no escribieron el código, InfoSec no pudo revisarlo y legalmente no pueden asignar responsabilidad si algo sale mal. Es una pesadilla de riesgo real”, señaló Mike Wilkes, CISO de Aikido. “Nadie sabe quién es el responsable cuando el código generado por IA falla”.
En Europa, el 20% de las empresas han tenido incidentes graves, mientras que sus homólogas estadounidenses han sufrido más del doble (43%), lo que el Aikido atribuye a dos factores: la alta probabilidad de que los desarrolladores estadounidenses eludan los controles de seguridad (72% frente a 61%) y el cumplimiento más estricto de Europa. Aún así, la mitad (53%) de las empresas europeas admiten perder aprox.
Puede que las herramientas de inteligencia artificial no sean el enemigo, pero sí un ecosistema demasiado complejo. El informe revela cómo el 90% de los usuarios de seis a ocho dispositivos han experimentado incidencias, frente al 64% de los que utilizan sólo uno o dos dispositivos.
Los tiempos de recuperación también se prolongaron para aquellos que utilizaron más herramientas (3,3 días para 1 o 2 herramientas frente a 7,8 días para más de 5 herramientas).
Sin embargo, las perspectivas son más positivas. La mayoría (96%) está de acuerdo en que la IA eventualmente escribirá código seguro y confiable dentro de los próximos cinco años, y casi la misma cantidad (90%) cree que la IA podrá realizar pruebas de penetración dentro de 5,5 años.
Mejor aún (para los trabajadores), sólo el 21% piensa que esto sucederá sin supervisión humana, lo que destaca la importancia de los trabajadores humanos en el proceso de desarrollo.
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy
El mejor antivirus para todos los bolsillos