- OpenAI afirma que los ataques de inyección rápida no pueden eliminarse por completo, solo mitigarse
- Las indicaciones maliciosas ocultas en los sitios web pueden engañar a los navegadores de IA para que extraigan datos o instalen malware
- El rápido ciclo de retroalimentación de OpenAI utiliza el entrenamiento del adversario y el descubrimiento automático para reforzar las defensas
OpenAI afirma que, si bien es posible que los navegadores de IA nunca estén completamente protegidos contra ataques de inyección rápida, eso no significa que la industria deba simplemente renunciar a la idea o conceder la derrota a los estafadores: hay formas de proteger los productos.
La compañía ha publicado una nueva publicación en su blog sobre los riesgos de ciberseguridad en su navegador Atlas, impulsado por inteligencia artificial, donde comparte una perspectiva algo sombría.
“Es poco probable que las inyecciones rápidas, al igual que las estafas y la ingeniería social en la web, alguna vez se ‘resuelvan’ por completo”, se lee en el blog. “Pero somos optimistas de que un ciclo de respuesta rápida proactivo y altamente reactivo puede reducir materialmente el riesgo del mundo real con el tiempo. Al combinar el descubrimiento automatizado de ataques con entrenamiento de adversarios y protección a nivel de sistema, podemos detectar nuevos patrones de ataque antes, cerrar brechas más rápido y reducir continuamente los costos de explotación”.
Bucle de retroalimentación rápida
Entonces, ¿qué es exactamente la inyección rápida y qué es este método de “bucle de retroalimentación rápida”?
La inyección rápida es un tipo de ataque en el que a un agente de IA malicioso se le “inyecta” un mensaje malicioso sin su conocimiento o consentimiento.
Por ejemplo, a un navegador con IA se le puede permitir leer todo el contenido de un sitio web. Si ese sitio web es malicioso (o está secuestrado) y contiene un mensaje oculto (por ejemplo, letras blancas sobre un fondo blanco), la IA puede actuar en consecuencia sin que el usuario se dé cuenta.
Ese mensaje puede ser una variedad de cosas, desde extraer archivos confidenciales hasta descargar y ejecutar complementos maliciosos del navegador.
Parece que OpenAI quiere combatir el fuego con fuego. Creó un robot, lo entrenó mediante aprendizaje reforzado y le permitió convertirse en un hacker que buscaba formas. Esto enfrenta a ese robot contra un defensor de IA que luego intenta burlarse entre sí. El resultado final es que el defensor de la IA puede ver a través de la mayoría de las estrategias de ataque.
El mejor antivirus para todos los bolsillos
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy










