- Discusión de instrucciones ocultas hasta que las indicaciones corruptas permanezcan invisibles
- El ataque funciona utilizando cómo se cargan las imágenes de AI re -Submitidas
- La interpolación de Bikubik puede revelar texto negro de imágenes especialmente diseñadas
El equipo de IA está más integrado con el trabajo diario, así como los riesgos de seguridad conectados a ellos también se están desarrollando en nuevos aspectos.
Los investigadores del rastro de bits han mostrado un método donde las indicaciones contaminadas están ocultas dentro de la imagen y luego se publican durante los modelos de idiomas grandes.
La forma en que la técnica se detiene las imágenes de las plataformas AI revela eficientemente patrones que desaparecen en su forma original, pero claramente vuelve a superar el algoritmo una vez.
Clavija
Esta idea se hace en un artículo 2021 en la tunshog de Alemania, que sugiere que la máquina de escala de imágenes puede usarse como una superficie de ataque para el aprendizaje.
Trail -Off -Off -Bites mostró cómo las manualidades pueden manipular sistemas, incluidos Gemi CLI, Vertex AI Studios, Android Google Assistant y la interfaz web de Jemi.
En un caso, los datos del calendario de Google amenazaron la viabilidad del mundo real se realizó en una dirección de correo electrónico externa sin la aprobación del usuario.
El ataque gana la interpolación, como el vecino, bilinier o el remuestreo bikebico más cercano.
Cuando una imagen se prepara intencionalmente, el descenso introduce patrones de alias que revelan el texto secreto.
En una demostración, las áreas oscuras se transfirieron para mostrar texto negro oculto durante el remuestreo de bicicletas, lo que luego explicó como la LLM como entrada del usuario.
Desde el punto de vista del usuario, no parece haber sucedido nada inusual. Sin embargo, bajo el velo, el modelo sigue las instrucciones que están integradas con indicaciones válidas.
Para ilustrar el riesgo, el rastro de los bits ha creado “anamorfar”, un equipo de código abierto que crea esta imagen nacional para varios métodos de escala.
Muestra que cuando el procedimiento es especializado, otros pueden repetirlo si hay una falta de defensa.
El ataque plantea preguntas sobre la confianza en los sistemas de IA multimodales porque muchas plataformas ahora dependen de ellas para el trabajo de rutina y la carga de una figura simple puede desencadenar el acceso de datos involuntario a lo posible.
Si la información personal o confidencial se implementa de esta manera, surge el robo de identidad.
Dado que estos modelos a menudo están vinculados al calendario, la plataforma de comunicación o el equipo de flujo de trabajo, el riesgo se expande al contexto amplio.
Para aliviarlo, los usuarios deben limitar los niveles de entrada, obtener una vista previa de los resultados de baja crail y borrar la confirmación de llamadas de equipos confidenciales.
Las defensas tradicionales como los firewalls no están construidas para detectar este fabricante, dejando una brecha que los ataques se pueden usar al final.
Los investigadores enfatizaron que solo se pueden colocar trajes de seguridad y poderosos tipos de diseño en estos riesgos nacionales de manera confiable.
Los investigadores dicen: “Sin embargo, la defensa más poderosa es la aplicación de diseños protegidos y defensa metodológica que reduce las inyecciones rápidas efectivas al exceder las inyecciones de inmediato multimodal”, dicen los investigadores.











