- Uso de GPT -4 para crear ransomware o código de shell inverso en tiempo de ejecución malteria
- El malware habilitado para LLM solo evite la identificación creando argumentos contaminados durante la ejecución
- Los investigadores no encontraron ninguna evidencia de despliegue; Quizás una herramienta de prueba o de prueba de prueba
Los investigadores de CyberCquire de Sentinelone han presentado una nueva pieza de malware para crear códigos contaminados en tiempo real utilizando el chatgpt -4 de OpenAe.
Los investigadores afirman cómo los actores de amenaza malteria representan y representan un cambio significativo al desplegar códigos maliciosos, señalando: “La inclusión de LLM en Malwar identifica un cambio cualitativo en la artesanía anti -tradecería”.
“Con la capacidad de generar argumentos y comandos contaminados en el tiempo de ejecución, el malware habilitado para LLM presenta nuevos desafíos para los defensores”.
En el gobierno
El descubrimiento significa que la comunidad de seguridad cibernética tiene una sección de malware completamente nueva: malware habilitado para LLM, o malware que integró directamente los modelos de habla mayor en su efectividad.
En resumen, Malterial es un generador de malware. Cuando los oponentes lo presentan, pregunta si quieren hacer un encriptador o una carcasa inversa de un ransware. El aviso se transmite luego al GPT -4 AI, que responde al código Python de acuerdo con el formato seleccionado.
Sentinelone dijo que el código en el archivo de malware no existe hasta el rnstime y, en su lugar, ha generado dinámicamente. Hace que la detección sea mucho más difícil del equipo de protección terrible tradicional, ya que no hay un código malicioso estático para el escaneo.
Además, después de descubrir los scripts de Python, la integración GPT -4 y el ejecutable con la clave API codificada y la estructura rápida han identificado después de detectar una ventana.
Además, dado que se usó el punto final de la API murió a fines de 2023, Sentinelone llegó a la conclusión de que el mal terminal debe ser más antiguo de lo que debe ser el primer ejemplo del malware con AI.
Afortunadamente, no hay evidencia de que el malware haya sido desplegado en la naturaleza, por lo que solo puede ser una prueba de concepto o una herramienta de grupo rojo. Sentinelone cree que la maltería es una señal de levantamiento de cosas y la comunidad de seguridad cibernética para prepararse en consecuencia:
“Aunque el uso de malware capaz con LLM habilitado todavía es limitado y básicamente experimental, esta etapa inicial de desarrollo brinda a los defensores la oportunidad de aprender de los errores y ajustar su procedimiento en consecuencia”, dice el informe.
“Esperamos que los oponentes adapten sus estrategias, y esperamos poder crear más investigación sobre las tareas presentadas aquí”.
A través de Noticias de hacker