- Estados Unidos lanzó GenAI.mil, dando a tres millones de miembros del Departamento de Defensa acceso a Gemini para el gobierno.
- Los expertos advierten que los riesgos de inyección rápida podrían permitir el espionaje si las cuentas o las estaciones de trabajo se ven comprometidas.
- La historia de protestas de los empleados de Google por proyectos militares plantea dudas sobre la respuesta interna
El ejército estadounidense se está quedando con el Gemini de Google. A principios de esta semana, el Secretario de Defensa de Estados Unidos, Pete Hesgeth, publicó un nuevo vídeo en X, anunciando GenAI.mil, una plataforma que “pone los modelos de inteligencia artificial fronterizos más poderosos del mundo directamente en manos de cada combatiente estadounidense”.
La plataforma estará disponible para casi tres millones de empleados del Departamento de Defensa de EE. UU. (o, como lo llama la administración actual, el Departamento de Guerra), incluido personal militar y civil, todos los cuales recibirán capacitación gratuita sobre cómo utilizar la herramienta.
La plataforma se ejecuta en Gemini for Government de Google, una plataforma y servicio de inteligencia artificial empresarial especializado diseñado específicamente para agencias del gobierno federal de EE. UU.
Trabajadores de Google contra la guerra
En teoría, esto significa que los modelos son más seguros, conformes y preparados para el gobierno que las alternativas comerciales de uso gratuito. Sin embargo, aún está por verse si ese es realmente el caso.
En su composición, cibernoticias Argumento de que aquí puede haber muchos errores. A pesar de los mejores esfuerzos de todos, los modelos de IA actuales todavía son susceptibles a ataques de inyección, lo que significa que los países adversarios, como Rusia, China, Corea del Norte o Irán, pueden encontrar otra vía para el robo de datos y el ciberespionaje.
“La estación de trabajo o la cuenta de tarjeta de acceso general de cualquier usuario comprometido ahora viene con una poderosa consola de inteligencia artificial que puede acceder al contexto interno a través de la integración o proporcionar una manera conveniente de resumir o transformar datos robados”, dijo a la publicación el experto en ciberseguridad de la Universidad de Tulane, Joshua Copeland.
Al mismo tiempo, los empleados de Google guardan silencio. A lo largo de los años, los empleados han protestado repetidamente por la participación de la empresa en fines militares o de defensa.
En 2018, protestaron contra el Proyecto Maven, un proyecto de inteligencia artificial para analizar imágenes de drones. Miles de empleados firmaron una carta diciendo que la tecnología de Google se estaba utilizando para la guerra, mientras que varios empleados dimitieron. Google finalmente decidió no renovar el contrato.
Entre 2021 y 2023, hubo un contrato de nube e inteligencia artificial por valor de 1.200 millones de dólares con el gobierno y el ejército israelíes, el Proyecto Nimbus. Los empleados de Google protestaron interna y públicamente, argumentando que la tecnología podría usarse para vigilancia, operaciones militares o abusos contra los derechos humanos. Algunos fueron disciplinados o despedidos después de que el activismo se intensificó.
a través de cibernoticias
El mejor antivirus para todos los bolsillos
Siga TechRadar en Google News Y Agréganos como fuente preferida Recibe noticias, reseñas y opiniones de nuestros expertos en tu feed. ¡No olvides hacer clic en el botón de seguir!
Y por supuesto que puedes Siga TechRadar en TikTok Reciba nuestras actualizaciones periódicas en forma de noticias, reseñas, unboxing y videos. WhatsApp muy








