La UE también está investigando porque Grok generó 23.000 imágenes CSAM

La UE ha iniciado su propia investigación sobre el chatbot Grok que genera material de abuso sexual infantil. Se estima que Grok generó 23.000 imágenes CSAM en sólo 11 días.

A pesar de los numerosos llamamientos para que Apple y Google eliminen temporalmente X y Grok de la App Store, ninguna de las empresas ha…

Grok generó 23.000 imágenes CSAM

Como la mayoría de los otros chatbots de IA, Grok de xAI puede generar imágenes a partir de mensajes de texto. Puede hacerlo directamente en la aplicación, en la web o a través de X. Sin embargo, a diferencia de otros servicios, Grok tiene salvaguardias extremadamente laxas que lo han visto generar imágenes semidesnudas de personas reales, incluidos niños, sin consentimiento.

Engadget informa que una estimación sugiere que Grok generó alrededor de 23.000 imágenes CSAM en sólo 11 días.

El Centro para la Lucha contra el Odio Digital (CCDH) publicó sus conclusiones. La organización británica sin fines de lucro basó sus hallazgos en una muestra aleatoria de 20.000 imágenes de Grok del 29 de diciembre al 9 de enero. Luego, el CCDH extrapoló una estimación más amplia basada en los 4,6 millones de imágenes generadas por Grok durante este período (…)

Durante un período de 11 días, Grok generó aproximadamente 3 millones de imágenes sexualizadas, incluidas unas 23.000 de niños.

Dicho de otra manera, Grok generó alrededor de 190 imágenes sexualizadas por minuto durante ese período de 11 días. Entre ellos, realiza una imagen sexualizada de niños una vez cada 41 segundos.

Se ha iniciado una investigación de la UE

A principios de este mes, tres senadores estadounidenses pidieron al director ejecutivo de Apple, Tim Cook, que eliminara temporalmente X y Grok de la App Store por “generar contenido desagradable”. La empresa aún no lo ha hecho.

Dos países han bloqueado la aplicación y ya se están llevando a cabo investigaciones tanto en California como en el Reino Unido. El Tiempos financieros informa que la UE también ha abierto una investigación.

La investigación, anunciada el lunes en virtud de la Ley de Servicios Digitales de la UE, evaluará si xAI intentó mitigar los riesgos de implementar las herramientas de Grok en X y distribuir contenido que “podría equivaler a material de abuso sexual infantil”.

“La falsificación sexual no consensuada de mujeres y niños es una forma violenta e inaceptable de degradación”, afirmó la directora técnica de la UE, Hena Virkunen.

Si se descubre que la empresa ha violado la DSA, puede recibir una multa de hasta el 6% de sus ingresos globales anuales.

Foto de Logan Voss en Unsplash

Agregue 9to5Mac como fuente preferida en Google
Agregue 9to5Mac como fuente preferida en Google

FTC: utilizamos enlaces de afiliados automáticos que generan ingresos. más.

Enlace de origen

LEAVE A REPLY

Please enter your comment!
Please enter your name here