Grok, la IA de Elon Musk, suma una nueva denuncia por la generación de imágenes sexualizadas de menores


Una nueva denuncia judicial volvió a colocar en el centro del debate a Grok, el sistema de inteligencia artificial desarrollado por la empresa xAI, de Elon Musk, tras acusaciones por la presunta generación de imágenes sexualizadas de menores a partir de fotos reales.

La demanda colectiva se presentó este martes ante el Tribunal del Distrito Norte de California, Estados Unidos, por los estudios jurídicos Lieff Cabraser Heimann & Bernstein y Baehr-Jones Law en representación de tres víctimas menores de edad.

Según detalló el estudio en un comunicado, la herramienta habría permitido la creación de material de abuso sexual infantil mediante el uso de fotos auténticas obtenidas en redes sociales.

El documento sostiene que la compañía diseñó y promocionó su generador de imágenes con funciones capaces de producir contenido sexual explícito de personas identificables, incluidos menores. También afirma que la firma omitió la adopción de mecanismos de prevención considerados estándar en la industria tecnológica.

La presentación judicial señala que la plataforma incluyó un denominado “modo picante”, orientado a atraer usuarios interesados en contenidos de carácter sexual. Los abogados demandantes argumentaron que el sistema interpretó referencias a adolescentes bajo una presunción de “intención positiva”, lo que habría facilitado la creación de imágenes indebidas.

Investigadores del Centro para la Lucha contra el Odio Digital – una ONG británico-estadounidense sin fines de lucro con oficinas en Londres y Washington, D.C.- estimaron que, durante un período de once días entre fines de diciembre de 2025 y comienzos de enero de 2026, la herramienta produjo cerca de tres millones de imágenes sexualizadas y unas 23.000 representaciones que aparentaban involucrar a menores.

Tras la difusión pública de estos datos, la empresa restringió la generación de imágenes a usuarios con suscripción paga. Sin embargo, la denuncia afirma que la función se mantuvo activa como un beneficio premium y que la compañía continuó con la concesión de licencias de acceso al modelo a aplicaciones de terceros.

La Internet Watch Foundation -una organización sin fines de lucro con sede en el Reino Unido- advirtió que parte de este material circuló luego en la “dark web”, donde depredadores sexuales lo reutilizaron con fines de intercambio y distribución. Según la organización, la proliferación de contenidos generados con inteligencia artificial plantea desafíos inéditos para la protección infantil en línea.

En el caso concreto, las adolescentes descubrieron que un hombre, que luego fue detenido, utilizó fotos reales de ellas para producir imágenes y videos hiperrealistas con contenido sexual explícito. El agresor habría obtenido algunas de esas imágenes en redes sociales y persuadido a una de las jóvenes para que enviara retratos personales.

El material se difundió luego a través de plataformas de mensajería como Telegram y Discord, y servicios de intercambio de archivos, como Mega. La acusación sostiene que el agresor intercambió las imágenes generadas por contenido sexual de otros menores, lo que agravó el impacto psicológico en las víctimas.

“Ver a mi hija sufrir un ataque de pánico al comprender que esas imágenes existían y que nadie podía retirarlas fue devastador. Lo que debía ser el año más feliz de su vida quedó marcado por el miedo a que cualquier foto vuelva a usarse en su contra”, expresó la madre de una de las víctimas.

Los archivos de las tres denunciantes se incorporaron a una base nacional administrada por el Centro Nacional para Niños Desaparecidos y Explotados. De acuerdo con la demanda, las víctimas recibirán notificaciones cada vez que esas imágenes aparezcan en investigaciones criminales. Los abogados sostienen que cada alerta representa “una nueva ola de trauma”.

“Estas niñas vieron cómo fotografías escolares y familiares se transformaron en material de abuso sexual mediante una herramienta creada por una empresa multimillonaria. Sin esa tecnología, este contenido ilegal no habría existido. Buscamos que la compañía responda por cada menor afectada”, afirmó Annika K. Martin, socia del estudio Lieff Cabraser.

Por su parte, la abogada Vanessa Baehr-Jones subrayó la dimensión colectiva del caso al sostener que “la empresa decidió obtener beneficios económicos a partir de un producto peligroso, aun con conocimiento de las consecuencias”. “Las sobrevivientes actúan con valentía al impulsar esta demanda en nombre de miles de menores que enfrentan el mismo riesgo”, señaló.

La acción judicial invoca la denominada Ley de Masha, la Ley de Protección de Víctimas de Trata y normas del estado de California. Los demandantes solicitan indemnizaciones, sanciones punitivas y medidas cautelares que obliguen a modificar el funcionamiento del sistema.

Fuente: www.clarin.com

Artículos Relacionados

Volver al botón superior