Grok está impulsando el ‘desnudo’ de la IA en la corriente principal

Elon Musk no ha impedido que Grok, el chatbot desarrollado por su empresa de inteligencia artificial xAI, genere imágenes sexualizadas de mujeres. Después de que surgieran informes la semana pasada de que la herramienta de generación de imágenes en X se estaba utilizando para crear imágenes sexualizadas de niños, Grok ha creado potencialmente miles de imágenes no consensuadas de mujeres en fotografías «desnudas» y «en bikini».

Cada pocos segundos, Grok continúa creando imágenes de mujeres en bikini o ropa interior en respuesta a las indicaciones de los usuarios en X, según una revisión de WIRED de la producción en vivo publicada públicamente por los chatbots. El martes, Grok publicó al menos 90 imágenes de mujeres en traje de baño y en varios niveles de desnudez en menos de cinco minutos, según muestra el análisis de las publicaciones.

Las imágenes no contienen desnudos, pero involucran al chatbot propiedad de Musk “quitando” la ropa de las fotos que otros usuarios han publicado en X. A menudo, en un intento por evadir las barreras de seguridad de Grok, los usuarios solicitan, sin necesariamente lograrlo, que se editen fotos para que las mujeres usen un “bikini de hilo” o un “bikini transparente”.

Si bien la dañina tecnología de generación de imágenes de IA se ha utilizado para acosar y abusar digitalmente de las mujeres durante años (estos resultados a menudo se denominan deepfakes y se crean mediante software de “nudificación”), el uso continuo de Grok para crear una gran cantidad de imágenes no consensuadas marca aparentemente el caso de abuso más común y generalizado hasta la fecha. A diferencia del software dañino específico para desnudar o “desvestir”, Grok no cobra dinero al usuario por generar imágenes, produce resultados en segundos y está disponible para millones de personas en X, todo lo cual puede ayudar a normalizar la creación de imágenes íntimas no consensuadas.

«Cuando una empresa ofrece herramientas de IA generativa en su plataforma, es su responsabilidad minimizar el riesgo de abuso basado en imágenes», dice Sloan Thompson, director de capacitación y educación de EndTAB, una organización que trabaja para abordar el abuso facilitado por la tecnología. «Lo alarmante aquí es que X ha hecho lo contrario. Han integrado el abuso de imágenes habilitado por IA directamente en una plataforma convencional, haciendo que la violencia sexual sea más fácil y escalable».

La creación de imágenes sexualizadas por parte de Grok comenzó a volverse viral en X a finales del año pasado, aunque la capacidad del sistema para crear este tipo de imágenes se conoce desde hace meses. En los últimos días, los usuarios de X han atacado fotos de personas influyentes en las redes sociales, celebridades y políticos, quienes pueden responder a una publicación de otra cuenta y pedirle a Grok que cambie una imagen que se ha compartido.

Las cuentas de mujeres que publicaron fotos de ellas mismas les respondieron y le pidieron a Grok que convirtiera la foto en una imagen de “bikini”. En un caso, varios usuarios de X pidieron a Grok que modificara una imagen de la viceprimera ministra de Suecia para mostrarla en bikini. Según los informes, dos ministros del gobierno del Reino Unido también han sido “despojados” y quedaron en bikini.

Las imágenes de X muestran fotografías de mujeres completamente vestidas, como una persona en un ascensor y otra en el gimnasio, transformándose en imágenes con poca ropa. “@grok la puso en bikini transparente”, se lee en un mensaje típico. En una serie diferente de publicaciones, un usuario le pidió a Grok que «inflara su pecho en un 90%», luego «inflara sus muslos en un 50%» y, finalmente, que «se cambiara la ropa por un bikini diminuto».

Un analista que ha rastreado deepfakes explícitos durante años y pidió no ser identificado por razones de privacidad, dice que Grok probablemente se ha convertido en una de las plataformas más grandes que albergan imágenes deepfake dañinas. «Es algo totalmente común», afirma el investigador. “No es un grupo oscuro [creating images]son literalmente todos, de todos los orígenes. Personas publicando en sus principales. Preocupación cero”.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept