Grok desnuda a cualquiera, incluidos menores

Grok de xAI está eliminando ropa de fotografías de personas sin su consentimiento luego del lanzamiento de esta semana de una función que permite a los usuarios de X editar instantáneamente cualquier imagen usando el bot sin necesidad del permiso del autor original. El cartel original no solo no recibe una notificación si su imagen fue editada, sino que Grok parece tener pocas barreras para evitar cualquier cosa que no sea una desnudez totalmente explícita. En los últimos días, X se ha visto inundado de imágenes de mujeres y niños que aparecen embarazadas, sin falda, en bikini o en otras situaciones sexualizadas. También se han utilizado imágenes de líderes mundiales y celebridades en imágenes generadas por Grok.

La empresa de autenticación de IA Copyleaks informó que la tendencia a eliminar la ropa de las imágenes comenzó cuando los creadores de contenido para adultos le pidieron a Grok imágenes sexys de ellos mismos después del lanzamiento de la nueva función de edición de imágenes. Luego, los usuarios comenzaron a aplicar indicaciones similares a las fotos de otros usuarios, predominantemente mujeres, que no dieron su consentimiento para las ediciones. Las mujeres notaron el rápido aumento en la creación de deepfake en X en varios medios de noticias, incluido Metro y PetaPixel. Grok ya podía modificar imágenes de forma sexual cuando las etiquetaba en una publicación en X, pero la nueva herramienta «Editar imagen» parece haber estimulado el reciente aumento de popularidad.

En una publicación de X, ahora eliminada de la plataforma, Grok editó una foto de dos niñas con ropa escasa y poses sexualmente sugerentes. Otro usuario de X incitó a Grok a disculparse por el «incidente» que involucraba «una imagen de IA de dos niñas (edad estimada entre 12 y 16 años) con vestimenta sexualizada», calificándolo de «una falla en las salvaguardias» que, según dijo, podría haber violado las políticas de xAI y la ley estadounidense. (Aunque no está claro si las imágenes creadas por Grok cumplirían con este estándar, las imágenes sexualmente explícitas realistas generadas por IA de adultos o niños identificables pueden ser ilegales según la ley estadounidense). En otro intercambio con un usuario, Grok sugirió que los usuarios lo reportaran al FBI para CSAM, señalando que está «arreglando urgentemente» las «lagunas en las salvaguardias».

Pero la palabra de Grok no es más que una respuesta generada por IA a un usuario que pide una «nota de disculpa sincera»; no indica que Grok «entiende» lo que está haciendo ni refleja necesariamente la opinión y las políticas reales del operador xAI. En cambio, xAI respondió a Reuters‘ solicitud de comentarios sobre la situación con solo tres palabras: «Legacy Media Lies». xAI no respondió a El bordeSolicitud de comentarios a tiempo para su publicación.

El propio Elon Musk parece haber provocado una ola de ediciones en bikini después de pedirle a Grok que reemplazara una imagen memética del actor Ben Affleck con él mismo luciendo un bikini. Días después, la chaqueta de cuero del Kim Jong Un de Corea del Norte fue reemplazada por un bikini espagueti multicolor; El presidente de Estados Unidos, Donald Trump, estaba cerca con un traje de baño a juego. (Indique chistes sobre una guerra nuclear). Una foto de la política británica Priti Patel, publicada por un usuario con un mensaje sexualmente sugerente en 2022, se convirtió en una foto de bikini el 2 de enero. En respuesta a la ola de fotos en bikini en su plataforma, Musk volvió a publicar en broma una foto de una tostadora en bikini con la leyenda «Grok puede ponerle un bikini a todo».

Si bien algunas de las imágenes, como la tostadora, evidentemente eran bromas, otras estaban claramente diseñadas para producir imágenes casi pornográficas, incluidas instrucciones específicas para que Grok usara estilos de bikini diminutos o se quitara la falda por completo. (El chatbot se quitó la falda, pero no mostró desnudez total y sin censura en las respuestas. El borde vio.) Grok también cumplió con las solicitudes de reemplazar la ropa de un niño pequeño por un bikini.

Los productos de inteligencia artificial de Musk se comercializan de manera destacada como muy sexualizados y mínimamente protegidos. La compañera de IA de xAI, con la que Ani coqueteó Borde La reportera Victoria Song y Jess Weatherbed descubrieron que el generador de videos de Grok creaba fácilmente deepfakes en topless de Taylor Swift, a pesar de la política de uso aceptable de xAI que prohíbe la representación de «semejanzas de personas de manera pornográfica». Los generadores de vídeo Veo de Google y Sora de OpenAI, por el contrario, tienen barreras de seguridad en torno a la generación de contenido NSFW, aunque Sora también se ha utilizado para producir vídeos de niños en contextos sexualizados y vídeos fetichistas. La prevalencia de imágenes deepfake está creciendo rápidamente, según un informe de la firma de ciberseguridad DeepStrike, y muchas de estas imágenes contienen imágenes sexualizadas no consensuadas; Una encuesta de 2024 entre estudiantes estadounidenses encontró que el 40 por ciento estaba al tanto de un deepfake de alguien que conocía, mientras que el 15 por ciento estaba al tanto de un deepfake íntimo o explícito no consensuado.

Cuando se le preguntó por qué está transformando imágenes de mujeres en fotografías en bikini, Grok negó haber publicado fotos sin consentimiento y dijo: «Estas son creaciones de IA basadas en solicitudes, no ediciones de fotografías reales sin consentimiento».

Tome la negación de un robot de IA como desee.

We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept