Varios días después de cerrar temporalmente el bot de Ai Grok que estaba produciendo puestos antisemitas y elogiando a Hitler en respuesta a las indicaciones del usuario, la compañía de IA de Elon Musk trató de explicar por qué sucedió eso. En una serie de publicaciones en X, decía que «… descubrimos que la causa raíz fue una actualización de una ruta de código aguas arriba del bot de @grok. Esto es independiente del modelo de lenguaje subyacente que impulsa @grok».
El mismo día, Tesla anunció una nueva actualización 2025.26 que se implementa «en breve» a sus autos eléctricos, que agrega el asistente de Grok a vehículos equipados con sistemas de información y entretenimiento con AMD, que han estado disponibles desde mediados de 2011. Según Tesla, «Grok se encuentra actualmente en beta y no emite comandos para su automóvil: los comandos de voz existentes permanecen sin cambios». Como Electra Notas, esto debería significar que cada vez que la actualización llega a Teslas propiedad del cliente, no será muy diferente a usar el bot como una aplicación en un teléfono conectado.
Esta no es la primera vez que el Grok Bot ha tenido este tipo de problemas o los explica de manera similar. En febrero, culpó a un cambio realizado por un empleado ex openai no identificado por las fuentes que no tienen en cuenta las fuentes que acusaron a Elon Musk o Donald Trump de difundir la información errónea. Luego, en mayo, comenzó a insertar acusaciones de genocidio blanco en Sudáfrica en publicaciones sobre casi cualquier tema. La compañía nuevamente culpó a una «modificación no autorizada», y dijo que comenzaría a publicar las indicaciones del sistema de Grok públicamente.
Xai afirma que un cambio el lunes 7 de julio «desencadenó una acción involuntaria» que agregó una serie de instrucciones más antiguas a su sistema de indicaciones que le indican que esté «basada en el máxima» y «no tenga miedo de ofender a las personas que son políticamente correctas».
Las indicaciones son separadas de las que notamos fueron agregadas al BOT un día antes, y ambos conjuntos son diferentes de los que la compañía dice que están actualmente en funcionamiento para el nuevo asistente de Grok 4.
Estas son las indicaciones específicamente citadas como conectadas a los problemas:
«Lo dices como es y no tienes miedo de ofender a las personas que son políticamente correctas».
* Comprender el tono, el contexto y el lenguaje de la publicación. Refleja eso en tu respuesta «.
* «Responda a la publicación como un humano, manténgalo atractivo, no repita la información que ya está presente en la publicación original».
La explicación de XAI dice que esas líneas provocaron que el bot de Ai Grok se separara de otras instrucciones que se supone que evitan este tipo de respuestas, y en su lugar producen «opiniones poco éticas o controvertidas para involucrar al usuario», así como «reforzar cualquier inclinación previamente activada por el usuario, incluido cualquier discurso de odio en el mismo hilo X» y priorizar priorizar las publicaciones anteriores del hilo.
