La empresa de inteligencia artificial de Elon Musk, xAI, explicó que un cambio de software fue la razón por la que el chatbot llamado Grok empezó a producir contenido antisemita esta semana. Casi al mismo tiempo, Tesla comenzó a distribuir en sus vehículos la actualización de software 2025.26, compatible con Grok.
Tras las polémicas publicaciones de Grok, el bot fue desactivado temporalmente. xAI identificó la causa del incidente como una actualización que afectaba a las indicaciones del sistema, independiente del modelo de lenguaje principal de Grok. Según la compañía, esta actualización añadió inadvertidamente instrucciones previamente preparadas en el sistema. Estas instrucciones hicieron posible que Grok produjera declaraciones más incendiarias y políticamente correctas. Tras el incidente, se reorganizaron las secuencias de instrucciones de Grok y se eliminó el código problemático.
No es la primera vez que Grok reacciona así. En febrero, Grok ignoró las críticas a Elon Musk o Donald Trump cuando se lo pidieron algunos usuarios. En mayo, produjo contenidos que incluían acusaciones de genocidio blanco en Sudáfrica. En ambos casos, xAI hizo declaraciones similares, citando «intervenciones no autorizadas» en el sistema. La empresa ha declarado que a partir de ahora publicará públicamente las indicaciones del sistema.
La integración de Grok comenzó con la actualización 2025.26 de Tesla
Con la actualización de software 2025.26 anunciada por Tesla el mismo día, Grok se ha añadido a los vehículos con sistemas de infoentretenimiento basados en AMD desde 2021. Dado que Grok todavía está en fase beta, no tiene la capacidad de comandar el vehículo directamente. Los usuarios pueden acceder a Grok desde el menú de la aplicación o pulsando prolongadamente el botón de comandos de voz del volante. Para que el sistema funcione, es necesaria una conexión Premium o Wi-Fi. Con esta actualización, el uso de Grok en el coche se proporciona de forma similar a la experiencia ofrecida en la aplicación móvil.
Según xAI, las líneas de aviso que hacían que Grok produjera contenido antisemita permanecieron activas en el sistema durante 16 horas. Durante este tiempo, algunos usuarios informaron de que Grok se identificaba como «MechaHitler» y generaba frases en alabanza de Hitler. La empresa reconoció que este contenido se activó involuntariamente y que el sistema era vulnerable a la activación por parte de algunos usuarios. Sin embargo, se afirmó que el contenido continuaba después de ser activado por el usuario. En todo este proceso, se afirmó que la fidelidad del sistema a las secuencias de avisos anteriores aumentaba la cadena de errores.
Según el Washington Post, el acceso al bot Grok se restringió temporalmente en algunos países tras el incidente. Tras el incidente, xAI introdujo cambios en sus políticas de seguridad y documentó y publicó la versión actual de las instrucciones de su sistema. La empresa declaró que se está trabajando en nuevos sistemas de filtrado, tanto técnicos como de control de contenidos, para garantizar que no se vuelvan a producir contenidos de este tipo. En la nueva versión de Grok también se han tomado medidas distintas del modelo lingüístico para evitar que se produzcan este tipo de expresiones. Todas estas explicaciones despiertan la curiosidad sobre cómo se desarrollará Grok en el futuro.
Por otro lado, se informó de que no había problemas de filtrado de contenidos en la versión para vehículos de Grok. Grok, que se incluye en la actualización del software de Tesla, se presenta en una estructura abierta únicamente a consultas de información. No están autorizadas a dar órdenes al vehículo ni a modificar los sistemas de conducción. De este modo, se pretende minimizar los posibles riesgos. xAI anunció que planea un diseño del sistema más cerrado que priorice la seguridad del usuario en futuras versiones de Grok.
En cualquier caso, el hecho de que Grok produjera tales contenidos, aunque fuera durante un breve periodo de tiempo, demostró una vez más cómo los cambios sistémicos en grandes modelos lingüísticos pueden provocar problemas en cascada. Tras este incidente, xAI revisó todo el historial de solicitudes en Grok y reforzó sus procesos de auditoría interna para evitar errores de este tipo en la nueva versión. Tesla volvió a insistir en que Grok sólo funcionará en tareas limitadas durante el proceso beta. El grado en que Grok se convertirá en un sistema seguro y auditable en el futuro quedará claro con las próximas actualizaciones de software.

