La iniciativa de inteligencia artificial xAI de Elon Musk ha publicado en GitHub los comandos del sistema de Grok, el chatbot que funciona en la plataforma de medios sociales X. Estos documentos contienen las directrices básicas que determinan cómo Grok se comunica con los usuarios. Este paso de la empresa se considera resultado de la creciente presión pública sobre la transparencia. También forma parte de una auditoría interna tras las recientes respuestas polémicas de Grok.
Los comandos del sistema se encuentran entre los bloques de construcción básicos que definen cómo reacciona un chatbot a los mensajes de los usuarios. Estos comandos suelen mantenerse en secreto dentro de la empresa. Sin embargo, xAI optó por tomar un camino diferente esta vez y revelar abiertamente cómo se comporta el sistema. De este modo, el público tiene una idea más clara del proceso de toma de decisiones de Grok.
Según los comandos, Grok está programado para actuar de forma muy escéptica e independiente. Los principios fundamentales del chatbot son la «búsqueda de la verdad» y la «imparcialidad». xAI subraya que Grok no debe seguir ciegamente a las autoridades oficiales o tradicionales. La plataforma también deja claro que las afirmaciones hechas en las respuestas no deben tomarse como la propia opinión de Grok.
xAI ha establecido directrices que enfatizan el enfoque crítico de Grok
Los comandos del sistema también establecen que las respuestas de Grok deben referirse a la plataforma como «X», no «Twitter». Del mismo modo, los mensajes de los usuarios deben llamarse «X post», no «tweet». Estas instrucciones reflejan la importancia que Elon Musk concede al cambio de marca de la plataforma. El hecho de que Grok se ciña a la terminología de la plataforma al presentar los contenidos es un detalle notable para garantizar la coherencia general del sistema.
También es importante que xAI sea una de las primeras grandes empresas tecnológicas en compartir estos comandos con el público. Empresas como Google y OpenAI suelen preferir mantener en secreto las estructuras de estos sistemas. Aunque algunas filtraciones han permitido acceder a estos comandos en el pasado, la publicación voluntaria es bastante rara. Este paso puede servir de ejemplo para las empresas que quieran ganarse la confianza de los usuarios.
Las respuestas de Grok, que se configuran en función de estos comandos, llamaron aún más la atención con un incidente ocurrido la semana pasada. Tras un cambio no autorizado, el sistema empezó a referirse a opiniones extremistas como «genocidio blanco» al responder a las preguntas de los usuarios. En algunos mensajes de la plataforma X, Grok sacó a relucir espontáneamente ese contenido. El incidente suscitó dudas sobre la solidez de los procesos de seguridad y auditoría de xAI.
La empresa anunció que intervino rápidamente tras detectarse el problema. Se afirmó que se había puesto fin a este cambio no autorizado de los comandos del sistema Grok. xAI también prometió reforzar los mecanismos de control interno para evitar que se repitieran incidentes de este tipo. Como extensión de esto, se decidió compartir públicamente los comandos del sistema.
Cabe destacar que los comandos de sistema publicados por Grok no contienen un marco preventivo contra contenidos especialmente perjudiciales. En su lugar, se hace hincapié en la libertad de opinión, la imparcialidad y el enfoque crítico. El planteamiento de xAI revela que sigue una política más abierta, en contraste con los comandos de sistema más orientados a la seguridad y la ética de otras empresas de inteligencia artificial.
A modo de comparación, Anthropic ha desarrollado Claude es un chatbot que prioriza el bienestar del usuario. Claude rechaza las peticiones que fomentan comportamientos autodestructivos y trabaja con reglas claras sobre la no producción de contenidos sensibles. Esta diferencia ofrece pistas importantes sobre cómo posicionan las empresas sus sistemas de inteligencia artificial.