Wikipedia es un recurso en línea preciado que, a pesar de los cambios masivos en la web, ha logrado seguir siendo realmente excelente hasta el día de hoy. Yo, junto con millones de otros usuarios, visito el sitio diariamente para aprender algo nuevo o verificar los conocimientos existentes. En una era de constante caída de la IA, Wikipedia es una especie de antídoto.
Si miras Wikipedia y piensas «esto está bien, pero una versión con IA sería mucho mejor», es posible que seas Elon Musk. La compañía de inteligencia artificial de Musk, xAI, acaba de lanzar Grokipedia (sí, ese es realmente su nombre), una enciclopedia en línea que se parece mucho a Wikipedia en nombre y apariencia superficial. Pero bajo el capó, los dos no podrían ser más diferentes. Aunque aún es temprano para la nueva «enciclopedia», yo diría que no vale la pena usarla, al menos no para algo real.
La experiencia Grokipedia
Cuando cargas el sitio web de Grokipedia, parece bastante estándar. Verá el nombre de Grokipedia, junto al número de versión (v0.1, en el momento de escribir este artículo), junto a una barra de búsqueda y un contador de «Artículos disponibles» (885,279). La búsqueda de un artículo también es básica: escribe una consulta y aparece una lista de artículos disponibles para que pueda seleccionarlos. Una vez que abres un artículo, se parece a Wikipedia, solo que extremadamente básico: no hay imágenes, solo texto, aunque puedes usar la barra lateral para saltar entre las secciones del artículo. También encontrará fuentes, señaladas con números, que corresponden a la parte de Referencias al final de cada artículo.
Sin embargo, la diferencia clave entre Grokipedia y una versión simple de Wikipedia es que estos artículos no están escritos ni editados por personas reales. En cambio, cada artículo es generado y «verificado» por Grok, el modelo de lenguaje grande (LLM) de xAI. Los LLM pueden generar grandes cantidades de texto en cortos períodos de tiempo e incluyen fuentes de dónde obtienen su información, lo que podría hacer que el discurso de Grokipedia suene genial para algunos. Sin embargo, los LLM también tienen tendencia a alucinar o, en otras palabras, inventar cosas. A veces, las fuentes de las que extrae la IA no son fiables o son graciosas; otras veces, la IA se encarga de «mentir» y generar texto que simplemente no es cierto. En ambos casos, no se puede confiar en la información, especialmente no al pie de la letra, por lo que es preocupante ver que gran parte de la experiencia está completamente impulsada por Grok, sin intervención humana.
Grokipedia frente a Wikipedia
Musk presenta a Grokipedia como una «gran mejora» con respecto a Wikipedia, a la que ha criticado por impulsar la propaganda, particularmente hacia ideas y políticas de izquierda. Es irónico, entonces, que algunas de estas entradas de Grokipedia estén extraídas de Wikipedia. Como destaca Jay Peters de The Verge, artículos como MacBook Air señalan lo siguiente en la parte inferior: «El contenido está adaptado de Wikipedia, con licencia Creative Commons Attribution-ShareAlike 4.0». Es más, Peters descubrió que algunos artículos de Grokipedia, como PlayStation 5 y Lincoln Mark VIII, son copias casi uno a uno de los artículos correspondientes en Wikipedia.
Si ha seguido la política y las actividades políticas de Musk en los últimos años, no le sorprenderá saber que se encuentra en el lado de derecha del espectro político. Eso podría hacer reflexionar a cualquiera que considere utilizar Grokipedia como una fuente imparcial de información, especialmente porque Musk ha reestructurado continuamente Grok para generar respuestas más favorables a las opiniones de derecha. Críticos como Musk afirman que Wikipedia tiene un sesgo hacia la izquierda, pero Grokipedia está producida íntegramente por un modelo de inteligencia artificial con un sesgo abyecto.
Verás que tienes experiencias muy diferentes al leer ciertos temas en Wikipedia y Grokipedia. El artículo Tylenol de Wikipedia, por ejemplo, dice lo siguiente:
En 2025, Donald Trump hizo varias declaraciones sobre una conexión controvertida y no probada entre el autismo y Tylenol. Estas declaraciones sobre la conexión entre Tylenol durante el embarazo y el autismo se basan en fuentes poco fiables y sin evidencia científica.
Compárese con Grokipedia, que dedica tres párrafos al tema, el primero de los cuales comienza:
Múltiples estudios observacionales y metanálisis han identificado asociaciones entre la exposición prenatal al paracetamol (el ingrediente activo de Tylenol) y un mayor riesgo de trastornos del desarrollo neurológico (NDD) en los hijos, incluido el trastorno por déficit de atención e hiperactividad (TDAH) y el trastorno del espectro autista (TEA).
Dicho esto, el segundo párrafo destaca algunos de los problemas de esos estudios, mientras que el tercero destaca que ciertas agencias sugieren que «los beneficios superan los riesgos no probados».
¿Qué opinas hasta ahora?
De manera similar, como lo señaló WIRED, el artículo de Grokipedia, Transgender, destaca la creencia de que las redes sociales pueden haber actuado como un «contagio» del aumento de la identificación transgénero. No sólo es una afirmación común de la derecha, sino que esa palabra en particular podría haber sido extraída de una publicación de una cuenta X de derecha. El artículo de Wikipedia, como era de esperar, no contempla la afirmación en absoluto.
Grokipedia también es favorable a afirmaciones no probadas, controvertidas o totalmente absurdas. Como destaca Rolling Stone, se refiere al «Pizzagate», una teoría de conspiración que condujo a un tiroteo en la vida real, como «acusaciones», una «hipótesis» y una «narrativa». Grokipedia da crédito al «Gran Reemplazo», una teoría racista planteada por los supremacistas blancos.
¿Deberías utilizar Grokipedia?
Aquí está la respuesta corta: no. El problema que tengo con Grokipedia es doble: primero, ninguna enciclopedia será confiable cuando esté creada casi en su totalidad por modelos de IA. Claro, parte de la información puede ser precisa, y es fantástico que puedas ver las fuentes que utiliza el robot, pero cuando el riesgo de alucinaciones se incorpora a la tecnología sin posibilidad de evitarlo, elegir evitar la intervención humana en masa garantiza que las imprecisiones plagarán gran parte de la base de conocimientos de Grokipedia.
Como si eso no fuera suficiente, esta Grokipedia se basa en un LLM con el que Musk está jugando abiertamente para generar resultados que se alineen más estrechamente con su visión del mundo y la visión del mundo de una ideología política en particular. Alucinaciones y prejuicios: solo los ingredientes que necesitas para una enciclopedia.
Lo que pasa con Wikipedia es que está escrita y editada por humanos. Esos humanos pueden responsabilizar a otros escritores humanos, agregando nueva información cuando esté disponible y corrigiendo errores cuando los encuentren. Quizás sea frustrante leer que su secretario de salud y servicios humanos favorito «promovió información errónea sobre vacunas y teorías de conspiración de salud pública», pero esa es la realidad científica objetiva. Eliminar estas descripciones objetivas y replantear la discusión de una manera que se ajuste a una visión del mundo deformada no hace que Grokipedia sea mejor que Wikipedia; la hace inútil.
