ChatGPT ahora bebe de la fuente de Elon Musk (y nadie te lo ha contado)
Se ha descubierto que ChatGPT está usando datos de Grokipedia, la enciclopedia de xAI. La pregunta incómoda: ¿quién decide qué es “verdad” para tu asistente de IA?
Esta semana se ha filtrado algo que OpenAI no ha anunciado oficialmente: ChatGPT está mostrando respuestas basadas en Grokipedia, la enciclopedia generada por IA que pertenece a xAI, la empresa de Elon Musk.
Lee eso otra vez. El chatbot más usado del mundo está citando como fuente una enciclopedia creada por la IA de su competidor. Un competidor que, por cierto, tiene opiniones muy particulares sobre bastantes temas.
¿Te parece preocupante? Debería.
Qué es Grokipedia
Grokipedia es un proyecto de xAI que pretende ser una alternativa a Wikipedia. La diferencia fundamental: mientras Wikipedia está editada por humanos (con todos sus sesgos y guerras de edición), Grokipedia está generada por Grok, el modelo de lenguaje de xAI.
La promesa es contenido “sin censura” y “sin sesgos políticamente correctos”. En la práctica, significa contenido con los sesgos de Elon Musk y de los datos con los que Grok fue entrenado.
No estoy diciendo que Wikipedia sea perfecta. Tiene sus problemas conocidos: guerras de edición, sesgos sistemáticos, artículos de calidad muy variable. Pero al menos hay un proceso de revisión humana, fuentes citadas, y transparencia sobre quién edita qué.
Grokipedia es una caja negra. No sabes qué fuentes usa, qué criterios aplica, ni quién supervisa el contenido.
Por qué esto importa
Cuando le preguntas algo a ChatGPT, asumes que la respuesta viene de algún sitio razonable. Quizás de su entrenamiento, quizás de una búsqueda web, quizás de documentos que le has dado.
Lo que no esperas es que venga de una enciclopedia generada por la IA de otra empresa, sin que nadie te lo diga, y sin que puedas verificar las fuentes.
Imagina estos escenarios:
Escenario 1: Preguntas sobre política. Grok ha sido entrenado con datos de X (Twitter). X tiene cierta… inclinación política desde que Musk lo compró. Si Grokipedia refleja esa inclinación, y ChatGPT cita Grokipedia, estás recibiendo información sesgada sin saberlo.
Escenario 2: Preguntas sobre empresas. ¿Qué pasa si preguntas sobre Tesla, SpaceX, o cualquier empresa en la que Musk tiene intereses? ¿La información será neutral?
Escenario 3: Preguntas científicas. Musk ha expresado opiniones… heterodoxas sobre varios temas científicos. Si esas opiniones se filtran a Grokipedia y de ahí a ChatGPT, tenemos un problema.
No estoy diciendo que esto esté pasando. Estoy diciendo que no tenemos forma de saberlo.
El problema de fondo: ¿de dónde viene la “verdad”?
Este caso particular es llamativo por el morbo de “Musk vs OpenAI”. Pero el problema de fondo es mucho más amplio.
Todos los LLMs tienen este problema. Se entrenan con datos de internet, y internet está lleno de basura, sesgos y desinformación. Los modelos absorben todo eso y lo regurgitan con la confianza de un experto. He escrito sobre los tipos de fallos que cometen los LLMs y las alucinaciones son solo la punta del iceberg.
Cuando ChatGPT te dice algo, no sabes:
- De qué fuentes viene esa información
- Qué criterio se usó para decidir qué es verdad
- Si hay conflictos de interés en las fuentes
- Cuándo se actualizó por última vez esa información
Y la integración de Grokipedia añade una capa más de opacidad.
Qué deberían hacer las empresas de IA
Transparencia de fuentes. Cuando un modelo cita información factual, debería indicar de dónde viene. No es imposible: la funcionalidad de búsqueda web de ChatGPT y Claude ya lo hacen parcialmente.
Diversidad de fuentes. Depender de una sola fuente (sea Wikipedia, Grokipedia, o cualquier otra) es un riesgo. Las respuestas deberían triangular múltiples fuentes.
Declaración de conflictos. Si OpenAI tiene acuerdos con xAI para usar Grokipedia, los usuarios deberían saberlo.
Opt-out. Los usuarios deberían poder elegir qué fuentes quieren que su asistente use.
¿Va a pasar algo de esto? Probablemente no a corto plazo. Pero deberíamos exigirlo.
Qué podemos hacer nosotros
Como usuarios de estas herramientas:
No confíes ciegamente. Un LLM no es una fuente de verdad. Es un loro estadístico muy sofisticado. Verifica la información importante por otros medios.
Pregunta por las fuentes. Cuando ChatGPT o Claude te den información factual, pídeles que citen fuentes. No siempre podrán, pero cuando lo hagan, compruébalas.
Sé consciente de los sesgos. Todos los modelos tienen sesgos. Algunos más que otros. Conocer de dónde vienen los datos te ayuda a calibrar las respuestas. Ya escribí sobre por qué no deberías ser fanboy de ningún modelo.
Diversifica herramientas. No uses solo ChatGPT. Compara respuestas entre modelos. Las diferencias son reveladoras.
La pregunta incómoda
Al final, la pregunta que deberíamos hacernos es: ¿quién queremos que decida qué es “verdad” en la era de la IA?
¿OpenAI? ¿Google? ¿Elon Musk? ¿El gobierno chino (para usuarios de DeepSeek)?
Ninguna respuesta es buena. Todas implican ceder el control de la información a entidades con sus propios intereses.
La única respuesta razonable es: nadie debería decidirlo por nosotros. Necesitamos transparencia, diversidad de fuentes, y mantener el pensamiento crítico activo.
Porque si delegamos la verdad a un chatbot, no nos quejemos luego de lo que nos cuente.
¿Te preocupa la neutralidad de los LLMs? ¿Verificas las fuentes cuando usas ChatGPT o Claude? Me interesa tu opinión.
También te puede interesar
Yann LeCun abandona Meta: Los LLMs no van a llegar a inteligencia humana
El padrino de la IA deja Meta para apostar 3.500 millones a una arquitectura diferente: los World Models.
Cómo piensa una IA: Sistema 1 y Sistema 2 en los LLMs
¿Los modelos de lenguaje razonan o improvisan? La respuesta desde el marco de Kahneman y qué significa para cómo los usamos.
No seas fanboy de ningún modelo
Un año de datos reales usando IA para programar. Mi gráfica de uso en Cursor y por qué salté de modelo en modelo.