La mayor base de conocimiento jamás creada. Uno de los mayores experimentos de colaboración humana. Así es Wikipedia: un acervo vivo que pertenece a todos. La dirige una fundación sin ánimo de lucro. Sin publicidad. Sin recogida de datos personales. Vive de las donaciones de particulares.
Su mayor logro en estos 25 años ha sido generar consensos sobre temas espinosos. Un reciente estudio de la Universidad de Cambridge destaca que con el tiempo se ha vuelto más fiable. Siempre persiguiendo esa quimera que es la neutralidad. Algo inalcanzable en la práctica. El historiador Edward H. Carr ya lo advirtió: al seleccionar qué hechos son relevantes y cuáles no, se introduce inevitablemente una interpretación, una visión del mundo. Una idea extensible tanto al periodismo, al decidir qué es noticiable, como a las entradas de una enciclopedia online.
Por eso los conflictos de Oriente Medio también saltan a sus páginas. Allí, un ejército de voluntarios anónimos actualiza contenidos y debate qué eventos añadir y cómo contextualizarlos hasta lograr consenso. Varias versiones de un mismo hecho se generan en la trastienda, pero solo una es visible. Por debajo, cuando el tema es sensible, estallan guerras de edición. Ya sea sobre Gaza o sobre figuras políticas controvertidas como Charlie Kirk.
Cualquiera puede publicar siguiendo el principio de que todo hecho requiere una fuente fiable, verificable, con estándares reconocidos. Por detrás, los editores revisan. En casos extremos se limita quién puede trabajar en ciertas entradas. A 14 editores, por ejemplo, se les prohibió editar páginas relacionadas con Israel y Palestina. En otros casos solo pueden participar quienes han contribuido numerosas veces. Son excepciones. Pero existen mecanismos de control: una jerarquía dentro de la edición e incluso un comité de arbitraje para los casos más polémicos.
Hasta ahora ha sido posible llegar a acuerdos. Pero el proyecto fue concebido en otra era. Una era anterior a las redes sociales, cuando el ritmo de la información permitía mayor deliberación. Un debate más sosegado. Hoy irrumpen dos fuerzas poderosas que lo impiden. Por un lado, los algoritmos prometen respuestas instantáneas. Por otro, la polarización política convierte cada dato en campo de batalla ideológico. Resulta muy tentador controlar esta inmensa base de conocimiento.
El 20 de enero de 2025, un editor decidió incluir una nota sobre Elon Musk. Mencionaba que durante un mitin político había realizado el saludo nazi desde el escenario. A los pocos minutos se debatía ya una entrada. El primer punto conflictivo: decidir si ese gesto era suficientemente relevante. Después vendría cómo debía recogerse. Hoy la polémica tiene su propia página.
El episodio no se quedó ahí. No sentó bien al propietario de X, antes Twitter, que ya había tenido un enfrentamiento personal con Jimmy Wales, uno de los fundadores de la enciclopedia. Llovía sobre mojado. Desde entonces, Musk intensificó sus críticas por lo que considera un sesgo woke. Llegó a afirmar que era una extensión de la propaganda de los medios tradicionales. Y denunció la ausencia de medios conservadores como fuentes autorizadas.
Canalizó su furia creando un competidor. A finales de octubre de 2025 lanzó Grokipedia. La presentó como una enciclopedia mejorada y sin sesgos, con contenidos más precisos gracias a la inteligencia artificial. Ya no es una red de personas y sus deliberaciones la que crea y valida el contenido. Ahora son las máquinas. El día del lanzamiento, Musk compartió en X: «El objetivo aquí es crear una colección completa y de libre acceso a todo el conocimiento«.
Por supuesto, este lanzamiento quedó recogido en Wikipedia:
Aunque aún se desconocen los detalles de su funcionamiento, los visitantes pueden sugerir ediciones mediante un formulario emergente para reportar información errónea. Pero, a diferencia de Wikipedia y otras enciclopedias basadas en wikis, no pueden editar directamente los artículos.
Grokipedia tiene su propia entrada, donde se define así:
Grokipedia es una enciclopedia online basada en IA. Fue anunciada por Elon Musk el 30 de septiembre de 2025, en respuesta a las críticas de David O. Sacks sobre el sesgo de Wikipedia, y lanzada el 27 de octubre de 2025 por xAI, una empresa estadounidense de inteligencia artificial fundada por Musk.
La definición esconde un detalle revelador: menciona como promotor intelectual del proyecto al principal asesor de la Casa Blanca en materia de IA. Vínculo directo entre esta iniciativa y la necesidad del poder político de controlar bases de conocimiento que no considera afines.
Pero la amenaza de la IA para Wikipedia no solo se materializa en el proyecto de Musk. También actúa desde dentro. Hoy muchos accesos no son de personas que buscan información. Son algoritmos que usan su contenido para entrenarse. Los grandes modelos de lenguaje se nutren de ella. Pero si la gente obtiene respuestas directamente de ChatGPT, Gemini o Perplexity, deja de visitarla. Y eso ya se nota: aunque se mantiene en el top 10 de páginas más visitadas del mundo, el número de usuarios ha descendido.
A esto se suma otro problema. Parte del contenido empieza a ser generado por IA. Los voluntarios que revisan no pueden controlarlo todo. La velocidad a la que se genera información es demasiado alta. Arrastra errores y alucinaciones más rápido de lo que ningún ejército humano puede detectar.
Wikipedia es, con todas sus imperfecciones, un faro en la era de la posverdad. Un proyecto que ha madurado. Fiable no por alcanzar una neutralidad imposible, sino porque son personas reales las que debaten, negocian y construyen cada entrada. Personas que muestran las fuentes, los desacuerdos, el proceso. La paradoja: ese modelo humano y colaborativo se convierte en debilidad cuando el mundo abraza la inmediatez de las máquinas y la polarización del debate. Veinticinco años después de su nacimiento está amenazada. La batalla por controlar el conocimiento acaba de comenzar.
cryptonews.net