Wikipedia, la enciclopedia colaborativa que durante más de dos décadas se consolidó como un referente global de información abierta, atraviesa un momento de transición inesperado: las visitas de usuarios humanos en su web cayeron un 8% en los últimos meses, mientras que el tráfico de bots no para de aumentar.
Estos programas diseñados para realizar tareas repetitivas de forma automática no son nuevos en Wikipedia. Durante años sirvieron para tareas de mantenimiento, edición masiva y verificación de datos.
Leé también: Los bots de inteligencia artificial ya navegan por internet a la par de los humanos
Sin embargo, su protagonismo en el tráfico de la plataforma acaba de alcanzar niveles sin precedentes por una razón: sirven para alimentar la demanda de datos que requieren los modelos de lenguaje para las respuestas en los chatbots como ChatGPT.

Esto significa que los bots buscan cada vez más contenidos de Wikipedia porque los usuarios recurren a ellos, en lugar de la enciclopedia digital, o Google, para resolver dudas o consultas.
¿Qué son estos bots y cómo funcionan?
Los bots que acceden a Wikipedia no son simples programas que navegan por páginas al azar. Son sistemas automatizados programados para realizar tareas específicas, como recopilar, analizar y procesar información.
Muchos son utilizados por desarrolladores de inteligencia artificial y compañías de tecnología para entrenar y darle contenido a los modelos de lenguaje y asistentes virtuales.
El funcionamiento básico de estos bots incluye la lectura automatizada de contenido (escanean artículos completos y extraen texto, tablas, enlaces y referencias); filtrado y categorización, ya que todo el contenido es útil para entrenamiento de IA; y actualización de bases de datos para que la información pueda ser procesada por modelos de IA que generan resúmenes, respuestas o contenidos derivados.
Leé también: Las máquinas que piensan solas son realidad: cómo funciona la inteligencia artificial autónoma
En términos prácticos, estos bots actúan como lectores automáticos que consumen información sin necesidad de que un usuario humano visite la página. Esto explica en parte la caída del tráfico humano, que se desplaza a favor del acceso automatizado.
Cuáles son las consecuencias de que los bots visiten Wikipedia
Este desplazamiento del tráfico humano, confirmado por Marshall Miller, director de producto de la fundación Wikimedia, tiene implicaciones tanto técnicas como culturales:
- Menor interacción humana directa: los usuarios ya interactúan menos con los artículos, lo que podría afectar la actualización y verificación de información.
- Dependencia de IA para consultas: cada vez más personas obtienen respuestas a través de asistentes virtuales, que extraen contenido de Wikipedia sin mostrar la fuente directamente.
- Riesgos de saturación: el incremento de bots exige mayor capacidad técnica de servidores y sistemas de monitoreo para evitar que la actividad automatizada afecte el rendimiento de la plataforma.
Leé también: Crearon una simulación de agentes autónomos con inteligencia artificial dentro de Minecraft
Wikipedia es fundamental como fuente abierta de información, pero su papel está cambiando: de ser un destino final de consulta, pasa a ser un recurso estratégico para alimentar sistemas de inteligencia artificial, mientras los usuarios humanos navegan cada vez menos directamente por sus páginas.
La caída del tráfico humano y el auge de los bots reflejan un fenómeno más amplio: la inteligencia artificial ya redefinió la manera en la que buscamos, consumimos y confiamos en la información online.