El apetito imparable de los bots de IA asfixia a los sitios de software libre y medios digitales

La irrupción de la inteligencia artificial ha traído consigo un problema creciente y difícil de controlar: el abuso masivo de los bots automatizados que invaden proyectos open source, portales educativos y medios de comunicación para extraer datos y alimentar gigantescos modelos de IA. La magnitud de este fenómeno está saturando servidores, encareciendo la infraestructura y poniendo en jaque a quienes defienden la libertad y accesibilidad de la información en internet.


Un tráfico desbordante que ya no es humano

El entorno de escritorio GNOME ha sido uno de los primeros en poner cifras sobre la mesa. En apenas 2,5 horas, sus servidores recibieron 81.000 peticiones, de las cuales solo un 3 % fueron verificadas como humanas a través de su sistema de prueba de trabajo (proof-of-work) Anubi. El restante 97 % eran bots programados para realizar scraping masivo. La mayoría de estas conexiones no respetan protocolos de exclusión como el clásico robots.txt y utilizan grandes rangos de IPs para eludir los bloqueos automáticos.

Pero GNOME no es el único caso. Plataformas como KDE, Fedora, LWN y Frame Software viven situaciones similares, donde la mayor parte del tráfico proviene de bots de IA y no de usuarios reales. La consecuencia directa es un uso desmesurado del ancho de banda, ralentización de servicios, colapsos puntuales y un aumento constante en los costes operativos.


En los medios digitales, la situación es aún más preocupante

Este fenómeno no afecta solo a proyectos open source. En nuestra red de medios especializados, formada por portales como navidad.es, administracion de sistemas o educacion2.com, el tráfico de bots ha alcanzado cifras preocupantes. En algunos sitios, hasta el 90 % de las visitas provienen de bots automatizados, superando de forma abrumadora incluso al tráfico legítimo proveniente de Google.

Estos bots no solo consumen recursos, sino que también distorsionan las métricas y dificultan la interpretación real del alcance de las publicaciones, afectando a la estrategia de contenidos y a la monetización de los portales.


Los gigantes detrás del scraping masivo

Las grandes compañías tecnológicas son las principales responsables de esta oleada de tráfico automatizado. OpenAI, con su conocido GPTBot; ByteDance, con Bytespider; y otros bots como Claude, Perplexity o DeepSeek lanzan millones de peticiones diarias para recolectar información de cualquier página pública.

Aunque algunas empresas permiten bloquear sus bots a través del User Agent, muchas no facilitan esta opción o disfrazan sus bots como navegadores móviles para evitar ser identificados. La consecuencia es un entorno donde la evasión y el abuso son constantes, obligando a los administradores de sistemas a emplear recursos humanos y económicos cada vez más elevados para defenderse.


El coste oculto: servidores saturados y proyectos sin recursos

El impacto económico y técnico que genera esta práctica es enorme. Administradores de proyectos comunitarios, medios digitales y sitios especializados deben reforzar servidores, invertir en sistemas anti-bot y monitorizar constantemente sus plataformas para evitar caídas.

La paradoja es evidente: los contenidos creados para enriquecer la comunidad y fomentar el conocimiento libre terminan siendo explotados, sin permiso ni compensación, por grandes compañías que entrenan modelos de IA con ese material. El beneficio queda en manos de las tecnológicas; el coste, en las espaldas de quienes mantienen estas plataformas.


¿Es posible frenar este abuso?

El reto es complejo. La mayoría de los bots se camuflan, ignoran reglas y atacan desde miles de direcciones IP distintas. Bloquearlos mediante UA (User Agent) es insuficiente y filtrarlos a nivel de red es una tarea titánica.

Algunas plataformas han optado por sistemas de prueba de trabajo, como Anubi, que obliga al visitante a demostrar que no es un bot resolviendo cálculos. Sin embargo, esto también penaliza a los usuarios legítimos, aumentando los tiempos de espera y la fricción en el acceso.


El futuro: entre la regulación y la autodefensa

Cada vez son más las voces que piden una regulación clara para limitar el scraping masivo por parte de los gigantes tecnológicos. Algunos expertos defienden la creación de licencias específicas para el uso de datos públicos con fines de entrenamiento de IA y el establecimiento de compensaciones económicas para los sitios que sufren este abuso.

Por ahora, la batalla es desigual. Los administradores de sitios web se enfrentan a un enemigo invisible y gigantesco, sin apenas herramientas eficaces y sin apoyo normativo. Si la situación continúa escalando, es probable que veamos restricciones cada vez más severas en el acceso abierto, con el riesgo de que la filosofía del software libre y el acceso libre al conocimiento se vean seriamente comprometidos.


Conclusión: la web abierta, en peligro

El apetito insaciable de los bots de IA amenaza con devorar la esencia misma de internet. Lo que comenzó como una herramienta para democratizar el conocimiento está siendo explotado de manera salvaje por grandes corporaciones. Si no se toman medidas urgentes, la web abierta y los proyectos comunitarios que la sostienen podrían quedar relegados o desaparecer, devorados por la voracidad de unas inteligencias artificiales que se saltan todas las normas para seguir creciendo a costa de los demás.

Fuente: Noticias inteligencia artificial