top of page

Cuando los bots consumen más que los humanos

  • Foto del escritor: Jorge Alberto Hidalgo Toledo
    Jorge Alberto Hidalgo Toledo
  • 25 abr
  • 3 Min. de lectura

ree

Por: Dr. Jorge Alberto Hidalgo Toledo, Human & Nonhuman Communication Lab, Facultad de Comunicación, Universidad Anáhuac México


Wikipedia, ese archivo viviente del conocimiento libre y colaborativo, enfrenta hoy una amenaza insidiosa: no son los censores, ni las fake news, ni siquiera la indiferencia, sino la voracidad invisible de los bots de inteligencia artificial.


La Fundación Wikimedia ha advertido que el tráfico proveniente de rastreadores automatizados —en su mayoría diseñados para alimentar modelos generativos de IA— ha crecido un 50% en un año. No es tráfico humano, no son curiosos ni estudiantes: es la insaciable necesidad de datos humanos para sostener la promesa de una inteligencia no humana.

Estos bots consumen contenidos masivamente, en bloques gigantescos, saturando servidores, encareciendo operaciones y erosionando la sustentabilidad de una red que fue pensada para compartir, no para ser saqueada silenciosamente.


Datos humanos: el oro invisible de la nueva era

A medida que los modelos generativos avanzan, se vuelve evidente un principio incómodo: la IA necesita más a los humanos de lo que los humanos necesitan a la IA. No puede inventar su propio alimento. Sin textos escritos, corregidos, revisados y enriquecidos por seres humanos, los chatbots caerían en una espiral de "autofagia", reciclando información sintética de cada vez peor calidad.


De ahí la obsesión de los grandes desarrolladores por devorar cualquier repositorio de conocimiento humano: periódicos, enciclopedias, libros, foros. La Wikipedia es un festín perfecto: libre, estructurada, masiva y confiable. Pero como señala Birgit Mueller, no es gratis: detrás de cada entrada está la labor paciente de miles de voluntarios, y la infraestructura técnica que garantiza su acceso.


El problema ya no es solo de copyright o de atribución: es de sostenibilidad, de futuro del conocimiento abierto, de la supervivencia misma de los espacios creados por humanos para humanos.


¿Hacia un internet donde los usuarios son minoría?

El auge de los LLMs sugiere una transformación más profunda y ominosa: la lenta deriva hacia un internet posthumano. Un ecosistema donde la mayoría de las acciones —leer, preguntar, buscar, responder— no las realizan personas, sino programas autónomos, agentes que interactúan entre sí en un tráfico cerrado y autorreferencial.


Hoy pedimos a un asistente virtual que nos defina "serendipia"; mañana, ese mismo agente buscará, procesará y nos presentará la información sin que jamás toquemos Wikipedia, Google o cualquier fuente original. La red abierta se encierra. El viaje entre páginas, la exploración azarosa, la serendipia de la curiosidad humana, se evapora.


La experiencia de conocimiento, entonces, no será ya un camino abierto, sino un embudo controlado por interfaces de IA, donde la fuente desaparece y solo queda el fragmento descontextualizado.


La paradoja de la IA: necesita lo humano, pero invisibiliza a los humanos

Este escenario plantea un dilema ético de enormes proporciones. Las IA modernas necesitan contenidos creados por humanos para seguir funcionando, pero en el proceso están debilitando los espacios que permiten esa creación. Como un parásito que devora la vitalidad de su huésped hasta agotarlo.


El consumo voraz de Wikipedia es apenas un síntoma temprano. Si no se reconoce, si no se retribuye adecuadamente, si no se respetan las condiciones mínimas de atribución y sostenibilidad, corremos el riesgo de agotar el sustrato mismo sobre el que la inteligencia artificial ha construido su éxito.


Y no será la tecnología quien pague el precio. Seremos nosotros: los usuarios, los creadores, los ciudadanos de una red que podría convertirse en un museo de la curiosidad humana... vacío.


¿Podemos construir una IA que respete el conocimiento en lugar de exprimirlo?

La Wikimedia Foundation propone caminos sensatos: atribución visible, consumo responsable, contribución a la infraestructura comunitaria. No se trata de impedir el avance de la IA, sino de tejer un pacto ético que reconozca que el conocimiento libre no es un recurso infinito ni desechable.

En un mundo donde casi la mitad del tráfico online ya es generado por bots, la pregunta no es técnica, sino política, filosófica, cultural: ¿queremos un internet para humanos o para máquinas?


Responderla —y actuar en consecuencia— podría ser el desafío más urgente de esta década.

Comentarios

Obtuvo 0 de 5 estrellas.
Aún no hay calificaciones

Agrega una calificación
bottom of page