El consejero delegado de Cloudflare, Matthew Prince, ha advertido que el tráfico automatizado de bots podría superar la actividad humana en internet para 2027, una proyección que tiene consecuencias graves para editores, anunciantes y cualquiera que dependa de la web abierta para informarse. La afirmación, basada en los propios datos de la red de Cloudflare que rastrean la proporción de solicitudes humanas frente a las de máquinas, llega en un momento en que la preocupación pública sobre los efectos de la IA en la calidad de la información ya es alta. Si los bots llegaran a ser la mayoría del tráfico web en dos años, el modelo económico que financia la mayor parte del contenido en línea se vería sometido a una presión como la que no se había visto desde la aparición de los bloqueadores de anuncios.
Qué significa la proyección del tráfico de bots
La previsión de Prince se centra en una tendencia que Cloudflare ha rastreado a lo largo de su red global: la participación de las solicitudes de internet generadas por sistemas automatizados, incluidos rastreadores de IA que extraen contenido para datos de entrenamiento, ha ido aumentando de forma constante. La descripción de la compañía de una creciente «brecha de rastreo a clic» apunta a un desequilibrio cada vez mayor entre el volumen de datos que los bots extraen de los sitios web y las visitas humanas que esos mismos sistemas de IA ayudan a generar. En términos prácticos, las empresas de IA están obteniendo un valor enorme del contenido de los editores mientras devuelven muy poco en forma de lectores que puedan hacer clic en anuncios, suscribirse o comprar productos.
La distinción importa porque la economía publicitaria de la web depende de la atención humana. Una vista de página generada por un bot no produce ingresos por anuncios, ni inscripciones a boletines ni compras. Si el tráfico automatizado supera el umbral del 50 % para 2027, todas las métricas que los editores usan para fijar el precio de la publicidad, desde impresiones hasta tasas de clics, necesitarán recalibrarse. Los anunciantes ya lidian con el fraude de bots y el tráfico inválido; un mundo en el que los bots sean la visita habitual en lugar de la excepción aceleraría drásticamente ese problema y haría más difícil confiar en los números que sustentan los presupuestos de marketing digital.
Escepticismo público sobre la IA y el periodismo
La advertencia de Prince llega en un clima en el que el público estadounidense ya desconfía del papel de la IA en la producción informativa. Una encuesta del Pew Research Center publicada en abril de 2025 encontró que muchos estadounidenses esperan que la inteligencia artificial perjudique a los periodistas, con respuestas que expresan preocupación por la pérdida de empleos y la proliferación de contenido de menor calidad o engañoso. Esa preocupación no es solo una ansiedad abstracta. Refleja una conciencia creciente de que los sistemas de IA entrenados con trabajos periodísticos podrían acabar reemplazando a los reporteros que los produjeron, mientras que los beneficios económicos de ese reemplazo fluyen en gran medida hacia las empresas tecnológicas más que a las redacciones.
La tendencia del tráfico de bots y el sentimiento público están conectados. A medida que los rastreadores de IA consumen más contenido de los editores para entrenar modelos que luego compiten con esos mismos editores por la atención de la audiencia, el ciclo se refuerza a sí mismo. Las redacciones pierden tráfico, lo que reduce los ingresos, lo que provoca despidos, lo que disminuye el volumen y la calidad de la cobertura original. Con menos periodistas disponibles para cubrir historias complejas, los resúmenes generados por IA ensamblados a partir de material existente pueden parecer comparativamente más completos, aunque carezcan de matices o de investigación original. Las expectativas negativas del público sobre la IA y el periodismo pueden ser menos una predicción y más la descripción de un proceso que ya está en marcha.
La brecha de clics que deja sin recursos a los editores
Un segundo estudio del Pew Research Center, publicado en julio de 2025, añade un dato concreto al problema de los ingresos. Esa investigación encontró que los usuarios del motor de búsqueda de Google hacen clic en menos resultados cuando aparece un resumen generado por IA en la parte superior de la página. El mecanismo es sencillo. Cuando el Resumen de IA de Google responde una consulta directamente en la pantalla de resultados de búsqueda, los usuarios tienen menos motivos para visitar la fuente original. El contenido del editor se utilizó para generar la respuesta, pero el editor no recibe ni la visita ni la impresión del anuncio.
Este efecto de supresión de clics opera en una capa distinta al tráfico de bots, pero ambos problemas se agravan mutuamente. Los bots raspan contenido para entrenar modelos de IA. Esos modelos luego generan resúmenes que reducen los clics humanos a los sitios raspados. Los editores pierden dos veces: una cuando el bot toma su contenido sin compensación, y otra cuando el resumen de IA construido a partir de ese contenido intercepta al lector humano que podría haber visitado. El concepto de Cloudflare sobre la brecha de rastreo a clic captura exactamente esta dinámica, y los datos de Pew sobre la reducción del comportamiento de clic proporcionan una confirmación independiente de que la brecha es real y medible.
Para los editores que dependen en gran medida de las referencias desde buscadores, incluso una caída modesta en las tasas de clic puede tener efectos desproporcionados. Unos pocos puntos porcentuales de tráfico perdido pueden suponer la diferencia entre cuadrar cuentas y operar con déficit, especialmente para medios ya presionados por la caída de las tarifas de publicidad display y el aumento de los costes. Cuando esas pérdidas son impulsadas por sistemas de IA que consumen y compiten con su trabajo, la sensación de injusticia es tanto económica como ética.
Por qué importa el plazo de 2027 ahora
Una ventana de dos años es lo bastante corta como para exigir acción pero lo bastante larga como para que muchas organizaciones la traten como un problema de otros. Ese desfase entre urgencia y respuesta es donde reside el verdadero riesgo. Los editores que esperen a que el tráfico de bots supere realmente al humano antes de adaptar sus modelos de negocio pueden descubrir que ya han perdido la base de ingresos necesaria para financiar una transición. La economía de los medios digitales opera con márgenes estrechos, y incluso una aceleración modesta en el desplazamiento del tráfico impulsado por bots podría empujar a los medios más allá del punto de viabilidad antes de que llegue el umbral de 2027.
La respuesta más común hasta ahora ha sido defensiva: bloquear rastreadores de IA conocidos mediante archivos robots.txt, negociar acuerdos de licencia con empresas de IA o añadir capas de detección de bots. Pero estas medidas son parcheos. Robots.txt es voluntario y fácilmente ignorado por actores malintencionados o nuevos entrantes. Los acuerdos de licencia, cuando existen, cubren solo a unos cuantos grandes editores y dejan a los medios más pequeños sin compensación. La detección de bots funciona contra rastreadores conocidos, pero tiene problemas frente a sistemas diseñados para imitar patrones de navegación humana o que enrutan su tráfico mediante proxies residenciales.
Una respuesta más estructural implicaría replantear cómo se distribuye y monetiza el contenido. Algunos editores se están moviendo hacia modelos con muro de pago o acceso autenticado que verifican la identidad humana antes de servir el contenido. Otros experimentan con mecanismos de apoyo directo de los lectores que evitan por completo la publicidad, como membresías, donaciones y paquetes de suscripción. Ningún enfoque es nuevo, pero la tendencia del tráfico de bots les da a ambas estrategias una lógica económica renovada: si los bots van a consumir la mayor parte del contenido de la web abierta sin pagar por él, entonces restringir el acceso a humanos verificados pasa a ser una estrategia de supervivencia en lugar de un lujo.
La tensión entre el acceso abierto y la supervivencia económica
Hay un conflicto genuino en el centro de esta historia que la mayor parte de la cobertura pasa por alto. La web abierta, donde cualquiera puede leer cualquier cosa sin iniciar sesión ni pagar, ha sido el modelo por defecto durante tres décadas. Generó un enorme beneficio público en forma de noticias, investigación y contenidos educativos de acceso gratuito. Pero esa apertura dependía de los ingresos publicitarios generados por visitantes humanos. Si los bots se convierten en la mayoría del tráfico, la base económica de la web abierta se erosiona, y el contenido que quede accesible gratuitamente será cada vez más material de baja calidad que nadie se moleste en proteger.
La alternativa, una web en la que el contenido de alta calidad esté detrás de muros de autenticación y pago, preserva los ingresos para los editores pero crea desigualdad informativa. Las personas que puedan permitirse suscripciones o gestionar múltiples inicios de sesión seguirán teniendo acceso a una cobertura sólida y análisis expertos. Quienes no puedan hacerlo pueden acabar confiando en lo que quede disponible gratuitamente: comunicados de prensa ligeramente editados, cebo de clics o páginas generadas por IA optimizadas para motores de búsqueda en lugar de la comprensión humana. El resultado es un ecosistema informativo fragmentado en el que el acceso a hechos fiables cada vez se correlaciona más con el ingreso y la alfabetización técnica.
Ese resultado no es inevitable, pero evitarlo requerirá decisiones tanto de los responsables políticos como de las empresas tecnológicas. Los reguladores podrían impulsar reglas más claras sobre los datos de entrenamiento, la compensación y la transparencia para que los sistemas de IA construidos sobre contenido de editores devuelvan más valor a las fuentes en las que se basan. Los proveedores de búsqueda y de IA, por su parte, podrían diseñar interfaces que destaquen la información original y compartan una mayor parte de las ganancias económicas con los medios que suministran la información subyacente.
Por ahora, la advertencia de Prince sobre 2027 funciona menos como una previsión precisa y más como un indicador luminoso en el tablero del modelo de negocio de la web. Tanto si los bots cruzan la línea del 50 % según el calendario como si no, la dirección es clara. Los sistemas automatizados están consumiendo más de la web mientras devuelven menos. Si los editores, anunciantes y plataformas tratan ese cambio como un problema técnico distante en lugar de un impacto económico a corto plazo, pueden descubrir demasiado tarde que la web abierta de la que dependen ha sido vaciada silenciosamente por las mismas máquinas que aprendieron de ella.