Cloudflare-CEO Matthew Prince warnte, dass automatisierter Bot-Verkehr bis 2027 die menschliche Aktivität im Internet überholen könnte — eine Prognose, die schwerwiegende Folgen für Verlage, Werbetreibende und alle hat, die auf das offene Web für Informationen angewiesen sind. Diese Aussage stützt sich auf Cloudflares eigene Netzwerkdaten zur Verfolgung des Verhältnisses von menschlichen zu maschinellen Anfragen und kommt zu einer Zeit, in der die öffentliche Besorgnis über die Auswirkungen von KI auf die Informationsqualität bereits groß ist. Sollte sich herausstellen, dass Bots innerhalb von zwei Jahren den Großteil des Web-Traffics ausmachen, gerät das Wirtschaftsmodell, das die meisten Online-Inhalte finanziert, unter einen bisher nicht dagewesenen Druck — vergleichbar mit dem Aufkommen von Adblockern.
Was die Prognose zum Bot-Verkehr bedeutet
Princes Prognose konzentriert sich auf einen Trend, den Cloudflare in seinem globalen Netzwerk beobachtet: Der Anteil der Internetanfragen, die von automatisierten Systemen erzeugt werden — einschließlich KI-Crawlern, die Inhalte für Trainingsdaten abschöpfen — steigt stetig. Die von dem Unternehmen beschriebene wachsende „Crawl-to-Click-Gap“ verweist auf ein zunehmendes Ungleichgewicht zwischen dem Volumen an Daten, das Bots von Websites extrahieren, und den menschlichen Besuchen, die dieselben KI-Systeme mitunter erst erzeugen. Praktisch bedeutet das: KI-Unternehmen schöpfen enormen Wert aus Verlagsinhalten, liefern aber nur sehr wenig in Form von Lesern zurück, die Anzeigen anklicken, Abonnements abschließen oder Produkte kaufen.
Die Unterscheidung ist wichtig, weil die Werbewirtschaft des Webs von menschlicher Aufmerksamkeit abhängt. Eine Seitenansicht durch einen Bot generiert keine Werbeeinnahmen, keine Newsletter-Anmeldung und keinen Kauf. Wenn automatisierter Traffic bis 2027 die 50-Prozent-Marke überschreitet, müssen alle Metriken, die Verlage zur Preisbildung von Werbung verwenden — von Impressionen bis zu Klickraten — neu kalibriert werden. Werbetreibende kämpfen bereits mit Bot-Betrug und ungültigem Traffic; eine Welt, in der Bots der Standardbesucher statt die Ausnahme sind, würde dieses Problem dramatisch beschleunigen und das Vertrauen in die Zahlen untergraben, die digitalen Marketingbudgets zugrunde liegen.
Öffentliche Skepsis gegenüber KI und Journalismus
Princes Warnung fällt in ein Klima, in dem die amerikanische Öffentlichkeit der Rolle der KI in der Nachrichtenproduktion bereits skeptisch gegenübersteht. Eine Umfrage des Pew Research Center, veröffentlicht im April 2025, ergab, dass viele Amerikaner erwarten, dass künstliche Intelligenz Journalisten schaden wird, wobei die Befragten Besorgnis über Arbeitsplatzverluste und die Verbreitung minderwertiger oder irreführender Inhalte äußerten. Diese Sorge ist nicht nur abstrakte Angst. Sie spiegelt ein wachsendes Bewusstsein wider, dass KI-Systeme, die auf journalistischer Arbeit trainiert wurden, möglicherweise die Reporter ersetzen könnten, die diese Arbeit erstellt haben — während die wirtschaftlichen Vorteile dieser Ersetzung überwiegend an Technologieunternehmen und weniger an die Redaktionen fließen.
Der Trend zum Bot-Verkehr und die öffentliche Stimmung stehen in Verbindung. Wenn KI-Crawler immer mehr Verlagsinhalte konsumieren, um Modelle zu trainieren, die dann mit denselben Verlagen um die Aufmerksamkeit des Publikums konkurrieren, verstärkt sich der Kreislauf selbst. Newsrooms verlieren Traffic, was die Einnahmen reduziert, was zu Entlassungen führt und damit das Volumen und die Qualität originärer Berichterstattung verringert. Wenn weniger Reporter verfügbar sind, um komplexe Themen zu bearbeiten, können KI-generierte Zusammenfassungen, die aus vorhandenem Material zusammengesetzt sind, vergleichsweise umfassender erscheinen — auch wenn ihnen Nuancen oder investigative Originalarbeit fehlen. Die negative Erwartung der Öffentlichkeit gegenüber KI und Journalismus ist daher weniger eine Prognose als eine Beschreibung eines bereits im Gange befindlichen Prozesses.
Die Klick-Lücke, die Verlage ausbluten lässt
Eine zweite Studie des Pew Research Center, veröffentlicht im Juli 2025, liefert einen konkreten Datenpunkt zum Einnahmeproblem. Diese Untersuchung stellte fest, dass Nutzer der Google-Suche seltener auf Ergebnisse klicken, wenn eine von KI erzeugte Zusammenfassung oben auf der Seite erscheint. Der Mechanismus ist simpel: Wenn Googles KI-Übersicht eine Anfrage direkt auf der Suchergebnisseite beantwortet, haben Nutzer weniger Grund, die ursprüngliche Quelle zu besuchen. Der Inhalt des Verlags wurde zur Erstellung der Antwort verwendet, doch der Verlag erhält keinen Besuch und keine Anzeigenimpression.
Dieser Effekt der Klickunterdrückung wirkt auf einer anderen Ebene als der Bot-Verkehr, doch die beiden Probleme verstärken sich gegenseitig. Bots kratzen Inhalte ab, um KI-Modelle zu trainieren. Diese Modelle erzeugen dann Zusammenfassungen, die menschliche Klicks auf die abgeschöpften Seiten verringern. Verlage verlieren also doppelt: einmal, wenn der Bot ihre Inhalte ohne Kompensation nimmt, und ein zweites Mal, wenn die aus diesen Inhalten erstellte KI-Zusammenfassung den potenziellen menschlichen Leser abfängt. Cloudflares Konzept der Crawl-to-Click-Lücke erfasst genau diese Dynamik, und die Pew-Daten zur reduzierten Klickbereitschaft liefern eine unabhängige Bestätigung, dass die Lücke real und messbar ist.
Für Verlage, die stark von Suchverweisen abhängig sind, kann selbst ein moderater Rückgang der Klickraten erhebliche Folgen haben. Ein paar Prozentpunkte verlorenen Traffics können den Unterschied zwischen Kostendeckung und Defizit bedeuten — besonders für Medien, die bereits durch sinkende Display-Anzeigenpreise und steigende Kosten unter Druck stehen. Wenn diese Verluste von KI-Systemen verursacht werden, die sowohl ihre Arbeit konsumieren als auch direkt mit ihr konkurrieren, wird das Gefühl der Ungerechtigkeit ebenso wirtschaftlich wie ethisch.
Warum der Zeitplan bis 2027 jetzt wichtig ist
Ein Zwei-Jahres-Zeitraum ist kurz genug, um Handeln zu verlangen, aber lang genug, dass viele Organisationen ihn als Problem anderer betrachten werden. Diese Lücke zwischen Dringlichkeit und Reaktion birgt das eigentliche Risiko. Verlage, die abwarten, bis der Bot-Verkehr tatsächlich den menschlichen Traffic übertrifft, bevor sie ihre Geschäftsmodelle anpassen, könnten feststellen, dass sie die Einnahmebasis bereits verloren haben, die nötig ist, um einen Übergang zu finanzieren. Die Ökonomie digitaler Medien arbeitet mit schmalen Margen, und selbst eine moderate Beschleunigung der verlagsschädigenden Bot-Verschiebung könnte Ausgaben und Einnahmen so stark verändern, dass Angebote vor Erreichen der 2027-Marke nicht mehr tragfähig sind.
Die bisher gebräuchlichste Reaktion war defensiver Natur: bekannte KI-Crawler über robots.txt blockieren, Lizenzvereinbarungen mit KI-Firmen verhandeln oder zusätzliche Bot-Detektionsschichten einbauen. Diese Maßnahmen sind jedoch Flickwerk. Robots.txt ist freiwillig und lässt sich leicht von schlechten Akteuren oder neuen Anbietern ignorieren. Lizenzvereinbarungen, wo sie existieren, decken nur eine Handvoll großer Verlage ab und lassen kleinere Anbieter unkompensiert zurück. Bot-Erkennung funktioniert gegen bekannte Crawler, hat aber Schwierigkeiten mit Systemen, die menschliches Surfverhalten nachahmen oder über Residential Proxies routen.
Eine strukturellere Antwort würde erfordern, wie Inhalte distribuiert und monetarisiert werden, neu zu überdenken. Einige Verlage bewegen sich zu Paywalls oder Modellen mit authentifiziertem Zugang, die die menschliche Identität verifizieren, bevor Inhalte ausgeliefert werden. Andere experimentieren mit direkten Leserfinanzierungsmechanismen, die Werbung ganz umgehen, wie Mitgliedschaften, Spenden und gebündelte Abonnements. Keine dieser Ansätze ist neu, aber der Trend zum Bot-Verkehr verleiht beiden Strategien eine neue ökonomische Logik: Wenn Bots den Großteil der Inhalte des offenen Webs konsumieren, ohne dafür zu zahlen, wird die Beschränkung des Zugangs auf verifizierte Menschen eher zur Überlebensstrategie als zum Luxus.
Die Spannung zwischen offenem Zugang und wirtschaftlichem Überleben
In dieser Geschichte steckt ein echter Zielkonflikt, den die meisten Berichte nur am Rande behandeln. Das offene Web, in dem jeder alles lesen kann, ohne sich einzuloggen oder zu bezahlen, war über drei Jahrzehnte das Standardmodell. Es brachte enorme öffentliche Vorteile in Form frei zugänglicher Nachrichten, Forschung und Bildungsinhalte. Diese Offenheit basierte jedoch auf Werbeeinnahmen, die von menschlichen Besuchern generiert wurden. Wenn Bots zur Mehrheit des Traffics werden, erodiert die ökonomische Grundlage des offenen Webs, und die Inhalte, die frei zugänglich bleiben, werden zunehmend von niedriger Qualität sein, weil niemand sie zu schützen bereit ist.
Die Alternative — ein Web, in dem hochwertige Inhalte hinter Authentifizierungswänden und Paywalls verborgen sind — sichert zwar die Einnahmen der Verlage, schafft aber Informationsungleichheit. Menschen, die sich Abonnements leisten können oder mehrere Logins verwalten, haben weiterhin Zugang zu fundierter Berichterstattung und Expertenanalysen. Wer das nicht kann, ist auf das angewiesen, was frei verfügbar bleibt: leicht redigierte Pressemitteilungen, Clickbait oder von KI generierte Seiten, die eher für Suchalgorithmen als für menschliches Verständnis optimiert sind. Das Ergebnis wäre ein fragmentiertes Informationsökosystem, in dem der Zugang zu verlässlichen Fakten zunehmend vom Einkommen und der digitalen Kompetenz abhängt.
Dieses Ergebnis ist nicht unvermeidlich, aber seine Vermeidung erfordert Entscheidungen sowohl von politischen Entscheidungsträgern als auch von Technologieunternehmen. Regulierungsbehörden könnten klarere Regeln zu Trainingsdaten, Entschädigung und Transparenz durchsetzen, sodass KI-Systeme, die auf Verlagsinhalten basieren, mehr Wert an die Quellen zurückgeben, auf die sie sich stützen. Such- und KI-Anbieter könnten ihrerseits Schnittstellen so gestalten, dass originale Berichterstattung hervorgehoben wird und ein größerer Anteil der wirtschaftlichen Gewinne mit den Medien geteilt wird, die die zugrundeliegenden Informationen liefern.
Für den Moment fungiert Princes Warnung an 2027 weniger als exakte Prognose denn als blinkende Warnleuchte auf dem Armaturenbrett des Geschäftsmodells des Webs. Ob Bots nun planmäßig die 50-Prozent-Marke überschreiten oder nicht, die Richtung ist klar. Automatisierte Systeme konsumieren einen immer größeren Teil des Webs und geben immer weniger zurück. Sollten Verlage, Werbetreibende und Plattformen diese Veränderung als ferne technische Frage statt als baldigen ökonomischen Schock behandeln, könnten sie zu spät feststellen, dass das offene Web, von dem sie abhängen, still und leise von jenen Maschinen ausgehöhlt wurde, die aus ihm gelernt haben.