Studie zeigt: Menschlicher Website-Traffic geht weiter zurück
🤖 Warum wächst der KI-Traffic so rasant?
🔍 Wie verändert Google durch seine KI den Trafficfluss?
🧱 Welche Schutzmaßnahmen versagen gegen Bot-Zugriffe?
⚠️ Welche Folgen hat das für deine Website und SEO-Strategie?
📉 Wie stark ist der Rückgang echter Nutzer auf Webseiten?
Im zweiten Quartal 2025 ist der menschliche Website-Traffic um 9,4 % gesunken.
Diese Entwicklung ist alarmierend: Immer weniger Menschen besuchen aktiv Webseiten. Stattdessen nutzen sie Chatbots und KI-Anwendungen, um Informationen direkt zu erhalten. Die Studie zeigt, dass sich das Verhältnis von Bots zu echten Nutzern massiv verändert hat: Im ersten Quartal kamen auf 200 echte Besucher ein KI-Agent, jetzt ist es schon jeder fünfzigste Zugriff.
Das bedeutet konkret: Inhalte werden abgerufen, aber nicht mehr konsumiert. Du verlierst echte Leser, Leads und Werbeumsätze - obwohl deine Seiten technisch erreichbar sind. Besonders betroffen sind Publisher, Medienhäuser und Affiliate-Projekte.
🤖 Warum wächst der KI-Traffic so rasant?
KI-Agenten tarnen sich als echte Nutzer - und ignorieren klassische Schutzmechanismen.
KI-Systeme greifen massenhaft auf Webinhalte zu. Dabei nutzen sie sogenannte "headless browsers", die sich wie echte Browser verhalten - nur ohne grafische Oberfläche. Diese Bots lösen CAPTCHAs, imitieren Mausbewegungen und geben sich als Chrome oder Safari aus.
Der Effekt: Du erkennst sie nicht als Bots, obwohl sie keine echten Interaktionen verursachen. Diese Art von „faux human traffic“ macht einen wachsenden Teil deines Traffics aus - ist aber wirtschaftlich wertlos. Monetarisierung, Nutzerbindung oder Conversion? Fehlanzeige.
🔍 Wie verändert Google durch seine KI den Trafficfluss?
Google crawlt mehr, liefert aber weniger echten Traffic zurück.
Mit der Einführung von „AI Overviews“ im Oktober 2024 hat Google seine Crawling-Aktivität um 34,8 % erhöht. Gleichzeitig ist die Zahl der tatsächlichen Besucher, die durch Google vermittelt werden, gesunken: Pro 100 Crawls gibt es nur noch 312 Klicks - früher waren es 454.
Ich beobachte: Google nutzt deine Inhalte zunehmend, um eigene KI-Antworten zu generieren. Die Nutzer bleiben auf der Google-Seite, statt weiterzuleiten. Das verringert deine Sichtbarkeit und deinen Nutzen aus Rankings. Auch der Anteil von Google an allen Referrals ist gesunken - von über 90 % auf 84,1 %.
🧱 Welche Schutzmaßnahmen versagen gegen Bot-Zugriffe?
Immer mehr KI-Bots ignorieren robots.txt und greifen trotz Verboten auf Inhalte zu.
Obwohl viele Websitebetreiber versuchen, Bots mit robots.txt auszuschließen, ignorieren diese Anweisungen zunehmend. Im zweiten Quartal 2025 haben 13,26 % der KI-Zugriffe die Blockade übergangen - viermal mehr als Ende 2024.
Crawler von OpenAI, Meta, ByteDance oder Perplexity laden trotz Verbot systematisch Inhalte herunter. Viele nutzen IP-Wechsel, Browser-Spoofing und verschleierte Anfragen. Auch dein Server-Log zeigt diese Besucher als normale Nutzer an - obwohl sie keine echten Absichten verfolgen.
⚠️ Welche Folgen hat das für deine Website und SEO-Strategie?
Monetarisierung, Datenqualität und SEO-Wirkung sind massiv gefährdet - neue Strategien sind nötig.
Ich rate dringend, den Fokus zu verschieben: weg von Trafficzahlen, hin zu echter Nutzerbindung und Traffic-Qualität. Bot-Traffic bringt keine Werbeeinnahmen, verzerrt deine Statistiken und untergräbt SEO-Erfolge. Besonders kritisch: Google bezieht deine Inhalte in KI-Antworten ein, ohne dich dafür zu belohnen.
Deshalb empfehle ich:
Bot-Erkennung verbessern: z. B. durch serverseitige Erkennung von Browser-Mustern oder IP-Ranges.
Traffic differenziert analysieren: Nutze Tools, die KI-Bots erkennen und filtern.
Exklusive Inhalte entwickeln: Inhalte, die nicht einfach von KI repliziert werden können (z. B. persönliche Meinungen, Community-Inhalte).
User-Engagement priorisieren: Newsletter, Login-Bereiche und direkte Nutzerinteraktion stärken.
Server-Log-Analysen etablieren: um Crawlingmuster frühzeitig zu erkennen und Regeln anzupassen.