Martin Bongartz

SEO-Beratung

SEO-Ist-Analyse

SEO-Workshops

Relaunch-Beratung

SEO-Reporting

Conversion Optimierung

Martin Bongartz

SEO-Beratung

SEO-Ist-Analyse

SEO-Workshops

Relaunch-Beratung

SEO-Reporting

Conversion Optimierung

SEO-News

Studie zeigt: Menschlicher Website-Traffic geht weiter zurück

2. Oktober 2025 SEO-News
Studie zeigt: Menschlicher Website-Traffic geht weiter zurück

📉 Wie stark ist der Rückgang echter Nutzer auf Webseiten?

Im zweiten Quartal 2025 ist der menschliche Website-Traffic um 9,4 % gesunken.

Diese Entwicklung ist alarmierend: Immer weniger Menschen besuchen aktiv Webseiten. Stattdessen nutzen sie Chatbots und KI-Anwendungen, um Informationen direkt zu erhalten. Die Studie zeigt, dass sich das Verhältnis von Bots zu echten Nutzern massiv verändert hat: Im ersten Quartal kamen auf 200 echte Besucher ein KI-Agent, jetzt ist es schon jeder fünfzigste Zugriff.

Das bedeutet konkret: Inhalte werden abgerufen, aber nicht mehr konsumiert. Du verlierst echte Leser, Leads und Werbeumsätze - obwohl deine Seiten technisch erreichbar sind. Besonders betroffen sind Publisher, Medienhäuser und Affiliate-Projekte.

🤖 Warum wächst der KI-Traffic so rasant?

KI-Agenten tarnen sich als echte Nutzer - und ignorieren klassische Schutzmechanismen.

KI-Systeme greifen massenhaft auf Webinhalte zu. Dabei nutzen sie sogenannte "headless browsers", die sich wie echte Browser verhalten - nur ohne grafische Oberfläche. Diese Bots lösen CAPTCHAs, imitieren Mausbewegungen und geben sich als Chrome oder Safari aus.

Der Effekt: Du erkennst sie nicht als Bots, obwohl sie keine echten Interaktionen verursachen. Diese Art von „faux human traffic“ macht einen wachsenden Teil deines Traffics aus - ist aber wirtschaftlich wertlos. Monetarisierung, Nutzerbindung oder Conversion? Fehlanzeige.

🔍 Wie verändert Google durch seine KI den Trafficfluss?

Google crawlt mehr, liefert aber weniger echten Traffic zurück.

Mit der Einführung von „AI Overviews“ im Oktober 2024 hat Google seine Crawling-Aktivität um 34,8 % erhöht. Gleichzeitig ist die Zahl der tatsächlichen Besucher, die durch Google vermittelt werden, gesunken: Pro 100 Crawls gibt es nur noch 312 Klicks - früher waren es 454.

Ich beobachte: Google nutzt deine Inhalte zunehmend, um eigene KI-Antworten zu generieren. Die Nutzer bleiben auf der Google-Seite, statt weiterzuleiten. Das verringert deine Sichtbarkeit und deinen Nutzen aus Rankings. Auch der Anteil von Google an allen Referrals ist gesunken - von über 90 % auf 84,1 %.

🧱 Welche Schutzmaßnahmen versagen gegen Bot-Zugriffe?

Immer mehr KI-Bots ignorieren robots.txt und greifen trotz Verboten auf Inhalte zu.

Obwohl viele Websitebetreiber versuchen, Bots mit robots.txt auszuschließen, ignorieren diese Anweisungen zunehmend. Im zweiten Quartal 2025 haben 13,26 % der KI-Zugriffe die Blockade übergangen - viermal mehr als Ende 2024.

Crawler von OpenAI, Meta, ByteDance oder Perplexity laden trotz Verbot systematisch Inhalte herunter. Viele nutzen IP-Wechsel, Browser-Spoofing und verschleierte Anfragen. Auch dein Server-Log zeigt diese Besucher als normale Nutzer an - obwohl sie keine echten Absichten verfolgen.

⚠️ Welche Folgen hat das für deine Website und SEO-Strategie?

Monetarisierung, Datenqualität und SEO-Wirkung sind massiv gefährdet - neue Strategien sind nötig.

Ich rate dringend, den Fokus zu verschieben: weg von Trafficzahlen, hin zu echter Nutzerbindung und Traffic-Qualität. Bot-Traffic bringt keine Werbeeinnahmen, verzerrt deine Statistiken und untergräbt SEO-Erfolge. Besonders kritisch: Google bezieht deine Inhalte in KI-Antworten ein, ohne dich dafür zu belohnen.

Deshalb empfehle ich:

  • Bot-Erkennung verbessern: z. B. durch serverseitige Erkennung von Browser-Mustern oder IP-Ranges.

  • Traffic differenziert analysieren: Nutze Tools, die KI-Bots erkennen und filtern.

  • Exklusive Inhalte entwickeln: Inhalte, die nicht einfach von KI repliziert werden können (z. B. persönliche Meinungen, Community-Inhalte).

  • User-Engagement priorisieren: Newsletter, Login-Bereiche und direkte Nutzerinteraktion stärken.

  • Server-Log-Analysen etablieren: um Crawlingmuster frühzeitig zu erkennen und Regeln anzupassen.

Du hast Fragen zu dem Thema? Melde dich gerne.