Die digitale Welt schläft nie, das Internet nicht und Google sowieso nicht. Kaum hat man sich an eine Metrik, ein Tool oder eine Vorgehensweise gewöhnt, ändert der Suchmaschinenriese leise, aber mit massiver Wirkung, eine kleine technische Stellschraube.
In diesem Monat war es wieder so weit: Google hat im September, ohne offizielle Ankündigung, den &num=100-Parameter aus dem Verkehr gezogen. Ein unscheinbares Detail, das jedoch Schockwellen durch die gesamte SEO-Branche geschickt und die Art, wie wir Rankings überwachen und Daten interpretieren, fundamental verändert hat.
Als Deine Internetagentur aus Hamburg wissen wir, wie entscheidend klare Daten und effizientes Tracking für Deinen Erfolg sind. Deshalb beleuchten wir in diesem ausführlichen Beitrag, was genau hinter dem „Google num=100 Update“ steckt, welche Konsequenzen es für SEO-Tools und Deine Google Search Console Daten hat und wie Du jetzt die richtigen strategischen Entscheidungen triffst.
Was war der &num=100-Parameter und was hat sich geändert?
Der &num=100-Parameter war über Jahre hinweg ein stiller, aber mächtiger Helfer für Power-User und vor allem für SEO-Tools.
Die alte Welt: Effizientes Datensammeln
Standardmäßig zeigt Google pro Suchanfrage zehn organische Suchergebnisse (SERPs) an. Durch das Anhängen von &num=100 an die URL der Suchergebnisseite (z. B. google.com/search?q=effektor+hamburg&num=100) konnte man Google dazu zwingen, 100 Ergebnisse auf einer einzigen Seite auszugeben.
Der Clou: Diese Möglichkeit wurde von Rank-Tracking-Tools und SERP-Scrapern intensiv genutzt. Statt zehn separate Anfragen (mit Paginierung über den &start-Parameter) stellen zu müssen, um die Top 100 zu erfassen, reichte eine einzige Abfrage aus. Das sparte Zeit, Ressourcen und vor allem Kosten.
Die neue Realität: Das Ende der 100er-Seite
Um den 10. September 2025 herum hat Google diesen Parameter deaktiviert – quasi per Knopfdruck, ohne jede Vorwarnung in den Developer Docs oder auf den offiziellen Kanälen.
Was das bedeutet:
- Keine 100 Ergebnisse mehr pro Seite: Der Parameter wird ignoriert. Egal, ob Du
&num=100anhängst oder nicht, die SERP liefert in der Regel wieder nur die standardmäßigen 10 Ergebnisse pro Seite. - 10x mehr Anfragen für 100 Ergebnisse: Um weiterhin die Top 100 zu erfassen, müssen SEO-Tools jetzt zehn einzelne Anfragen (Seite 1 bis Seite 10) stellen.
Die mathematische Konsequenz ist brutal: Das Volumen der benötigten Anfragen zur Erfassung desselben Datensatzes hat sich quasi über Nacht verzehnfacht. Ein kleiner technischer Eingriff mit einem enormen operativen Echo in der gesamten SEO-Infrastruktur.
Auswirkungen auf SEO-Werkzeuge & Rank-Tracking
Die sofortigen Auswirkungen der &num=100-Entfernung trafen die Anbieter von SEO-Tools mit voller Wucht. Diese Tools – die Lebensadern unserer täglichen Arbeit – mussten ihre Funktionsweise grundlegend anpassen.
1. Explodierende Kosten und Infrastruktur-Stress
Der offensichtlichste und schmerzhafteste Effekt ist die Kostenexplosion für Tool-Anbieter. Zehnmal so viele Abfragen bedeuten:
- 10x höhere Serverlast und Bandbreitenbedarf.
- Deutlich höhere API-Kosten oder erhöhte Notwendigkeit, Captchas und Rate-Limits zu umgehen (was selbst wiederum kostspielig und zeitintensiv ist).
Viele Anbieter mussten sofort reagieren, was zu temporären Datenlücken und fehlerhaften Berichten führte. Langfristig ist zu erwarten, dass diese stark erhöhten Betriebskosten auf die Kunden umgelegt werden – in Form von Preisanstiegen oder einer Reduzierung der Tracking-Tiefe.
2. Reduzierung der Tracking-Tiefe und strategischer Fokus
Um die Kosten in Schach zu halten, haben einige Tools ihre Standard-Tracking-Tiefe bereits reduziert.
- Vorher: Standard-Tracking oft Top 100 (da einfach zu ziehen).
- Nachher: Fokus liegt auf Top 10 oder Top 20.
Für Du und Deine Agentur bedeutet das einen strategischen Shift. Da über 90 % des Klicksvolumens auf den Top-10-Positionen liegt, ist diese Konzentration auf die erste Seite in vielerlei Hinsicht sinnvoll. Dennoch geht die Fähigkeit verloren, kosteneffizient die Performance von Long-Tail-Keywords oder die Sichtbarkeit der Konkurrenz jenseits von Seite 2 zu beobachten. Die tieferen Rankings (Position 21-100) werden nun zum „teuren Luxus“ in der Datenanalyse.
3. Anpassung und Workarounds
Die besten Tools haben schnell reagiert. Sie nutzen jetzt die Paginierung über den &start-Parameter, um die Top 100 zu sammeln. Dieser Workaround funktioniert, aber er ist eben zehnmal so aufwändig. Es zwingt die gesamte Branche, effizienter und zielgerichteter mit ihren Keyword-Listen umzugehen, um die Tracking-Budgets nicht zu sprengen.
Veränderungen in den Daten von Google Search Console (GSC)
Neben den SEO-Tools hat die Deaktivierung des &num=100-Parameters für eine massive Bereinigung der Daten in der Google Search Console (GSC) gesorgt, die viele Beobachter zunächst fälschlicherweise als Verlust an Sichtbarkeit interpretiert haben.
1. Drastischer Rückgang der Impressionen
Seit dem Update verzeichnen viele Websites einen deutlichen, plötzlichen Rückgang der Desktop-Impressionen in der GSC, oft im Bereich von 20 % bis 50 % oder sogar mehr.
Der Grund: Bislang haben die Scraper-Bots der SEO-Tools, die &num=100 nutzten, um die gesamte Seite zu laden, für jede auf dieser Seite gelistete URL eine Impression ausgelöst – selbst wenn die URL auf Position 99 rangierte. Ein menschlicher Nutzer scrollt fast nie bis auf Position 99. Diese „Bot-Impressionen“ haben die Impression-Zahlen künstlich aufgebläht.
Mit dem Wegfall von &num=100 fallen diese künstlichen Bot-Impressionen weg, da die Bots jetzt nur die erste Seite (Top 10) oder maximal die ersten beiden Seiten (Top 20) effizient abrufen. Die Zahl der Impressionen ist gesunken, aber die tatsächliche Reichweite beim echten Nutzer hat sich wahrscheinlich gar nicht verändert. Die GSC-Daten spiegeln nun die reale User Experience genauer wider.
2. Anstieg der Durchschnittsposition
Parallel zum Rückgang der Impressionen sehen viele SEOs eine Verbesserung der „Durchschnittsposition“.
Die Erklärung: Die Berechnung der Durchschnittsposition basiert auf allen Positionen, für die Impressionen generiert wurden (gewichteter Durchschnitt). Die zahlreichen, niedrigen Positionen (20 bis 100), die durch die Bot-Impressionen erfasst wurden, zogen die Durchschnittsposition künstlich nach unten (z. B. von einer „echten“ 8 auf eine berechnete 57, weil so viele 90er-Positionen mit einberechnet wurden).
Fallen diese Bot-Impressionen weg, wird die Durchschnittsposition wieder realistischer und besser, weil sie sich primär auf die Positionen der echten User-Interaktion (Top 10-20) konzentriert.
3. Die „Great Decoupling“-Theorie
Dieser Effekt liefert eine überraschende Erklärung für ein Phänomen, das die SEO-Welt schon länger beschäftigt hat: die sogenannte „Great Decoupling“ – das Auseinanderdriften von stetig steigenden Impressionen und stagnierenden Klickzahlen in der GSC. Viele vermuteten, dass dies primär an den AI Overviews lag, die Impressionen erzeugten, aber die Klicks bei Google behielten.
Die nun bereinigten Daten legen jedoch nahe, dass ein signifikanter Teil dieser „Entkoppelung“ durch die Bot-Impressionen verursacht wurde, die nie zu Klicks führten. Die Entfernung des Parameters hat somit geholfen, die Messmethodik zu säubern und die Datenqualität zu verbessern.
Mögliche Gründe für Googles Entscheidung
Google selbst hat sich zu der Änderung nur zurückhaltend geäußert und betont, dass der Parameter nie offiziell unterstützt wurde. Dennoch lassen sich plausible Gründe für diesen drastischen Schritt ableiten, die weit über eine simple „Aufräumaktion“ hinausgehen.
1. Reduzierung der Belastung der Infrastruktur
Der wichtigste operative Grund: Ressourcenschonung. Tausende von SEO-Tools und Scrapern, die ständig 100 Ergebnisse pro Anfrage abriefen, stellten eine enorme Belastung für Googles Server-Infrastruktur dar. Zehnmal so viele Ergebnisse pro Query zu liefern, erhöhte die Serverlast unnötig. Mit der Umstellung auf 10 Abfragen für 100 Ergebnisse reduziert Google seine eigene Belastung pro Suchvorgang drastisch, da die Mehrarbeit nun auf die Infrastruktur der SEO-Tool-Anbieter verlagert wird.
2. Kampf gegen massives Scraping (insbesondere durch KI)
Der Zeitpunkt des Updates ist bemerkenswert. In einer Welt, in der Large Language Models (LLMs) und Generative KI immer dominanter werden, steigt der Bedarf, Suchergebnisse in großem Umfang zu „scrapen“, um KI-Modelle zu trainieren oder aktuelle Informationen zu liefern.
Google könnte die Änderung als defensive Maßnahme sehen:
- Verteidigung des Index-Werts: Googles größter Schatz ist der Index und die zugehörigen SERP-Daten. Die zehnfache Erhöhung der Kosten und der Komplexität des Scrapings macht es für konkurrierende KI-Unternehmen deutlich schwieriger und teurer, Googles Daten zu stehlen oder in großem Stil zu verwerten.
- Schutz des Geschäftsmodells: Wenn KI-Tools die Top 100 schnell und günstig abrufen und daraus eigene, klickunabhängige Antworten generieren können, umgeht dies Googles werbebasiertes Geschäftsmodell. Die Änderung erschwert dies massiv.
3. Verbesserung der eigenen Datenqualität
Wie in der GSC gesehen, hat die Änderung die Datenqualität verbessert. Die Entfernung künstlicher Bot-Impressionen sorgt für eine realistischere Sicht auf das Nutzerverhalten. Dies ist nicht nur für SEOs wichtig, sondern auch für Google selbst, um die eigene Algorithmus-Entwicklung und das Anzeigen-Ökosystem besser bewerten zu können.
Empfehlungen und Strategien für den Umgang mit der Änderung
Als Dein digitaler Partner aus Hamburg geben wir Du klare, strategische Empfehlungen, wie Du mit dieser tiefgreifenden Änderung umgehen solltest, um Deinen digitalen Erfolg nicht zu gefährden.
1. Neue Interpretation der Google Search Console Daten
Die wichtigste Lektion: Die absoluten Zahlen haben sich geändert, nicht unbedingt Deine tatsächliche Performance.
- Ignoriere den Eindruck-Rückgang: Verfalle nicht in Panik wegen des plötzlichen Rückgangs der Impressionen. Dies ist ein „Bereinigungs-Effekt“ und kein Indikator für einen tatsächlichen Verlust an Sichtbarkeit bei echten Nutzern.
- Feiere die Durchschnittsposition: Der Anstieg der Durchschnittsposition ist in den meisten Fällen eine gute Nachricht – Deine Position wird jetzt realistischer abgebildet und repräsentiert die Platzierungen, auf denen Du tatsächlich von Usern gesehen wirst.
- Fokus auf Klicks und CTR: Die Klicks und die Klickrate (CTR) sind nun die zuverlässigeren Performance-Indikatoren, da sie von den Bot-Impressionen unberührt bleiben. Wenn die Klicks stabil bleiben, ist Deine wahre Performance gut.
2. Strategische Anpassung im Keyword-Tracking
Da das Tracking tiefer Positionen nun teurer ist, musst Du Deine Keyword-Strategie schärfen:
- Fokussiere auf die Top 20: Priorisiere das tägliche oder wöchentliche Tracking Deiner wichtigsten Keywords nur noch bis Position 20 oder 30. Hier liegt das relevante Traffic-Potenzial.
- Tiefes Tracking nur bei Bedarf: Nutze das Top-100-Tracking nur noch strategisch für tiefgehende Wettbewerbsanalysen oder beim Launch neuer Content-Cluster.
- Long-Tail-Strategie neu bewerten: Für sehr lange Keyword-Listen mit vielen Long-Tail-Begriffen solltest Du die Tracking-Frequenz reduzieren (z. B. monatlich statt täglich) oder die Tiefe begrenzen, um Kosten zu sparen.
- Passe Deine internen Reports an: Kommuniziere die Änderungen transparent an alle Stakeholder (Geschäftsführung, Marketingleitung). Erkläre, dass die historischen GSC-Daten (vor September 2025) nicht mehr 1:1 mit den neuen Daten vergleichbar sind und der Fokus nun auf Klicks und realistischer Durchschnittsposition liegt.
Bedeutung für Unternehmen / SEO-Agenturen – Chancen und Risiken
Die &num=100-Entfernung ist mehr als nur ein technisches Problem; sie ist ein Katalysator für eine Verschiebung in der SEO-Strategie.
Chancen für SEO-Agenturen wie effektor
- Zurück zum Wesentlichen (Fokus auf Relevanz): Die Änderung zwingt zur Disziplin. Der Fokus liegt nun zwangsläufig auf den Top-Positionen, wo der Traffic generiert wird. Wir können uns noch stärker auf die Content-Qualität und die technischen Aspekte konzentrieren, die Dich wirklich in die Top 10 bringen.
- Bereinigte Daten = Bessere Insights: Die bereinigten GSC-Daten liefern eine klarere, ehrlichere Grundlage für die Erfolgsmessung. Die CTR-Werte sind nun weniger durch „Impression-Rauschen“ verzerrt. Das ermöglicht fundiertere Entscheidungen.
- Transparente Beratung als Wettbewerbsvorteil: Agenturen, die die Datenänderung transparent kommunizieren und ihren Kunden helfen, die neuen GSC-Metriken richtig zu interpretieren, können sich als verlässliche, analytische Partner positionieren. Bei effektor stellen wir sicher, dass Du die echten Treiber Deines Erfolgs kennst.
Risiken für Unternehmen und SEO-Teams
- Steigende Tool-Kosten: Kunden, die ihr SEO-Tracking über Agenturen oder eigene Tools abbilden, müssen mit höheren Kosten rechnen. Diese müssen im Budget eingeplant werden.
- Fehlinterpretation der Daten: Ohne die richtige Kommunikation besteht die Gefahr, dass interne Marketing-Teams oder die Geschäftsleitung den Impressions-Rückgang als Performance-Einbruch missinterpretieren.
- Verlust der Tiefe: Unternehmen mit breiten Content-Strategien, die stark auf Long-Tail-Keywords angewiesen sind, verlieren die Möglichkeit, die Performance ihrer Inhalte jenseits der Top 20 kosteneffizient zu überwachen. Dies erfordert manuelle Aufwände oder eine Budget-Erhöhung für tiefes Tracking.
Die Evolution der Messbarkeit – Veränderung als Chance
Die Entfernung des &num=100-Parameters ist ein weiteres Zeichen dafür, dass Google die Kontrolle über seine Daten und die Art, wie diese erfasst werden, verstärkt. Es ist ein Schlag gegen die Effizienz von Scrapern und eine unbeabsichtigte, aber positive Bereinigung der Messdaten in der Google Search Console.
Als SEO-Agentur verstehen wir diese Veränderungen als Teil unseres Tagesgeschäfts. Wir passen unsere Methoden entsprechend an, fokussieren unsere Analysen auf die relevantesten Performance-Treiber (Klicks, Conversions, Top-Rankings) und stellen sicher, dass somit die verfügbaren Indikatoren zur Entwicklung der Sichtbarkeit einer Website genutzt werden.
Lass uns diese Herausforderung als Chance begreifen, um Ressourcen genau dort einzusetzen, wo sie den größten Traffic- und Umsatz-Impact erzielen: in den Top-Positionen von Google.
Solltest Du Unterstützung bei der Anpassung Deiner SEO-Strategie und der Interpretation Deiner neuen GSC-Daten benötigen, sprich uns gerne an. Wir sind Dein verlässlicher Partner für Performance und Wachstum im digitalen Raum!
Mehr zu uns als SEO Agentur