Menü

Die „Tipps“ von gestern sind die Strafzettel von heute

Wie Google heute eine Website sieht

Wie Google heute eine Website sieht

Die alten Tricks kannst du dir sparen: Der Googlebot quält sich längst nicht mehr durch den Quellcode – er sieht, was ein Mensch sieht. Mit allem dran: HTML, CSS, JS. Auch und besonders die alten Geheimtipps.

Man erinnert sich fast wehmütig: Es gab eine Zeit, da reichte weißer Text auf weißem Grund oder eine exzessive Keyword-Ansammlung im Footer, um die Suchergebnisse zu dominieren. Der Googlebot war damals ein kurzsichtiger Buchhalter, der brav Zeile für Zeile den Quellcode abarbeitete und alles glaubte, was man ihm dort auftischte.

Diese Ära des digitalen Voodoo ist vorbei. Heute gleicht der Googlebot eher einem unbestechlichen Kunstkritiker mit Hochleistungsrechner.

Der Bot als virtueller Betrachter

Hinter den Kulissen agiert heute der sogenannte Web Rendering Service (WRS). Man darf sich das als einen modernen Chrome-Browser vorstellen, der jede Website erst einmal komplett „zeichnet“, bevor er sich ein Urteil erlaubt.

Google liest nicht mehr nur das Inhaltsverzeichnis; der Bot tritt ein, schaltet das Licht an und begutachtet die Inneneinrichtung. Dank dieser Rendering-Fähigkeit erkennt das System heute präzise, ob eine Website für echte Menschen gebaut wurde oder nur für Algorithmen. Das Layout, die Abstände und sogar die Klickbarkeit von Elementen werden bewertet. Ein Button, der sich hinter einem Werbebanner versteckt, wird bemerkt – und meistens nicht mit Wohlwollen quittiert.

Die „Geheimtipps“ von gestern sind die Strafzettel von heute

Was früher als genialer SEO-Kniff galt, hat heute den Charme eines abgelaufenen Parkscheins. Wer Inhalte in Tabs oder Accordions versteckt, nur um das Design „clean“ zu halten, muss damit rechnen, dass Google diesen Content schlichtweg als zweitrangig einstuft. Die Logik dahinter ist bestechend simpel: Was für den Nutzer erst nach einem Klick sichtbar wird, kann für die Relevanz der Seite nicht entscheidend sein.

Dank des Renderings versteht Google die visuelle Hierarchie. Was „Above the Fold“ – also im direkt sichtbaren Bereich – steht und groß formatiert ist, gewinnt. Was per CSS auf display: none; gesetzt wurde, landet im digitalen Giftschrank. Google weiß heute sehr genau, ob ein Text die Hauptrolle spielt oder nur als Statist im Hintergrund fungiert.

JavaScript: Die Party mit zwei Geschwindigkeiten

Für die technisch Versierteren ist der zweistufige Indexierungsprozess das eigentliche Spektakel:

  • Der erste Scan: Google zieht das nackte HTML. Das geht schnell, erfasst bei klassischen PHP-Seiten meist schon alles Wesentliche, lässt aber bei modernen JS-Frameworks oft nur eine gähnende Leere zurück.
  • Die Rendering-Warteschlange: Sobald Google Kapazitäten frei hat, wird die Seite komplett gerendert. Das kann Stunden, manchmal Tage dauern.

Wer darauf setzt, dass wichtige Inhalte erst durch komplizierte Scripte nachgeladen werden, spielt ein riskantes Spiel mit der Geduld des Bots. Die Core Web Vitals sind hierbei das Protokoll der Unzulänglichkeiten: Jedes Element, das beim Laden nachträglich das Layout verschiebt, wird registriert.

Der Design-Sperrbezirk in der robots.txt

Es hält sich hartnäckig das Gerücht, man müsse CSS- und JS-Ordner in der robots.txt sperren, um „Crawl-Budget“ zu sparen. In der Praxis führt das dazu, dass Google eine Website ohne Formatierung sieht – eine visuelle Katastrophe aus den frühen 90ern.

Ohne Zugriff auf das CSS kann Google nicht feststellen, ob eine Seite mobiloptimiert ist. Die Folge ist oft eine Abstrafung im Ranking, schlicht weil man dem Bot die Augen verbunden hat.
 

Diagnose statt Kaffeesatzleserei

Man muss nicht raten, wie Google eine Seite bewertet. Ein Blick in das URL-Prüfungstool der Google Search Console genügt. Wer dort auf „Live-URL testen“ klickt und ein gerendertes Bild erhält, das aussieht wie ein Unfall in einer Buchstabensuppe, weiß: Hier gibt es ein Rendering-Problem. Sieht die Vorschau hingegen aus wie im eigenen Browser, ist die technische Hürde genommen.

 

Fazit: Ehrlichkeit währt am längsten

Der moderne Googlebot ist kein System mehr, das man mit billigen Tricks überlisten kann. Er fungiert als Stellvertreter für den Nutzer. Eine saubere Programmierung – man denke an schlankes PHP und CSS ohne unnötigen Ballast – ist heute die beste SEO-Strategie.

Wer eine Website baut, die schnell lädt, stabil steht und den Nutzer nicht für dumm verkauft, wird von Google belohnt. Alles andere ist digitale Nostalgie.