Quelltext einer Website für verschiedene User Agents vergleichen

Quelltext Vergleich?

  • Google nutzt verschiedene Bots, manche führen JavaScript und CSS aus (Fetch & Render), manche nicht (Static).
  • Mit diesem Tool kannst du vergleichen, ob eine Website unterschiedliche Daten für verschiedene Bots oder User Agents zurücksendet.
  • Aus SEO Sicht ist es wichtig, dass sich die Inhalte von statischen und gerenderten Versionen möglichst nicht unterscheiden.

Was ist der Unterschied zwischen statischem Googlebot und Fetch & Render?

Der statische Googlebot und dynamische Googlebot (Fetch & Render) sind zwei verschiedene Tools, die Google zum Crawlen und Rendern von Webseiten verwendet. Hier ist eine Aufschlüsselung ihrer Unterschiede:

Statischer Googlebot:
Der statische Googlebot ist der Webcrawler, der von Google zum Erkennen und Indexieren von Webseiten verwendet wird. Es ist dafür verantwortlich, den HTML-Inhalt von Webseiten abzurufen, die Seitenstruktur zu analysieren und relevante Informationen zu extrahieren. Der statische Googlebot führt kein JavaScript aus und rendert keine dynamischen Inhalte. Stattdessen konzentriert es sich auf den statischen HTML-Inhalt einer Webseite. Es sucht hauptsächlich nach Textinhalten, Links, Meta-Tags und anderen HTML-Elementen, um die Relevanz der Seite zu ermitteln und sie in den Suchergebnissen von Google zu indexieren.

Abrufen und Rendern:
Fetch & Render ist eine Funktion, die in der Google Search Console (früher bekannt als Google Webmaster Tools) verfügbar ist. Damit können Websitebesitzer testen, wie der Googlebot ihre Webseiten rendert, einschließlich der Art und Weise, wie er dynamische Inhalte verarbeitet und anzeigt, beispielsweise von JavaScript generierte Inhalte oder AJAX-Aufrufe. Mit Fetch & Render können Sie eine URL von Ihrer Website übermitteln, um zu sehen, wie der Googlebot sie anzeigt und rendert.

Die Fetch & Render-Funktion verfügt über zwei Modi:

Abrufen:
Dieser Modus ruft den HTML-Inhalt der angegebenen URL ab, ähnlich wie der statische Googlebot dies tut. Es ruft HTML, CSS und andere Ressourcen der Seite ab.

Rendern:
In diesem Modus wird die Seite wie vom Googlebot abgerufen und gerendert, wobei alle dynamischen JavaScript- oder AJAX-Aufrufe berücksichtigt werden. Es zeigt die gerenderte Ausgabe an, sodass Sie sehen können, wie Googlebot Ihre Seite sieht, nachdem JavaScript und andere dynamische Elemente verarbeitet wurden.

Zusammenfassend lässt sich sagen, dass der statische Googlebot für das Crawlen und Indexieren des statischen HTML-Inhalts von Webseiten verantwortlich ist, während Fetch & Render ein Tool innerhalb der Google Search Console ist, mit dem Websitebesitzer testen können, wie der Googlebot ihre Seiten, einschließlich dynamischer Inhalte, rendert.

Was ist wenn der Code sich unterscheidet?

Wenn sich der Quellcode zwischen der statischen Version und dem mit Fetch & Render gerenderten unterscheidet, kann dies auf ein potenzielles Problem bei der Verarbeitung und Darstellung der Webseite durch den Googlebot hinweisen. Hier sind einige Beispiele, die zu solchen Unterschieden führen könnten:

  1. JavaScript-Ausführung:
    Fetch & Render verwendet einen Headless-Browser zum Rendern von Webseiten, was bedeutet, dass er JavaScript ausführen und dynamische Inhalte verarbeiten kann. Wenn Ihre Seite zum Generieren oder Ändern ihres Inhalts stark auf JavaScript angewiesen ist, kann die gerenderte Version von der statischen Version abweichen, da der statische Googlebot kein JavaScript ausführt.
  2. AJAX-Aufrufe:
    Wenn Ihre Webseite nach dem ersten Laden der Seite AJAX-Aufrufe durchführt, um zusätzliche Inhalte oder Daten abzurufen, enthält die vom Googlebot abgerufene statische Version nicht die Ergebnisse dieser AJAX-Aufrufe. Allerdings führt Fetch & Render das JavaScript aus und zeigt die Seite so an, wie sie aussieht, nachdem die AJAX-Aufrufe abgeschlossen sind. Dies kann zu Unterschieden zwischen der statischen und der gerenderten Version führen.
  3. Dynamische Inhaltsgenerierung:
    Wenn Ihre Seite Inhalte dynamisch basierend auf Benutzerinteraktionen oder serverseitiger Logik generiert, erfasst die vom Googlebot abgerufene statische Version nur den Anfangszustand der Seite. Allerdings rendert Fetch & Render die Seite und zeigt ihren dynamischen Inhalt so an, wie er erscheint, nachdem die gesamte Verarbeitung abgeschlossen ist.

Es ist wichtig zu beachten, dass sich die Fähigkeit von Google, JavaScript zu verarbeiten und dynamische Inhalte darzustellen, im Laufe der Zeit verbessert hat. Mit der Einführung von Technologien wie der Rendering-Engine des Headless Chrome ist Googlebot nun besser dafür gerüstet, JavaScript-gesteuerte Websites zu verstehen und darzustellen.
Dennoch wird empfohlen, sicherzustellen, dass kritische Inhalte im statischen HTML verfügbar sind und nicht ausschließlich auf die JavaScript-Ausführung angewiesen sind, um eine optimale Indizierung und Zugänglichkeit zu gewährleisten.

Relevante SEO Inhalte sollten sowohl in der statischen als auch der JavaScript Version gleich sein.

Dazu gehören:
  • HTTP Status Codes
  • Title Tag und Meta Description
  • Robots Anweisungen und Canonical Tags
  • Hreflang Tags
  • Überschriften (H Tags)
  • Fließtexte
  • Interne Links
  • Bilder
Vernachlässigen kann man:
  • Login Bereiche
  • Warenkorb Funktionen
  • Cookie Consents
  • Ad Pixel, Tracking Pixel
  • Third Party Integrationen wie z.b. iFrames
  • Personalisierungen