Suchmaschinenoptimierung - Tipps

SEO Tipps - TITLE Tag:

Der perfekte Title Tag:
  • das wichtigste Keyword der Seite am Anfang
  • soll zum klicken animieren, spannend, wenig Füllwörter, Sätze
  • nicht mehr als 70 Zeichen!
  • soll den Inhalt der Seite exakt beschreiben
  • Firmenname am Ende durch einen Bindestrich oder Pipe getrennt
Schlechter Title Tag:
  • 10 Keywords durch Komma getrennt
  • alle Seiten haben den gleichen Title Tag
  • nur der Firmenname erscheint
  • viel zu langer Title Tag, mehr als 70 Zeichen
  • langweilig, keine Aussage, keine Spannung
Code Beispiel:
   <head>
    <title>
      Primäres Keyword - Sekundäres Keyword
      bringt Haare zum wachsen | Firmen Name
    </title>
  </head>
                
Weitere Informationen:

SEO Tipps - META Description:

Die perfekte META Description:
  • 150 - 160
  • animiert den User zum Klick
  • interessant und spannend, gut lesbar
  • Fokus auf das Ziel der Seite
  • soll den Inhalt der Seite exakt beschreiben
  • beschreibt die Seite mit den wichtigsten Keywords
Schlechte META Description:
  • reine Keyword Wiederholungen
  • schlecht lesbar, kein Textfluss
  • beschreibt nicht was der User zu sehen bekommt
  • langweilig, keine Aussage, keine Spannung
  • alle Seiten haben die gleiche Meta Description
Code Beispiel:
  <head>
    <meta name="description" content="
    OnPage Optimierung - Wie gut ist eine Website für Suchmaschinen optimiert?
    Überprüfen sie die OnPage Faktoren und verbessern sie ihre Website
    " />
  </head>
                
Weitere Informationen:

SEO Tipps - Text / Inhalte des Body Tags:

Ein perfekter Text:
  • hat mindestens 500 Wörter
  • ist für Leser, nicht für Suchmaschinen
  • hat eine Keyworddichte zwischen 3 und 5%
  • ist qualitativ hochwertig
  • ist keine Kopie von anderen Seiten
  • hat Listen, Tabellen, Bilder
  • hat Absätze, Überschriften, Unterüberschriften
  • hat interne und externe Links zu verwandten Themen
Schlechter Text:
  • besteht aus einer Textwüste ohne Struktur und Absätze
  • hat keine Bilder
  • wurde nur für Suchmaschinen geschrieben
  • hat Rechtschreibfehler
  • hat viele und große Werbeblöcke
  • bringt die Keywords nicht im sinnvollen Kontext
  • ist anstrengend zu lesen
  • langweilt
Lies deine Seite und frag dich folgendes:
  • Würdest du dem Inhalt des Artikels/Blogposts etc. trauen?
  • Wurde der Artikel von einem Experten bzw. sachkundigen Laien verfasst? Oder ist er sehr oberflächlich?
  • Enthält der Artikel Rechtschreibfehler?
  • Sind die Artikel für Leser geschrieben? Oder wird versucht ein gutes Ranking zu erzielen?
  • Beinhaltet die Website einzigartige Inhalte, eigenen Forschungsergebnisse oder eigene Analysen?
  • Hat die Website redundante Artikel mit Keywords die nur leicht variieren?
  • Ist der Wert der Seite höher einzuschätzen als die anderen Suchergebnisse?
  • Unterliegen die Inhalte der Website einer Qualitätskontrolle?
  • Werden auf der Website unterschiedliche Sichtweisen berücksichtigt?
  • Stammen die Inhalte von externen Autoren bzw. Contentproduzenten?
  • Könnte man sich den Artikel in einem Printmagazin oder einem Buch vorstellen?
  • Hat die Website viele Ads?
  • Sind die Artikel kurz und gehaltlos?
  • Würden sich Nutzer über das Suchergebnis beschweren?

SEO Tipps - Performance, Ladezeit:

Gut für die Ladezeit:
  • wenig Requests, wenig Dateien laden
  • Dateien so klein wie möglich ausliefern (gzip)
  • viele CSS Dateien zu einer zusammenfassen
  • viele JavaScript Dateien zu einer zusammenfassen
  • CSS Sprites für Bilder verwenden
  • ggf. Inline Images/Data URIs verwenden
Schlecht für die Ladezeit:
  • dutzende Requests auf viele kleine Grafiken
  • viele verschiedene Webfonts
  • langsame Server, CMS / Blog ohne Caching
  • unkomprimiertes JS, CSS und Bilder
  • umfangreicher Quelltext mit vielen verschachtelten HTML Elementen
  • viele Third Party Elemente (Twitter, FB, Google, Tracking), da diese meist viele zusätzliche Requests erzeugen
Weitere Informationen:
  • eine Aussage was gut/schlecht ist, ist von Website zu Website unterschiedlich
  • SEORCH hält eine Webseitengröße von unter 750 KB für ideal
  • max. 500 KB an Bildern und max. 5 CSS und JavaScript Dateien sollten ein vernünftiger Richtwert sein
  • allerdings ist das natürlich von Browser zu Browser unterschiedlich, die verfügbare Bandbreite des Users
    sowie sein Standort spielen ebenfalls eine sehr große Rolle
  • weitere typische Performancebremsen: viele HTTP Requests, Inline CSS und JavaScript,
    falsche Grafikformate, zu viele Alphakanaltransparenzen, falsche Komprimierung von Grafiken,
    keine GZip Komprimierung ..
  • Ausführliche Analysen liefern Webpagetest und YSLOW

SEO Tipps - Seiten im Google Index:

Gut:
  • mehr Seiten sind tendenziell besser als wenige
  • die Anzahl der Seiten entspricht denen der analysierten Website
  • je breiter eine Website thematisch aufgestellt ist desto mehr Seiten werden benötigt
Schlecht:
  • Google liefert 0 Seiten, dann ist die Website Google nicht bekannt und kann nicht ranken
  • die Anzahl der Seiten liegt weiter unter der Anzahl die tatsächlich vorhanden sind
  • die Anzahl der Seiten liegt weiter über der Anzahl die tatsächlich vorhanden sind, dies bedeutet in der Regel das Teile mehrfach indiziert sind
Weitere Informationen:
  • Eine Suchmaschine benötigt eine gewisse Anzahl an Seiten um eine Website einem Thema zuzuweisen.
  • Frei nach dem Motto mit Speck fängt man Mäuse.
  • Wir empfehlen mindestens eine hohe zweistellige Zahl.

SEO Tipps - Google PageRank:

Informationen:
  • Historischer Ranking Faktor, der seite Ende 2009 kaum noch relevant ist.
  • Page Rank Updates sind sehr selten geworden (Weniger als einmal pro Jahr).
  • PageRank ist nur noch ein kleiner Aspekt, den Googles Hummingbird Algorithmus in seine Bewertung einbezieht.
  • PageRank 0 bedeutet die Seite ist Google nicht bekannt.
  • Ein niedriger PageRank liegt zwischen 1 und 3.
  • Ein mittlerer PageRank liegt zwischen 4 und 6.
  • Ein hoher PageRank liegt über 6.

SEO Tipps - Soziale Netzwerke:

Gut:
  • Website hat einen Account bei allen relevanten sozialen Netwerken und die Share Funktion auf der Website
  • Account wird gepflegt und verwaltet, Benutzer werden animiert Fragen zu stellen und zu diskutieren
  • Tweet, Share und Like Buttons für alle sozialen Netwerke mit angepasster Überschrift, Inhalt und Bild (Open Graph und Twitter Cards)
Schlecht:
  • der Account ist eine reine Linkschleuder
  • verwaister Account
  • Fragen von Benutzern werden ignoriert
  • Kaum bzw. keine Likes, Shares und Tweets
Weitere Informationen:
  • viele Likes, Tweets, Shares usw. zeigen ob eine Seite interessanten Inhalt hat
  • Social Media sollte man nur machen wenn man wirklich etwas Zeit und Lust hat
  • denn soziale Netzwerke müssen täglich betreut und gepflegt werden
  • User teilen in der Regel nur Dinge in Sozialen Netzwerken die ihnen einen Vorteil bringen oder spannend, lustig etc. sind.
  • Google durchsucht soziale Netzwerke nach Links, dies kann zu einer schnelleren Indexierung führen.

SEO Tipps - Überschriften:

Gut:
  • Überschriften enthalten wichtige Keywords, sind nicht zu lang und wiederholen sich nicht
  • 1 H1 Tag, 2-3 H2 Tags und 6-7 H3 Tags pro Seite, je nach Textlänge
  • Klare Hierachie, nach H1 folgt H2 folgt H3 usw.
Schlecht:
  • H Tags enthalten Bilder oder Grafiken
  • Inhalte der der H Tags sind auf jeder Seite gleich
  • H1 Tag beeinhalten z.b. immer den Namen der Website
  • zuviele H Tags bei gleichzeitig wenig Text
Weitere Informationen:
  • H Tags sollen den Text strukturieren und lesbarer machen
  • Inhalte sollen den folgen Text kurz beschreiben oder zusammenfassen
  • Nicht zu lang, nicht zu kurz
  • Für Suchmaschinen ein wichtiger Anhaltspunkt um den folgenden Text thematisch zuzuordnen

SEO Tipps - Mobile:

Gut:
  • responsive Webdesign, eine Seite für alle Geräte
  • keine Verwendung von Popups, Flash oder zu kleinen Schriften
  • achte darauf das deine Seite in den Viewport passt und Texte und Links groß genug sind
Schlecht:
  • fehlerhafte Behandlung von verschiedenen User Agent Strings
  • die Seite ist responsive aber die Meta Viewport Angabe width=device-width wurde nicht gesetzt
  • die robots.txt verhindert das CSS und JS gecrawlt werden können
Es gibt drei Möglichkeiten den Google Bot auf eine mobile Version der Website hinzuweisen:
  • per <meta name="viewport" content="[VIEWPORT SELECTOR]"> Angabe (Responsive Webdesign)
  • per <link rel="alternate" media="[VIEWPORT SELECTOR]" href="[ALTERNATIVE URL]"> Angabe im HTML Header der Seite (Alternative mobile URL)
  • per Vary: User-Agent HTTP Header (Auslieferung verschiedener Versionen unter der selben URL)
  • Google empfiehlt die responsive Variante behandelt aber alle 3 Methoden gleich.
  • Es sollte immer nur eine Methode verwendet werden.
  • Wenn die mobile Version unter einer anderen URL ausgeliefert wird benötigt diese einen Canonical Tag der auf die Desktop Version verweist.

SEO Tipps - Core Web Vitals - Feld Daten:

Weitere Informationen:
  • Feld Daten aus dem Google CrUX (Chrome User Experience Report) liefern Informationen über die Nutzererfahrung (Core Web Vitals) auf Websites.
  • Diese Daten werden von echten Chrome Nutzern gesammelt und von Google öffentlich zur Verfügung gestellt.
  • Wenn keine Daten angezeigt werden (N/A) bedeutet dies, dass die URL sehr neu ist und noch keine Daten vorliegen oder, dass es im Zeitraum von einem Monat zu wenig Zugriffe auf die URL gab.
  • Die CrUX-Daten umfassen dagegen eine große Anzahl von Nutzern weltweit und bieten somit eine breite Perspektive auf die Leistung von Websites. Da CrUX-Daten auf echten Nutzererfahrungen basieren, bieten sie repräsentativere Ergebnisse darüber, wie Websites in der realen Welt performen.
  • Labor Daten werden durch simulierte Tests in kontrollierten Umgebungen generiert, z.B. mithilfe von Tools wie Webpagetest, Lighthouse oder PageSpeed Insights. Diese Tests ahmen das Verhalten eines Nutzers nach, aber sie sind nicht identisch mit den tatsächlichen Nutzererfahrungen.

SEO Tipps - Page Speed Analyse - Labor Daten:

Weitere Informationen:
  • Diese Daten werden einmalig und jedesmal neu für jede analysierte URL ermittelt.
  • Labor Daten werden durch simulierte Tests in kontrollierten Umgebungen generiert, z.B. mithilfe von Tools wie Webpagetest, Lighthouse oder PageSpeed Insights. Diese Tests ahmen das Verhalten eines Nutzers nach, aber sie sind nicht identisch mit den tatsächlichen Nutzererfahrungen.
  • Die CrUX-Daten (Feld Daten) umfassen dagegen eine große Anzahl von Nutzern weltweit und bieten somit eine breite Perspektive auf die Leistung von Websites. Da CrUX-Daten auf echten Nutzererfahrungen basieren, bieten sie repräsentativere Ergebnisse darüber, wie Websites in der realen Welt performen.