Was machen eigentlich diese Suchmaschinenoptimierer den ganzen Tag? Wie funktioniert die Google Suche? Kennst du irgendwelche SEO Tricks? Das sind Fragen, die ich als SEO Spezialist regelmäßig zu hören kriege.
Wer möchte die eigene Website nicht gern in den Suchergebnissen nach vorne bringen. Von der Vorstellung, dass das ganz schnell und mit einigen „Tricks“ geht muss man sich aber verabschieden.
In diesem Beitrag erkläre ich:
Wie arbeitet Google?
Google setzt inzwischen um die 200 Rankingfaktoren zur Bewertung einer Webseite ein. Diese Zahl kann man schon seit einigen Jahren lesen. Die tatsächliche Anzahl an Faktoren kennt wahrscheinlich niemand.
Diese Rankingfaktoren sind unterschiedlich gewichtet. So gibt es Faktoren, die einen gewaltigen Einfluss auf das Ranking einer Webseite für ein spezifisches Suchwort haben. Andere Faktoren wiederum sind weniger wichtig.
Der wahrscheinlich wichtigste Faktor ist die thematische Relevanz
Das wird schon seit den Anfangstagen der großen Suchmaschine beteuert und wird in Zeiten von Machine Learning auch immer besser erkannt.
Grob bedeutet es, wie relevant ist der Inhalt meiner Seite, meiner Landingpage für den spezifischen Suchbegriff bzw für das, was der Besucher der Google Suche eigentlich finden möchte.
Konnte man die Relevanz in den vergangenen Jahren noch mehr oder weniger faken, indem man einfach den Suchbegriff immer und immer wieder im Text wiederholt, setzt Google inzwischen viel bessere Auswertungsmethoden ein.
Die Suchintention
Ein wichtiger Begriff in dem Zusammenhang ist die Suchintention. Was möchte der Besucher der Webseite mit dieser Suche eigentlich finden. Welche Frage möchte er beantworten oder welches Produkt will er kaufen.
Das ist natürlich erstmal nur eine grobe Einteilung. Wichtig hierbei ist, dass man sehr genau über den potenziellen Besucher der Seite Bescheid weiß.
Dass man also in dem Text nicht das schreibt, was einen selber interessiert, sondern das was der Besucher höchstwahrscheinlich erwartet.
Unterstützung können hierbei eben professionelle SEO Tools geben. Zu nennen sind Sistrix, Ahrefs, Searchmetrics und so weiter. Aber auch die Googlesuche selber kann schon erste Hinweise geben.
So können die Suggest Vorschläge, die bei Eingabe eines Keywords in der Suche erscheinen, einen Hinweis darauf geben, was hier thematisch ungefähr erwartet wird.
Im unteren Bereich der Google-Suche finden sich zudem weitere relevante Suchanfragen. Auch das kann einen Hinweis darauf geben, welche Inhalte zu dem gesuchten Begriff passen.
Zudem gibt es eine Fülle an kostenlosen oder sehr günstigen Tools, die hier weiterhelfen.
Letztendlich geht doch nichts über den gesunden Menschenverstand. Man sollte sich die Mitbewerber anschauen, die Daten die Google selber liefert, aber auch eine Recherche in Foren und sozialen Medien kann aufschlussreich sein. Hier finden sich vielleicht Themen, die mit dem bestimmten Suchbegriff im Zusammenhang diskutiert werden.
Der zweite wichtige Rankingfaktor: qualitativ hochwertige Backlinks
Es sollte inzwischen klar sein, dass Google Verlinkungen von externen Webseiten auf die eigene Seite als Rankingfaktor einbezieht. Solche hochwertigen externen Links sind nun mal ein super Indiz dafür, dass die verlinkte Seite über hochwertigen Content verfügen muss. Warum sollten die externen Quellen sonst verlinken.
Hat die verlinkende Seite dann auch noch eine thematische Autorität in dem gleichen Themengebiet, dann gibt sie unserer Site durch den Link quasi ein wenig davon ab. Solche Verlinkungen von hochwertigen und thematisch ähnliche Webseiten sind nach wie vor ein wahrer Rankingboost.
Dieser Umstand bietet aber auch viele Möglichkeiten zur Manipulation. So kann man qualitativ hochwertige Backlinks einkaufen. So manches große Portal und auch manche Online-Zeitung verkauft Backlinks. Doch das widerspricht klar den Googlerichtlinien.
Man kann also auch heute noch durch ein hohes Budget für Linkbuilding schnell „gute“ Backlinks aufbauen und kurzfristige Erfolge erzielen. Doch leider hält dieser Erfolg immer kürzer an.
Google erkennt recht schnell, dass der Linkaufbau nicht natürlich voran gegangen sein kann. Gerade wenn eine recht neue Webseite plötzlich viele Links von bekannten Portalen und Zeitungen bekommt, kann da was nicht mit rechten Dingen zugehen.
Die Gefahr für eine manuelle Abstrafung ist groß. Man kann den Content dadurch also schnell pushen. Kommt man dann aber in die manuelle Abstrafung, dauert es unter Umständen Jahre, ehe die alten Rankings wieder kommen. Wenn das überhaupt je passiert.
Der ideale Weg
Geht es nach Google, dann sprechen sich die tollen Inhalte quasi von allein Schritt für Schritt im Web herum. Das kann z.b. über Social-Media-Plattformen geschehen.
Der hervorragende Content zieht dadurch automatisch Verlinkungen von anderen Webseiten an. Dieses natürliche Linkbuilding würde also nahezu passiv funktionieren. Guter Content verdient es einfach, verlinkt zu werden.
In der Praxis ist es natürlich schwierig, eine neue Webseite so mit natürlichen Backlinks zu versorgen. Das kann Jahre dauern. Daher ist es ein adäquater Ansatz, dass man verlinkungswürdigen Content erstellt und online teilt bzw Webmaster auf diesen aufmerksam macht. Diese Linkbuilding-Strategie ist auch unter dem Begriff Linkseeding bekannt und wird von einem Großteil der SEO Industrie eingesetzt.
Aber auch Linkkauf, Backlinks aus Foren und Blogkommentaren sieht man nach wie vor in den Linkprofilen zahlreicher Webseites. Google wird nur immer besser darin, dieses Linkbuildingpraktiken zu entwerten oder gar zu bestrafen.
Der nächste Faktor: Die User Experience
Das umfasst sämtliche Daten, die Google über das Verhalten von Besuchern auf der Webseite hat. Diese Daten sammelt Google in erster Linie über den eigenen Chrome Browser. Dieser Browser gehört zu den beliebtesten weltweit. Die Datenbasis ist also gigantisch.
Klick-Through-Rate
Ein wichtiger Aspekt ist die Klick-Through-Rate in der Googlesuche. Also auf welches Ergebnis auf der ersten Seite klicken die meisten Nutzer bzw. wie ist das Verhältnis zwischen Impressionen und Klicks auf das Ergebnis.
Google nutzt diese Daten gern für Tests. So werden die Suchergebnisse auf der ersten Seite durcheinander gewürfelt, so dass eine neue Webseite auf Platz 1 erscheint. Nun wird analysiert, ob hier die Klickrate höher ist als bei der Seite die zuvor auf Platz 1 war.
Ist die Klickrate besser, dann ist das ein klares Zeichen dafür, dass der neue Spitzenreiter die Bedürfnisse des Suchenden besser erfüllt. Er wird also so lange erster bleiben, bis beim nächsten Test eine Site noch bessere Klickraten schafft.
Snippetoptimierung
Diese Klickrate kann man selber z.b. über die Google Snippet Optimierung verbessern. Die Meta-Description ist hier ein wichtiger Punkt. Diese sollte den Besucher abholen und zum Klicken anregen.
Auch der Title Tag spielt hier mit rein. Auch dieser sollte dem Suchenden klar machen, dass er durch den Klick auf das Ergebnis seine Probleme lösen bzw. das Produkt seiner Wahl finden wird.
Die Klickrate kann auch durch das Verwenden von Bewertungen und einer entsprechenden Auszeichnung durch das Schema.org Markup verbessert werden.
Das hängt natürlich immer davon ab, um welche Art der Suchbegriffe es sich handelt.
Time on Site
Ein weiteres wichtiges Signal ist die Time on Site. Ist der Besucher also einmal auf der Website, dann sollte er sich da auch eine Weile aufhalten. So will er vielleicht den hochinformativen Text fertig lesen, sich zu dem Produkt seiner Wahl durchlicken, oder ein Video anschauen.
Bounce Rate
Zu guter Letzt spielt auch die Bounce Rate eine Rolle – vor allem die Bounce Back Rate in die Suchergebnisse. Kommt ein Besuch auf unsere Seite und ist von dem Layout,der Textwüste oder der Ladezeit so abgeschreckt, dass er direkt wieder zurück in die Suchergebnisse springt, dann ist das ein ganz schlechtes Zeichen für Google. Unsere Seite bietet einfach nicht die optimale User Experience.
Klickt der Besucher dann noch auf ein anderes Ergebnis und hält sich dort länger auf, dann ist es nur eine Frage der Zeit bis diese Website vor uns platziert wird.
Pro Usability | Contra Usability |
---|---|
Schnelle Ladezeiten | Textwüsten |
Einfaches und ansprechendes Design | riesige Werbebanner |
Übersichtlicher Content | Unsinnige Inhalte above the fold (im zuerst sichtbaren Bereich) |
Sachverhalte vereinfachen (z.B. über Infografiken) | Popups, Layer usw. |
Es geht ans Eingemachte – Der E-A-T Score
Ins Deutsche übersetzt steht das für Expertise, Autorität und Vertrauenswürdigkeit. Das richtet sich an den speziellen Themengebieten aus. Also welche Expertise, Vertrauenswürdigkeit und Autorität hat die Webseite bzw. der Verfasser der Webseite zu diesem speziellen Thema.
In den vergangenen Jahren hat Google hier mehrere Updates rausgebracht, die speziell diesen Faktor gestärkt haben. Die bekannteste Anpassung war das Medic Update. Hierbei wurden Webseiten im Bereich Medizin und Gesundheit unter dem Gesichtspunkt dieses Rankingfaktors neu bewertet.
Das ganze wurde auf den Ansatz Your Money Your Life erweitert. Also Webseiten, die sich um wirklich wichtige Informationen über die eigene Gesundheit und Finanzen drehen.
Seriösität, Fachwissen und Expertise sollten also irgendwie gemessen werden. Das grobe Ziel war es natürlich, Content von Leuten, die sich eigentlich gar nicht richtig mit dem Thema auskennen, aus den Suchergebnissen zu verbannen.
Wie könnte Google den E-A-T Score messen?
Dieses Konzept wurde mit den Updates im aktuellen Jahr noch weiter verfeinert. Waren in der Vergangenheit auch für diesen Rankingfaktor die Backlinks eine wichtige Größe, so werden zunehmend andere interne und externe Faktoren in die Bewertungen hinzugezogen.
Natürlich ist eine aussagekräftige „Über uns“ Seite ein wichtiger Faktor. Geht es um die persönliche Qualitfikation, dann sollten hier wichtige Stationen des Lebenslaufs und Qualifikationen vorkommen.
Wichtige externe Faktoren sind dann vielleicht regelmäßige Gastartikel in einem thematisch passenden Magazin, akademische Veröffentlichungen oder Sponsoring bei wichtigen Konferenzen.
Marke aufbauen
Das E-A-T Konzept kann man auch um den Bereich Markenaufbau erweitern. Wer zu einem speziellen Gebiet eine bekannte Marke aufgebaut hat, der erfüllt quasi die Eigenschaften Expertise, Autorität und Vertrauen.
Das Thema Markenaufbau ist also immer tiefer mit Suchmaschinenoptimierung verzahnt. Wer seine Rankings nachhaltig verbessern will, der sollte auf seinem Themengebiet eine Marke werden.
„Onpage“ Faktoren
Auch das kann noch manipuliert werden. So scheint Google auch für die Bestimmung einer Marke externe und interne Faktoren heranzuziehen. Interne Faktoren sind z.b. das Vorhandensein einer Karriereseite.
„Offpage“ Faktoren
Externe Faktoren, die für die Bestimmung einer Marke herangezogen werden können, sind z.b. die sogenannten Brandkeywords. Also wie viele Leute suchen monatlich konkret nach dem Markennamen.
Je mehr Leute diesen Markennamen suchen, desto wichtiger ist wahrscheinlich die Marke. Auch Erwähnungen in Online-Publikationen, wichtigen Verzeichnissen oder Bewertungsportalen sind externe Faktoren für die Bestimmung der Markenbekanntheit.
Man kann davon ausgehen dass Google das alles in die Bewertung einfließen lässt.
Weitere Rankingfaktoren
Bilder
Es gibt noch zahlreiche weitere Risikofaktoren, die hier aufgezählt werden können, so z.b. die Verwendung von Bildern. Was steht in den Alt Texten? Wie schnell laden die Bilder und handelt es sich um unique Bilder oder oder die zigfache Kopie eines Stockfotos.
Es liegt auf der Hand, dass einzigartige Bilder sich positiv auf das Ranking auswirken sollten.
Ausgehende Links
Wie sieht es mit ausgehenden Links aus? Wohin verlinkt man selber? Früher hat sich dafür der Begriff der Bad Neighborhood eingebürgert. Verlinken wir also auf unseriöse Webseiten, dann besteht die Gefahr, dass wir selber auch als unseriös eingestuft werden.
Verlinkt man aber auf hochwertige externe Quellen, dann wird man auch selber umso seriöser Mann eingeschätzt. Das Prinzip ähnelt dem von Quellenangaben in einer akademischen Arbeit. Die eigenen Inhalte werden also durch die Angabe von Quellen belegt.
Alter
Ein wichtiger Punkt ist auch das Alter. Wobei weniger das Domainalter, sondern das der Webseite insgesamt gemeint ist. Je länger die Website in dieser Form bereits live ist, desto mehr Vertrauen hat sie aufgebaut. Zumindest wenn nicht auf Spammy Taktiken gesetzt wurde.
Der Content sollte aber auch nicht veraltet sein. Es bietet sich an, länger nicht aktualisierte Inhalte auf der Seite zu prüfen und gegebenenfalls anzupassen. So kann man Textpassagen erweitern, umschreiben oder komplett neuen Content zu dem Thema verfassen.