In der Grafik sind vier Beispielkorrelationen und die jeweiligen Kurven dargestellt.
- Faktor A: Null-Korrelation – lineare Kurve, horizontal / hoher Durchschnitt
- Faktor B: Positive Korrelation (am höchsten) – Exponentialfunktion, fallend
- Faktor C: Negative Korrelation (am niedrigsten) – lineare Kurve, steigend
- Faktor D: Positive Korrelation – unregelmäßige Kurve, fallend
- Erläuterung: Korrelationsberechnung und Interpretationsansätze
- Suchmaschinen-Algorithmen und Ranking-Faktoren von Google & Co.
- Black Hat SEO: Keyword Stuffing, Cloaking & und Co.
- Ursache ≠ Korrelation
- „Cum hoc ergo propter hoc“ – Logischer Fehlschluss und Scheinkorrelationen
- Datenbasis für Searchmetrics Rankingfaktoren
- Binäre und numerische Faktoren – Spezifikation versus Existenz
- Korrelationswerte versus Mittelwerte und Kurven
- Der Markenfaktor
- Intention: Warum Ranking-Faktoren?
Erläuterung: Korrelationsberechnung und Interpretationsansätze
Die y-Achse zeigt den Durchschnittswert für alle 10.000 untersuchten URLs an der Position X (x-Achse). Faktoren mit dem Wert „Null“ deuten nach unserer Analyse auf keine messbare Korrelation zwischen guten und schlechten Google-Ergebnissen hin. Je höher der Wert einer Korrelation ist, desto größer und regelmäßiger sind die Unterschiede zwischen den Positionen. Werte im negativen Bereich sind am besten zu verstehen, wenn die gegenteilige Aussage positiv interpretiert wird.
Einfach ausgedrückt: Je größer die Unterschiede von Position 1 bis 30 sind, desto höher ist der Korrelationswert. Zur Interpretation der Faktoren werden immer Durchschnittswerte herangezogen. Zum Beispiel haben die Faktoren B und C aus dem obigen Diagramm den gleichen Korrelationswert (also: 1), sind aber völlig unterschiedlich, was ihre jeweiligen Kurven angeht. Für den Faktor A hingegen beträgt der Durchschnittswert 95 (y-Achse) für jede Position (x-Achse), könnte aber auch bei 5 (y-Achse) liegen. Der Korrelationswert bliebe identisch bei 0, aber die Interpretation des Faktors wäre völlig anders.
Suchmaschinen-Algorithmen und Ranking-Faktoren von Google & Co.
Suchmaschinen arbeiten mit Algorithmen, um Websites nach Themen und Relevanz zu bewerten. Anhand dieser Bewertung werden die Seiten im Index der Suchmaschine strukturiert, was letztlich dazu führt, dass bei Nutzeranfragen die bestmögliche Rangfolge der Ergebnisanzeige angezeigt wird. Die Kriterien für die Bewertung von Webseiten und die Erstellung dieser Rangfolge werden allgemein als Ranking-Faktoren bezeichnet.
Die Gründe dafür liegen auf der Hand: Die exponentiell steigende Zahl von Dokumenten im Internet – und im Suchindex – macht es trotz der Existenz menschlicher „Qualitätsbewerter“ unmöglich, diese Seiten ohne einen automatischen Algorithmus zu bewerten. Dieser Algorithmus ist einerseits obligatorisch (Ordnung erfordert schließlich ein Muster) und andererseits das bestgehütete Geheimnis im Internet-Geschäft, denn für die Suchmaschinen ist es unerlässlich, die dem Algorithmus zugrunde liegenden Faktoren streng geheim zu halten.
Diese inhärente Geheimhaltung hat weniger mit dem Wettbewerb zwischen den Suchmaschinen zu tun als vielmehr mit grundsätzlichen Erwägungen: Wären die Methoden zur Erzielung guter Platzierungen allgemein bekannt, würden sie irrelevant werden, da sie ständig manipuliert würden. Niemand außer Google weiß, was die wirklichen Ranking-Faktoren sind. Wir analysieren Daten mittels einer Rangkorrelationsanalyse, um unsere Erkenntnisse auf der Grundlage der Eigenschaften bestehender, organischer Suchergebnisse zu gewinnen. Daraus schließen wir, wie die Ranking-Faktoren und ihre jeweilige Gewichtung aussehen könnten. Unsere immense Datenbank bietet eine zuverlässige Grundlage für diese Analysen.
Black Hat SEO: Keyword Stuffing, Cloaking & und Co.
Zu Beginn des Suchmaschinenzeitalters stufte Google Seiten als relevant für bestimmte Themen ein, wenn die themenbezogenen Suchbegriffe (Keywords) häufig verwendet wurden. Dieses Wissen machten sich Website-Betreiber bald zunutze und erreichten sehr gute Positionen in den SERPs, indem sie Seiten mit Schlüsselwörtern „vollstopften“, so dass ihre oft nicht relevanten Seiten für die angestrebten Suchbegriffe auf gut platzierten Positionen zu finden waren.
Damit entstand nicht nur ein echter Wettbewerb zwischen Suchmaschinen und SEOs, sondern auch der Mythos des Ranking-Faktors. Das Ziel der semantischen Suche schuf ein Geflecht von Kriterien, die zunächst rein technisch waren (z.B. die Anzahl der Backlinks), aber durch weniger technische Komponenten (z.B. Nutzersignale) ergänzt wurden.
Diese Entwicklung und das Streben nach dem optimalen Ergebnis gipfelten in der ständigen Evolution der Rankingfaktoren. Die endlose Rückkopplungsschleife permanent-iterativer Aktualisierungszyklen ist einzig und allein darauf ausgerichtet, Suchergebnisse zu generieren, die dem einzelnen Suchenden ständige Verbesserungen bieten. Die Struktur und Komplexität der Ranking-Faktoren, ergänzt durch den starken Einfluss von Nutzersignalen, ist darauf ausgelegt, die relevantesten Inhalte für den Nutzer zu produzieren.
Aus geschäftlicher Sicht kann langfristiger Erfolg durch eine nachhaltige Geschäftsstrategie erzielt werden, die auf der Einbeziehung relevanter Qualitätsfaktoren basiert, um starke Suchpositionen zu erhalten. Dieser Ansatz bedeutet den Verzicht auf negative Einflussmöglichkeiten und eine klare Fokussierung auf relevante Inhalte bei gleichzeitiger Bekämpfung von Spam und Kurzsichtigkeit.
Ursache ≠ Korrelation
Wir sind nicht Google. Die Analyse und Bewertung von Ranking-Faktoren anhand unserer Daten basiert auf einer fundierten Interpretation – nicht auf Spekulation – der Fakten, nämlich der Bewertung und Strukturierung von Website-Eigenschaften mit hohen Positionen in den Suchergebnissen.
Die Ranking-Auswertungen von Searchmetrics sind exakt, frisch und basieren auf vielen Daten. Wir bei Searchmetrics aggregieren monatlich Milliarden von Datenpunkten – und hier ist die 64-Millionen-Dollar-Frage: Welche Faktoren unterscheiden gut platzierte Seiten von solchen mit niedrigeren Positionen in den Google-Suchergebnissen?
Wir vergleichen die Eigenschaften von Webseiten mit der Summe ihrer Positionen bei Google und leiten daraus eine strukturierte Liste von mehr oder weniger gewichteten Faktoren ab. Wenn also auf den vorderen Positionen der untersuchten SERPs zum Beispiel viele Seiten das Keyword im Title-Tag enthalten, dann erkennen wir darin eine hohe Korrelation mit einem guten Ranking. Diese Korrelationen können also Rückschlüsse darauf zulassen, welche der in den Top-Suchergebnissen angezeigten Seiten ähnliche Merkmale aufweisen.
Es muss jedoch darauf hingewiesen werden, dass Korrelationen nicht gleichbedeutend mit kausalen Zusammenhängen sind und somit keine Garantie dafür besteht, dass die jeweiligen Faktoren tatsächlich einen Einfluss auf das Ranking haben – oder überhaupt von Google als Signal verwendet werden. Was wir bei Searchmetrics jedoch tun, ist, diese Korrelationen zu interpretieren.
„Cum hoc ergo propter hoc“ – Logischer Fehlschluss und Scheinkorrelationen
Pflanzen verwelken, wenn sie kein Wasser bekommen: das Haus ist warm, wenn man die Heizung aufdreht – und weil eine Seite viele Social Signals hat, klettert sie auf Platz 1? Stopp!
Es gibt viele Beispiele für Scheinkorrelationen oder -bewertungen, die als „logischer Fehlschluss“ bezeichnet werden (Cum hoc ergo propter hoc – siehe Wikipedia). Zum Beispiel das gleichzeitige Auftreten von Phänomenen wie die Anzahl der Störche und die höhere Geburtenrate in bestimmten Gebieten oder der Zusammenhang zwischen dem Verkauf von Speiseeis und dem vermehrten Auftreten von Sonnenbränden im Sommer. Aber bekommt man von Eiscreme wirklich einen Sonnenbrand? Nein, natürlich nicht. Diese Beispiele zeigen eine (illusorische) Korrelation, nicht eine kausale Beziehung. (Weitere Beispiele finden Sie hier)
Wir wollen logische Fehlschlüsse und Scheinkorrelationen um jeden Preis vermeiden, und unsere Erfahrung zeigt, dass es zu einfach ist, einem Ranking-Faktor eine kausale Bedeutung zuzuschreiben, wo keine existiert. Wir ziehen es vor, mit einem „Rangkorrelationskoeffizienten“ zu arbeiten, und das erfordert eine bewertete Interpretation und eine solide Datenbasis.
Datenbasis für Searchmetrics Rankingfaktoren
Unsere Analyse basiert auf Suchergebnissen für ein sehr großes Keyword-Set von 10.000 Suchbegriffen für Google U.S.. Ausgangsbasis sind immer die Top 10.000 Suchbegriffe nach Suchvolumen, aus denen aber bestimmte navigationsorientierte Keywords herausgefiltert werden, um die Auswertungen nicht zu verzerren. Als navigationsorientierte Suchbegriffe gelten solche, bei denen alle Ergebnisse bis auf eines für den Suchenden mehr oder weniger irrelevant sind (z.B.: „Facebook Login“).
Unsere Datenbasis für die Ranking-Faktor-Analysen sind immer die ersten drei organischen Suchergebnisseiten. Die Keyword-Sets aus den Folgejahren stimmen in der Regel zu mehr als 90 Prozent mit der Datenbasis aus dem Vorjahr überein. Hier haben wir einen Mittelweg gesucht, um zwei Faktoren zu berücksichtigen, nämlich einerseits den Erhalt des „größten gemeinsamen Nenners“ als optimale Basis für den Vergleich mit der Vorgängerstudie und andererseits die Berücksichtigung neuer Keywords, die im Suchvolumen in den Top 10.000 gewachsen sind.
Die Datenbasis bei Searchmetrics ist immer aktuell. Daher werden für aktuelle Analysen neue, relevante Keywords verwendet, wie z.B. „Samsung Galaxy S5“ oder „iPhone 6“, die es vorher nicht gab.
Binäre und numerische Faktoren – Spezifikation versus Existenz
Die untersuchten Faktoren werden in binäre und numerische Merkmale unterteilt. Das bedeutet, dass es einen inhärenten Unterschied in der Natur der Faktoren gibt, die in dieser Analyse verwendet werden. Dieser Unterschied sollte bei der Interpretation der Werte nicht vernachlässigt werden.
Elemente, die mit binären Faktoren beschrieben werden – wie etwa eine Meta-Beschreibung auf der Seite – sind entweder vorhanden oder nicht. Hier gibt es keine Abstufungen. Es gibt auch Elemente mit abgestuften Merkmalen, die sich in unterschiedlichem Maße ändern. Zum Beispiel kann eine URL null oder sechstausend Backlinks haben – aber auch jeder Wert dazwischen ist möglich.
Diese numerischen Faktoren sind in gewisser Weise „besser“ für Studien, die Korrelationsberechnungen wie Spearman verwenden, mit Reihen und / oder Rankingprinzipien, die auf Abstufungen basieren. Wenn es um Interpretationen geht, die allein auf dem reinen Korrelationswert beruhen, sind die Aussagen für numerische Faktoren oft aussagekräftiger.
Um die Validität der Korrelationen binärer Merkmale in unserer Studie zu unterstützen, muss daher in der Regel ein Mittelwert angegeben werden. So kann es z.B. beim Faktor „Vorhandensein einer Beschreibung“ sein, dass nur eine Korrelation nahe Null mit dem Ranking besteht, tatsächlich aber fast 100% aller URLs eine Beschreibung haben (siehe die Beispielkorrelation für Faktor A oben).
Korrelationswerte versus Mittelwerte und Kurven
Die als Balken dargestellten Korrelationswerte werden immer auf Basis aller verfügbaren Daten pro Merkmal berechnet, so dass bei einem oder 10.000 Keywords jede Diagrammlinie 30 Werte pro Keyword aufweist.
Aus diesen mittleren Kurvenwerten werden Durchschnittswerte errechnet, wobei auch die obersten fünf Prozent jedes Merkmals weggelassen werden, um eine möglichst glatte Kurve und eine überschaubare Skala (Y-Achse) zu erhalten, da sonst einige niedrigere Durchschnittswerte in den jeweiligen Kurven nicht zu sehen wären. Außerdem werden die einzelnen Median- und Mittelwerte für die Merkmale ohne die obersten fünf Prozent der Ergebnisse berechnet.
Der Markenfaktor
Eine der Konstanten in den Studien zu den Ranking-Faktoren ist eine interessante Besonderheit in den Daten, die wir als „Markenfaktor“ bezeichnet haben und die bei vielen Faktoren und Beobachtungen auftritt.
Mit dem Markenfaktor meinen wir die Beobachtung, dass Websites von bekannten Marken oder mit einer gewissen Autorität in der Regel die obersten Positionen in den Rankings belegen, selbst wenn sie bestimmte Faktoren außer Acht lassen, die die URLs, die etwas weiter unten rangieren, einhalten.
Zum Beispiel haben Marken im Durchschnitt eher kein h1-Tag auf ihrer Seite, ihre Inhalte haben eine geringere Wortzahl und das Keyword findet sich nicht so oft in der Beschreibung des Meta-Titels. Kurz gesagt: Aus SEO-Sicht sind sie weniger optimiert. Andererseits weisen Marken-Websites in der Regel viel mehr Backlinks und Social Signals auf als andere URLs.
Google ist bereits sehr effizient darin, Marken aus bestimmten Branchen zu erkennen und ihren URLs ein bevorzugtes Ranking zuzuweisen. Werte wie Wiedererkennbarkeit, Nutzervertrauen und Markenimage spiegeln sich bis zu einem gewissen Grad auch in den SERPs wider.
Intention: Warum Ranking-Faktoren?
Man kann sagen, dass nicht einmal Google selbst weiß, wie sich sein eigener Algorithmus zusammensetzt, so komplex sind die Bewertungsmetriken geworden.
Das Ziel der Searchmetrics „Ranking-Faktoren“-Studien ist es nicht, ein Evangelium der absoluten Wahrheit zu produzieren. Vielmehr verstehen wir Searchmetrics-Studien als eine methodische Analyse aus einer interpretativen Perspektive. Das bedeutet, dass wir der Online-Industrie einen einfachen Zugang zu einer Daten-Toolbox bieten wollen. Mit Hilfe dieses Werkzeugkastens kann die Branche auf der Grundlage unserer intensiven Forschung über ein breites Spektrum von Kriterien fundierte Entscheidungen treffen.
Zur Studie: Ranking-Faktoren 2018: Gezielte Analysen für mehr Erfolg bei Google und im Online-Markt.