Interne Dokumentationen der Content Warehouse API von Google Search sind durchgesickert. Diese Dokumenten helfen nun, den Google Algorithmus besser zu verstehen und die Funktionsweise der Content Warehouse API für SEO zu nutzen. Dadurch können Entwickler gezielt Inhalte für die Google-Suche optimieren und ihre Websites für ein besseres Ranking anpassen.

Was war passiert: Die internen Mikroservices von Google scheinen Inhalte aus der Google Cloud Platform zu spiegeln, und so ist die interne Version der Dokumentation für das veraltete Document AI Warehouse wohl versehentlich öffentlich in einem Code-Repository für die Client-Bibliothek veröffentlicht worden. Die Dokumentation dieses Codes wurde ebenfalls von einem externen automatisierten Dokumentationsdienst erfasst. Laut Änderungsverlauf wurde dieser Fehler im Code-Repository zwar am 7. Mai behoben, aber die automatisierte Dokumentation ist weiterhin online.

Wer sich die offen zugänglichen Dokumente angeschaut hat, wird einige Erkenntnisse zum Google Rankingalgorithmus gewinnen können. Einige davon sind hier zusammengefasst.

 

Zentrale Erkenntnisse zum Google Rankingalgorithmus

Google nutzt Auswertungen von Klicks für Rankings

Das war zwar bekannt, Google hatte aber mehrfach abgestritten, Klicks direkt zu nutzen. Was wir nun aufgrund der offengelegten Informationen wissen: Google nutzt ein System mit der Bezeichnung NavBoost für diese Aufgabe. NavBoost ist ein System, das klickbasierte Maßnahmen verwendet, um Suchergebnisse im Web entweder zu verbessern, herabzustufen oder anderweitig zu beeinflussen. NavBoost existiert seit einigen Jahren und hat traditionell Daten der letzten 18 Monate genutzt hat. Kürzlich wurde das System aktualisiert und verwendet nun Daten der letzten 13 Monate, wobei der Schwerpunkt auf den Ergebnissen der Websuche liegt. Es existieren insbes. folgende Variablen:
– goodClicks
– badClicks
– lastLongestClicks
– unsquashedClicks
– unsquashedImpressions
– unsquashedLastLongestClicks

Es werden somit verschiedene Metriken berücksichtigt, u.a. schlechte Klicks, gute Klicks, längste Klicks oder nicht beschnittene Klicks und nicht beschnittene längste Klicks. Das „Squashing“ (Beschnitt) soll übrigens verhindern, dass ein starkes Signal die anderen dominiert. Die Systeme normalisieren also die Klickdaten, um sicherzustellen, dass keine übermäßige Manipulation basierend auf dem Klicksignal stattfindet. Es zeigt sich also, dass Google ein ausgeklügeltes System nutzt, um die Interaktion von Nutzern mit einer Website für das Ranking zu nutzen.

Google nutzt Domain Authority doch

Im Code und in der Dokumentation ist erkennbar, dass Google Informationen zu einer Variable SiteAuthority nutzt. Warum ist das wichtig? Die Site- oder Domain-Authority (DA) ist ein Maßstab, der die Stärke und Glaubwürdigkeit einer gesamten Website oder Domain im Internet bewertet. Diese Metrik wurde von der SEO-Softwarefirma Moz entwickelt, um vorherzusagen, wie gut eine Website in den Suchmaschinenergebnissen (SERPs) ranken könnte. Google hat oft explizit verneint, eine solche Information zu nutzen. Der Code und die zugehörige Dokumentation scheinen anderes zu zeigen. Im übrigen scheinen neue Unterseiten die Autorität der Startseite vererbt zu bekommen, bis Sie eine eigene Autorität erhalten.

Eine Sandbox gibt es immer noch

Früher war es überdeutlich, dass es eine Sandbox gab, ein die neue Internetseiten erst einmal einsortiert wurden. Internetseiten in der Sandbox wurden über einen längeren Zeitraum (z.B. ein Jahr) in der Sandbox gelassen und hatten es in dieser Zeit schwer, bei Google zu ranken. Für neu gegründete Unternehmen mit neuen Internetseiten war das natürlich ein Problem. Viele Unternehmen versuchten also, dieses Problem zu umgehen, indem Sie ausgelaufene ältere Domains reservierten und diese für Ihre Zwecke neu nutzten, um so auch die Sandbox zu umgehen. Auch der Kauf älterer Domains war üblich und oft erfolgversprechend. Ich selbst besitze immer noch viele alte Domains und es ist mit Ihnen, wie mit gutem Wein: sie werden mit jedem Tag besser (und teurer) und Kenner wissen, was sie wert sind.

In den letzten Jahren aber hatte Google immer wieder dementiert, dass es eine Sandbox (noch) geben würde. Zuletzt im Jahr 2019 hatte ein hochrangiger Google-Mitarbeiter klar dementiert („There is no Sandbox“).

Nun hat sich aber in den offenliegenden Daten gezeigt, dass Google immer noch eine Variable hostAge nutzt. Es ist also davon auszugehen, dass das Domainalter einen größeren Einfluss auf das Ranking hat. Ziehen Sie daraus Ihre Schlüsse für die Suchmaschinenoptimierung.

Informationen aus Chrome werden doch genutzt

Google hat oft bestritten, dass Informationen aus Google Chrome genutzt werden, um Benutzerinteraktionen für das Ranking einer Seite zu messen. Die Informationen aus dem Leak legen nahe, dass diese Informationen sehr wohl genutzt werden.

 

Erkenntnisse für SEO aus den Google Leaks

Viele dieser Informationen sind nicht neu und wer sich mit Suchmaschinenoptimierung etwas länger beschäftigt, hat einige dieser Aspekte geahnt. Doch was können wir nun für Erkenntnisse für SEO aus den Informationen ziehen?

Website Registrierungsdaten sind wichtig

Google speichert (neben dem Domainalter s.o. die Ausführungen zur Sandbox) Registrierungsdaten zu Ihrer Website. Diese sind daher sicherlich nicht unerheblich für das Ranking.  Es ist wichtig, dass die Registrierungsdaten Ihrer Website korrekt und aktuell sind, da Google diese Informationen zur Bewertung Ihrer Website verwendet. Stellen Sie sicher, dass Ihre Kontaktinformationen, wie Name, Adresse und Telefonnummer, korrekt sind, da dies Vertrauen bei den Nutzern und Suchmaschinen schafft. Außerdem ist es wichtig, dass Ihre Domain für einen längeren Zeitraum registriert ist, da dies auf Stabilität und Glaubwürdigkeit Ihrer Website hinweist. Wenn Ihre Registrierungsdaten veraltet oder inkorrekt sind, kann dies sich negativ auf das Ranking Ihrer Website auswirken. Es ist daher ratsam, regelmäßig Registrierungsdaten zu überprüfen und zu aktualisieren.

Panda ist einfacher aufgebaut als gedacht

Das Panda Update hatte die SEO Welt verändert und es gab nach der Abwertung vieler Websites zahlreiche Spekulationen darüber, wie komplex SEO nun sei und welche Faktoren nun neu von google wie genutzt werden könnten. Die nun offen gelegten Daten und vor allem die verwendeten Funktionen zeigen deutlich, dass Suchmaschinenoptimierung auch nach Panda nicht so kompliziert sein muss, wie mach einer gedacht hat.

Mit einfachen Schritten wie der Verbesserung der Ladezeiten, der Optimierung von Meta-Tags und der Verwendung von natürlichen Keywords kann bereits viel erreicht werden. Es ist auch wichtig, eine klare Struktur auf der Website zu haben und auf eine gute Usability zu achten.

Alles in allem zeigt das Panda Update, dass Suchmaschinenoptimierung kein Hexenwerk ist und dass man mit einigen grundlegenden Maßnahmen schon viel bewirken kann. Es geht vor allem darum, den Nutzern eine gute Erfahrung auf der Website zu bieten und hochwertigen Content zu liefern. Mit etwas Geduld und Engagement kann man auch nach Panda noch gute Rankings in den Suchmaschinen erzielen.

Nennung von Autoren ist von besonderer Bedeutung

Auch spätestens mit dem Panda Update wurde immer stärker unter SEOs propagiert, wie wichtig das Vorgehen nach E-E-A-T und insbesondere auch die Nennung von expliziten Autoren sind. Das Google zu jedem Dokument den Autor in einer gesonderten Variable ablegt, ist ein klarer Hinweis darauf, dass diese Information ins Ranking eingeht.

Deshalb sollte bei der Erstellung von Inhalten darauf geachtet werden, den Autor deutlich zu kennzeichnen und gegebenenfalls zusätzliche Informationen wie Expertise und Erfahrung zu präsentieren. Dadurch wird nicht nur die Glaubwürdigkeit der Webseite gesteigert, sondern auch das Vertrauen der Leser und letztendlich auch das Ranking bei Google verbessert. Autoren sollten daher immer namentlich genannt und mit relevanten Informationen über ihre Qualifikationen versehen werden.

Herabstufungsmöglichkeiten im Detail beachten

Es gibt eine Reihe von Anlässen, die zu einer Herabstufung (demotion) bei Google führen. Welche das genau sind, darüber haben wir mit den Leaks bei Google nun mehr Informationen. U.a. gibt es folgende Aspekte, die zu einer Herabstufung im Ranking führen:

  1. Anchor Mismatch – Wenn der Link nicht mit der Zielseite übereinstimmt, auf die er verweist, wird der Link in den Berechnungen herabgestuft. Google sucht nach Relevanz auf beiden Seiten eines Links.
  2. SERP Demotion – Ein Signal, das eine Herabstufung basierend auf Faktoren anzeigt, die von den Suchergebnisseiten (SERP) beobachtet werden, was auf eine potenzielle Unzufriedenheit der Nutzer mit der Seite hinweist, vermutlich gemessen an den Klicks.
  3. Nav Demotion – Vermutlich eine Herabstufung von Seiten, die schlechte Navigationspraktiken oder Benutzererfahrungsprobleme aufweisen.
  4. Location Demotions – Es gibt Hinweise darauf, dass „globale“ und „superglobale“ Seiten herabgestuft werden können. Dies deutet darauf hin, dass Google versucht, Seiten mit einem Standort zu verknüpfen und entsprechend zu bewerten.

Es gibt noch einige weitere genannte Abwertungsgründe, aber die habe ich hier teilweise an anderer Stelle diskutiert oder sie würden hier zu weit führen.

Links sind nach wie vor wichtig

Linkqualität und Link Spam werden selbstverständlich gemessen und für das Ranking herangezogen. Die offengelegten Daten zeigen gut, wie google Linkqualität in Schichten unterteilt und wie Linkspam andererseits mit einer Fülle von Variablen wie z.B. phraseAnchorSpamDays gemessen wird. Das alles ist zwar im Grundsatz nicht neu, interessant ist aber, welche detaillierten Informationen einem Suchmaschinenoptimierer nun über die Vorgehensweise von Google zur Verfügung stehen.

Es ist also nach wie vor wichtig, hochwertige Backlinks von vertrauenswürdigen und themenrelevanten Websites zu erhalten, um das Ranking in den Suchmaschinenergebnissen zu verbessern. Gleichzeitig sollte man Links von Spam-Websites oder minderwertigen Seiten vermeiden, da diese das Ranking negativ beeinflussen können. Des Weiteren ist es wichtig, Linkbuilding-Strategien zu entwickeln, die auf natürliche Weise Links aufbauen, anstatt auf manipulative oder unethische Techniken zurückzugreifen. Google wird immer besser darin, Spam-Links zu erkennen und abzustrafen, daher ist es wichtig, saubere und qualitativ hochwertige Backlinks zu erwerben.

Interne Links scheinen inzwischen weniger direkte Bedeutung für das Ranking zu haben. Ich empfehle jedoch trotzdem, die Bedeutung interner Links für SEO nicht zu unterschätzen.

Google zieht die 20 letzten Versionen einer Website heran

Google speichert jede neue Version Ihrer Website. Für Evaluationen zum Ranking scheint Google jedoch nur die letzten 20 Versionen einer Website heranzuziehen. Wenn Sie also bei einer einzelnen Seite Qualitätsprobleme bei einer vorherigen Version hatten, werden diese nicht aus dem Gedächtnis von Google verschwinden. Oder doch! Dann nämlich, wenn Sie die Seite 20 mal updaten!

Font Sizes und Hervorhebungen sind immer noch wichtig

In den Anfangszeiten von SEO (ich begann vor etwa 17 Jahren, mich mit dem Thema zu beschäftigen) spielten Faktoren wie fettgedruckte oder unterstrichene Wörter eine große Rolle und jeder der sich damals mit Suchmaschinenoptimierung beschäftigt hatte, weiß, wie gut solche Maßnahmen funktioniert haben. Inzwischen dachten viele, dass Maßnahmen wie Schriftgrößen und Hervorhebungen keinen Einfluss mehr haben. Die nun vorliegenden zeigen jedoch, dass diese Informationen immer noch einen Einfluss haben.

Bestimmte Inhalte werden anders behandelt

Aus den Dokumenten geht deutlich hervor, dass bestimmter Content anders von Google beim Ranking behandelt wird. Dies betrifft zum Beispiel kurzen Content oder Videocontent. Videocontent liegt für Google dann vor, wenn mehr als 50% der Seiten Videos haben. Hier ist insbesondere zu beachten, dass Google den Content im Hinblick auf Originalität bewertet.

Kurzer Content: Google bevorzugt eigentlich längere und ausführlichere Inhalte gegenüber simplen und kurzen Texten. Das bedeutet, dass Seiten mit umfangreichem und detailliertem Inhalt tendenziell besser ranken als Seiten mit knappen und oberflächlichen Informationen. Die besondere Behandlung von kurzem Content sieht aber vor, dass kurzer Content aufgewertet werden kann, wenn Pointiertheit und Originalität vorhanden sind. So kann Google extra lange und Spam-Inhalte vermeiden helfen.
Videocontent: Seiten mit Videos werden von Google besonders positiv bewertet, wenn die Videos relevanten und hochwertigen Inhalt liefern. Außerdem ist die Originalität der Videos ein wichtiger Faktor für das Ranking. Seiten mit vielen hochwertigen und einzigartigen Videos haben gute Chancen, in den Suchergebnissen weit oben zu landen.

Jedes Datum und Aktualität auf Ihrer Website beachten

Spätestens mit dem Panda Update wurde es zunehmend deutlich, aber nun haben wir es schriftlich. Google interessiert sich sehr dafür, dass Daten (und Datumsangaben) aktuell sind. Insbesondere bei den Datumsangaben zu Webseiten ist dies wichtig. Es ist wichtig, regelmäßig zu überprüfen, ob alle Informationen auf Ihrer Website aktuell sind. Dies betrifft nicht nur Datumsangaben, sondern auch Inhalte, Links und Kontaktinformationen.

Durch regelmäßige Aktualisierungen zeigen Sie Google, dass Ihre Website relevant und zuverlässig ist. Außerdem verbessert dies die Benutzererfahrung und sorgt dafür, dass Besucher auf Ihrer Seite bleiben und wiederkommen.

Es ist ratsam, einen regelmäßigen Zeitplan für die Aktualisierung Ihrer Website festzulegen und sicherzustellen, dass alle Daten auf dem neuesten Stand sind. Dies kann dazu beitragen, dass Ihre Website in den Suchergebnissen besser positioniert wird und mehr Traffic generiert.

YMYL Content

Zum Verständnis: YMYL steht für „Your Money or Your Life“ und bezieht sich auf Inhalte, die potenziell erhebliche Auswirkungen auf das zukünftige Glück, die Gesundheit, die finanzielle Stabilität oder die Sicherheit einer Person haben können. Google hat diese Kategorie eingeführt, um sicherzustellen, dass besonders strenge Qualitätsstandards für solche Inhalte gelten. Hier sind einige der wichtigsten Beispiele für YMYL-Inhalte: Finanzielle Informationen, Medizinische Informationen, Rechtliche Informationen, Sicherheitsinformationen.

Aus den Dokumenten geht klar hervor, dass Google YMYL-Content ganz besonders streng bewertet und das solche Inhalte daher mit ganz besonderer Sorgfalt zu erstellen sind. Tut man dies nicht, kann dies schwerwiegende Auswirkungen auf Rankings haben.

Gold Standard Seiten existieren

Google speichert zu Websites eine Variable mit der Bezeichnung golden vom Typ Boolean. Die Frage, ob die sogenannten Goldstandard Seiten existieren ist damit wohl beantwortet.

Diese Variable zeigt an, ob eine Seite als Goldstandard eingestuft wurde, was bedeutet, dass sie besonders hochwertigen Inhalt oder Informationen bietet. Es ist wichtig, dass Websites diesen Standard erreichen, um von Suchmaschinen wie Google besser bewertet zu werden und höher in den Suchergebnissen zu erscheinen.

Daher ist es für Website-Betreiber wichtig, qualitativ hochwertige Inhalte bereitzustellen, um als Goldstandard-Seite eingestuft zu werden.

Kleine Websites

Gleiches gilt für eine kleine Webseiten. Es wird eine Variable mit der Bezeichnung SmallpersonalSite (interessanterweise vom Typ number) gespeichert. Google hat also eine einfache Möglichkeiten, solche Seiten abzuwerten (oder auch aufzuwerten).

Google betont zwar, dass die Größe einer Website allein nicht unbedingt ausschlaggebend für ihre Qualität ist und es vielmehr darauf ankommt, wie relevant, informativ und benutzerfreundlich die Inhalte sind.

Das Vorhandensein der Variable ist jedoch ein wichtiges Signal für Rankings und wird Auswirkungen auf dieselben haben.

Wie nah bleibt eine Webseite am Thema der Website

Es existieren eine Reihe von Vektoren, um zu messen, wie nahe eine Website am Thema der gesamten Website bleibt, so u.a. die Variablen SiteRadius oder SiteFocusScore. Auch das ist für SEO Experten nicht neu, interessant ist aber die Details, welche Variablen Google nutzt und wie diese beschrieben werden.

SiteRadius misst z.B., wie eng eine Webseite mit dem Hauptthema der gesamten Website verbunden ist. Eine hohe Ausprägung beim SiteRadius bedeutet, dass die Inhalte der Webseite eng mit dem Hauptthema der Website zusammenhängen. Ein niedriger Wert beim SiteRadius bedeutet, dass die Inhalte der Webseite weniger direkt mit dem Hauptthema der Website verbunden sind. SiteFocusScore misst dagegen, wie stark ein bestimmter Inhalt auf einer Webseite das Hauptthema der gesamten Website widerspiegelt. Ein hoher SiteFocusScore bedeutet, dass der Inhalt stark mit dem Hauptthema der Website übereinstimmt. Ein niedriger SiteFocusScore bedeutet, dass der Inhalt weniger stark mit dem Hauptthema der Website übereinstimmt.
Generell ist es somit wichtig, dass eine Webseite eng mit dem Hauptthema der gesamten Website verbunden ist und dass der Inhalt der Webseite das Hauptthema der Website widerspiegelt.

Dadurch signalisiert man Suchmaschinen wie Google, dass die Webseite relevante und qualitativ hochwertige Informationen zu einem bestimmten Thema bietet. Dies kann sich positiv auf das Ranking der Webseite in den Suchergebnissen auswirken.

 

Fazit

Die genannten Dokumente sind erst zu Beginn des Monats offen aufgetaucht und es gibt natürlich noch eine Menge zu analysieren. Ohne Zweifel aber bieten diese Dokumente jedoch sehr wichtige Informationen darüber, wie Google im Ranking vorgeht. Die Kenntnis (und Analyse) dieser Informationen ist daher von ganz besonderer Bedeutung, wenn man gute Suchmaschinenoptimierung machen will. Es ist wichtig, dass Unternehmen und SEO-Experten diese neuen Erkenntnisse nutzen, um ihre Strategien anzupassen und sicherzustellen, dass sie auf dem neuesten Stand der SEO-Praktiken bleiben. Es bleibt abzuwarten, ob Google aufgrund dieser Enthüllungen Änderungen an seinem Algorithmus vornehmen wird (was zu bezweifeln ist). In jedem Fall ist es sicherlich keine schlechte Idee, die Informationen zu nutzen, um das Ranking in den Suchergebnissen zu verbessern.

Jens

Jens

Dr. Jens Bölscher ist studierter Betriebswirt mit Schwerpunkt Wirtschaftsinformatik. Er promovierte im Jahr 2000 zum Thema Electronic Commerce in der Versicherungswirtschaft und hat zahlreiche Bücher und Fachbeiträge veröffentlicht. Er war langjährig in verschiedenen Positionen tätig, zuletzt 14 Jahre als Geschäftsführer. Seine besonderen Interessen sind Innovationen im IT Bereich.