paint-brush
Was steckt hinter dem jüngsten massiven API-Leck bei der Google-Suche?von@viceasytiger
2,479 Lesungen
2,479 Lesungen

Was steckt hinter dem jüngsten massiven API-Leck bei der Google-Suche?

von Vik Bogdanov9m2024/06/11
Read on Terminal Reader

Zu lang; Lesen

Google-Ranking-Geheimnisse durchgesickert! Es stellt sich heraus, dass Klicks, Domain-Autorität und sogar Erwähnungen wichtiger sind, als sie zugeben. Unternehmen müssen sich auf qualitativ hochwertige Inhalte, Benutzereinbindung und Backlinks aus vertrauenswürdigen Quellen konzentrieren. Mobilfreundlichkeit ist jetzt unerlässlich. Nutzen Sie die Zukunft der SEO: informative UND fesselnde Inhalte.
featured image - Was steckt hinter dem jüngsten massiven API-Leck bei der Google-Suche?
Vik Bogdanov HackerNoon profile picture
0-item

Ein Leak vom 5. Mai 2024 war eine echte Sensation für die SEO-Welt und enthüllte die streng gehüteten Geheimnisse der Google-Suchrankings. Über 14.000 Rankingfaktoren wurden versehentlich aus internen Dokumenten von Google preisgegeben und geben Aufschluss darüber, wie Websites tatsächlich in der Suchrangliste aufsteigen. Dieses von SEO-Experten bestätigte Leak bestätigte den lang gehegten Verdacht hinsichtlich der Macht der Domain-Autorität und überraschte alle mit der Bedeutung, die Google Klicks und sogar Erwähnungen Ihrer Marke im Internet beimisst. Doch über die strategischen Veränderungen hinaus wirft das Leak auch beunruhigende Fragen zur Privatsphäre der Nutzer und zu den riesigen Datenmengen auf, die Google über Chrome sammelt. Der Artikel befasst sich mit den Folgen dieses Leaks und untersucht, wie Unternehmen ihre SEO-Strategien umgestalten können und welche ethischen Auswirkungen Googles Datenpraktiken haben.


Am 5. Mai 2024 wurde zum ersten Mal die umfassendste Sammlung von Rankingfaktoren der Google Search API in der Geschichte der Suchmaschinen geleakt – ein wahrhaft historischer Moment, den wir vielleicht nicht erlebt hätten, wenn Erfan Azimi, Gründer und CEO einer SEO-Agentur, nicht die Dokumente von Google entdeckt hätte, die am 27. März 2024 irrtümlicherweise auf Github veröffentlicht und einfach vergessen wurden, sie zu löschen. Die Ironie ist, dass sie unter der Apache 2.0-Lizenz veröffentlicht wurden, sodass jeder, der auf die Dokumente zugreift, sie verwenden, bearbeiten und verteilen kann. Daher lag die Weitergabe der Dokumente an zwei der renommiertesten SEO-Experten, Rand Fishkin und Mike King – der nächste Schritt, den Erfan Azimi nach der Entdeckung des Lecks unternahm – im rechtlichen Rahmen der Lizenz. Beide veröffentlichten die Dokumente und die dazugehörige Analyse am 27. Mai.


Während Google Fragen zur Echtheit der Dokumente zunächst auswich, gab das Unternehmen schließlich zu, dass die Dokumente echt seien.


Die über 2.500 durchgesickerten Dokumente zeigen 14.014 Attribute (API-Funktionen) oder „Ranking-Faktoren“ aus der Content Warehouse API der Google-Suche. Mit anderen Worten, sie zeigen uns , welche Daten Google tatsächlich sammelt, und nicht, wie Google diese Daten interpretiert.




Die durchgesickerten Informationen sind für jedes Unternehmen von großem Wert, das den organischen Verkehr und die Verkaufsumsätze durch Google-Suchmaschinenmarketing steigern möchte. Sie bieten einzigartige Einblicke in die Faktoren, die das Suchranking von Google beeinflussen, und ermöglichen es Unternehmen, ihre SEO-Strategien entsprechend anzupassen.


Andererseits wirft das Leck auch ein Licht auf die mangelnde Transparenz bei Google, was die Erfassung und Verwendung von Nutzerdaten in Suchalgorithmen betrifft. Zudem gibt es ethische und datenschutzbezogene Bedenken hinsichtlich des Ausmaßes und der Auswirkungen der Datenerfassung durch den Suchgiganten.

Die Auswirkungen des Google Search API Docs Leaks auf SEO verstehen: Wichtige Erkenntnisse und Expertenmeinungen

Navboost ist eines der wichtigsten Ranking-Signale von Google

Navboost ist ein Ranking-Algorithmus von Google, der während des Kartellverfahrens des Unternehmens vor dem US-Justizministerium enthüllt wurde. Er verbessert Suchergebnisse für Navigationsanfragen, indem er verschiedene Signale wie Benutzerklicks nutzt, um die relevantesten Ergebnisse zu identifizieren. Navboost speichert frühere Klicks für Anfragen, die bis zu 13 Monate alt sind, und differenziert die Ergebnisse basierend auf Lokalisierung und Gerätetyp (mobil oder Desktop). Dieses Ranking-Signal ist für SEO-Experten von entscheidender Bedeutung, da es die Sichtbarkeit einer Website in Suchergebnissen erheblich beeinflussen kann.

Klicks sind ein primäres Ranking-Signal.

Google bestreitet seit Jahren, dass Klicks ein primärer Rankingfaktor sind. Google-Vertreter, darunter Gary Illyes, haben immer wieder betont , dass die Klickrate (Click-Through-Rate, CTR) ein „sehr verrauschtes Signal“ sei und dass die direkte Verwendung von Klicks in Rankings aufgrund des Manipulationspotenzials problematisch sei. Sie haben erklärt, dass Klickdaten zwar zu Evaluierungs- und Experimentierzwecken verwendet werden, um Änderungen im Suchalgorithmus zu bewerten, sie jedoch kein primärer Faktor bei der Bestimmung von Suchrankings sind.


Die durchgesickerten Dokumente beweisen das Gegenteil. Es ist wichtig, wie viele Klicks eine Website generieren kann. Je mehr On-Page-Optimierung und kontinuierliches Content-Marketing Sie betreiben, desto mehr Verkehr werden Sie anziehen, was zu mehr Klicks, höheren Rankings und höheren Konversionsraten führt.

Domain Authority ist wichtig, auch wenn Google-Vertreter dies immer bestritten haben

Google-Vertreter haben uns ständig über die Funktionsweise ihrer Systeme in die Irre geführt und versucht, das SEO-Verhalten zu beeinflussen. Ihre öffentlichen Aussagen sind zwar keine absichtlichen Lügen, aber sie sind darauf ausgelegt, potenzielle Spammer – und viele seriöse SEO-Experten – zu täuschen, indem sie verschleiern, wie Suchergebnisse beeinflusst werden können. Gary Ilyes, Analyst im Google Search Team, hat diesen Punkt mehrfach wiederholt. Und er ist nicht allein; John Mueller, Senior Webmaster Trends Analyst bei Google und Leiter des Search Relations-Teams, hat einmal erklärt, dass sie keinen Website-Authority-Score haben.


Wie das Datenleck jedoch nahelegt, verfügt Google über ein allgemeines Maß für die Domänenautorität. Als Teil der komprimierten Qualitätssignale, die pro Dokument gespeichert werden, berechnet Google eine Funktion namens „siteAuthority“. Laut Mike King , Gründer und CEO von iPullRank, ist die genaue Berechnung und Anwendung dieser Maßnahme in nachgelagerten Bewertungsfunktionen zwar noch unklar, aber wir wissen jetzt definitiv, dass die Domänenautorität von Google existiert und im Q*-Rankingsystem verwendet wird.

Google setzt einige Websites auf die Whitelist und bevorzugt sie in den Suchergebnissen

Das jüngste Leck in der Google Search API brachte die Existenz von Whitelists ans Licht, die dazu dienen, die Qualität und Verlässlichkeit von Informationen sicherzustellen. Dies gilt insbesondere für sensible Themen wie Gesundheit und Nachrichten, bei denen Fehlinformationen drastische Auswirkungen auf das öffentliche Wohl haben könnten.


In kritischen Zeiten wie der COVID-19-Pandemie nutzte Google Whitelists, um Fehlinformationen zu unterdrücken und glaubwürdigen Quellen den Vorzug zu geben. Dies trug dazu bei, die Verbreitung falscher Informationen über das Virus, Behandlungen und Impfstoffe einzudämmen und sicherzustellen, dass die Benutzer genaue und vertrauenswürdige Informationen erhielten.


Websites, die in diese Whitelists aufgenommen werden, haben Autorität und Glaubwürdigkeit bewiesen und liefern seit jeher zuverlässige Informationen. Die Aufnahmekriterien sind streng und legen den Schwerpunkt auf Genauigkeit und Zuverlässigkeit.


Allerdings wirft die Verwendung weißer Listen auch Bedenken hinsichtlich Transparenz und Fairness auf, da Kritiker das Potenzial für Voreingenommenheit und die Auswahlkriterien in Frage stellen .


Für SEO unterstreicht dies, wie wichtig es ist, Glaubwürdigkeit und Vertrauenswürdigkeit aufzubauen. Websites, die in Whitelists aufgenommen werden möchten, sollten auf genaue Berichterstattung achten und hohe redaktionelle Standards einhalten, einschließlich klarer Korrekturrichtlinien und Kontaktinformationen.


Obwohl Google davor warnt , auf Grundlage der durchgesickerten Informationen Annahmen zu treffen, unterstreichen die Einblicke in die Whitelists deren Rolle bei der Kuratierung von Informationen und der Aufrechterhaltung der Qualität der Suchergebnisse. Dies unterstreicht die Bedeutung von Glaubwürdigkeit, Genauigkeit und Vertrauen in der digitalen Informationslandschaft.

Die Site-Kategorien sind in den Google-Ergebnissen eingeschränkt

Die durchgesickerten Dokumente legen nahe, dass Google die Präsenz bestimmter Website-Kategorien wie Unternehmensblogs, kommerzieller Websites und persönlicher Websites in den Suchergebnissen für bestimmte Suchanfragen begrenzen könnte. Dieser Ansatz zielt darauf ab, die den Benutzern präsentierten Quellentypen zu diversifizieren, ein breiteres Spektrum an Perspektiven sicherzustellen und die Dominanz einzelner Websitetypen zu verringern.


Google könnte beispielsweise entscheiden, dass bei einer bestimmten reisebezogenen Suchanfrage nur eine bestimmte Anzahl von Reiseblogs oder kommerziellen Reise-Websites in den Ergebnissen angezeigt werden soll. Diese Einschränkung trägt dazu bei, die Suchergebnisse auszugleichen, indem den Nutzern ein Mix aus Informationen aus unterschiedlichen Quellen zur Verfügung gestellt wird. Sie verhindert, dass die Suchergebnisse mit einer Kategorie wie persönlichen Blogs oder kommerziellen Websites übersättigt werden, die möglicherweise nicht immer die zuverlässigsten oder vielfältigsten Informationen bieten.


Diese Strategie unterstreicht Googles Engagement, ein vielfältiges und ausgewogenes Sucherlebnis zu bieten. Durch die Kontrolle der Mischung von Websitetypen in den Suchergebnissen möchte Google die Qualität und Relevanz der den Nutzern präsentierten Informationen verbessern und sicherstellen, dass sie einen umfassenden Überblick über die verfügbaren Inhalte erhalten.

Erwähnungen von Entitäten können das Suchranking ähnlich wie Links beeinflussen

Das Google Search API-Leck lieferte interessante Einblicke, wie Erwähnungen von Entitäten wie Namen oder Unternehmen Suchrankings ähnlich wie herkömmliche Backlinks beeinflussen können. Erwähnungen beziehen sich auf Fälle, in denen ein Name oder eine Phrase im Web erwähnt wird, ohne dass notwendigerweise ein Link vorhanden ist. Diese Erwähnungen können ein wichtiges Signal für den Google-Algorithmus sein und die Relevanz und Autorität einer bestimmten Entität anzeigen.


Die durchgesickerten Dokumente legen nahe, dass Google diese Erwähnungen verfolgt und sie möglicherweise verwendet, um die Bekanntheit und Glaubwürdigkeit von Unternehmen zu bewerten. Häufige Erwähnungen einer Marke oder einer Person auf verschiedenen seriösen Websites könnten sich beispielsweise positiv auf deren Suchranking auswirken, ähnlich wie Backlinks von maßgeblichen Websites die SEO verbessern. Dies deutet darauf hin, dass der Google-Algorithmus nicht nur direkte Links berücksichtigt, sondern auch die allgemeine Präsenz und Diskussion eines Unternehmens im gesamten Web.

Clickstream-Daten von Chrome können möglicherweise organische Rankings durch bezahlte Klicks beeinflussen, werfen aber Fragen zum Datenschutz auf

Chrome-Clickstream-Daten beziehen sich auf detaillierte Aufzeichnungen von Benutzerinteraktionen und -verhalten im Google Chrome-Browser, einschließlich der angeklickten Links, der Verweildauer der Benutzer auf einer Seite und ihrer Navigationspfade. Diese Daten liefern Google eine reichhaltige Informationsquelle über Benutzerpräferenzen und -verhalten, die genutzt werden können, um Suchalgorithmen zu verfeinern und die Relevanz der Suchergebnisse zu verbessern.




Zum Beispiel,


Wenn viele Benutzer auf einen bestimmten Link klicken und viel Zeit auf dieser Seite verbringen, signalisiert dies Google, dass die Seite wahrscheinlich von hoher Qualität und Relevanz ist, was zu einem besseren Ranking in den Suchergebnissen führt.


Diese Entdeckung hat tiefgreifende Auswirkungen auf SEO-Strategien. Sie legt nahe, dass über Chrome erfasste Kennzahlen zur Nutzerinteraktion das Suchranking erheblich beeinflussen können und über traditionelle SEO-Praktiken wie Keyword-Optimierung und Backlink-Aufbau hinausgehen . SEO-Experten sollten sich darauf konzentrieren, Inhalte zu erstellen, die Klicks anziehen und das Interesse der Nutzer aufrechterhalten, und dabei schnelle Ladezeiten, einfache Navigation und wertvolle, ansprechende Inhalte sicherstellen. Durch die Verbesserung des allgemeinen Benutzererlebnisses können Websites Chrome-Clickstream-Daten nutzen, um ihre Sichtbarkeit und Leistung in den Suchergebnissen von Google zu verbessern.


Diese Entdeckung wirft jedoch auch Fragen über das Ausmaß der Erfassung von Benutzerdaten und deren Verwendung über die bloße Verbesserung der Suchergebnisse hinaus auf.


Darüber hinaus könnten böswillige Akteure durch das Verständnis von Rankingfaktoren wie Clickstream-Daten Suchergebnisse manipulieren, indem sie die Klickzahlen auf bestimmten Websites künstlich erhöhen. Dies könnte dazu führen, dass Benutzer irreführenden oder schädlichen Inhalten ausgesetzt werden und die Privatsphäre enorm gefährdet ist.

Qualitativ hochwertige Inhalte, die dem richtigen Publikum präsentiert werden, gewinnen immer

Qualitativ hochwertige Inhalte und eine gut etablierte Backlink-Strategie können den Datenverkehr steigern und das Web-Ranking verbessern. Mike King sagt: „Nach der Überprüfung dieser Funktionen, die Google seine Vorteile verschaffen, ist es ziemlich offensichtlich, dass die beste Wirkung auf diese Maßnahmen erzielt wird, wenn man bessere Inhalte erstellt und sie einem Publikum präsentiert, das sie anspricht.“

Deutliche Verkehrsrückgänge können auf Probleme mit den Algorithmen von Google hinweisen

Während Google in seiner offiziellen Stellungnahme häufig betont, dass alleiniger Traffic-Verlust nicht zu Strafen führt, legen die durchgesickerten Dokumente und verschiedene Analysen von SEO-Experten das Gegenteil nahe.


Deutliche Verkehrsrückgänge können tatsächlich auf Probleme mit den Algorithmen von Google hinweisen. So wurden in den durchgesickerten Dokumenten beispielsweise Konzepte wie „Content Decay“ und der „letzte gute Klick“ hervorgehoben, die implizieren, dass ein stetiger Rückgang des Verkehrs und der Nutzerinteraktion sich negativ auf das Ranking auswirken kann. Dies deutet darauf hin, dass der Google-Algorithmus einen deutlichen Rückgang des Verkehrs einer Website – beispielsweise von 10.000 auf 2.000 neue Nutzer pro Monat – als Rückgang der Relevanz oder Qualität der Inhalte interpretieren könnte, was möglicherweise zu einer Strafe oder einer verringerten Sichtbarkeit in den Suchergebnissen führen könnte.

Markensuche hat einen erheblichen Wert

Die durchgesickerten Dokumente betonen auch die Bedeutung der Markensuche und zeigen, dass die gezielte Suche nach einer Marke das Ranking dieser Marke in den Google-Suchergebnissen erheblich verbessern kann. Dies unterstreicht den Wert des Aufbaus einer starken Markenpräsenz und -bekanntheit. SEO-Strategien sollten daher Bemühungen umfassen, die Markensichtbarkeit zu verbessern und direkte Markensuchen zu fördern. Dies kann durch konsistentes und qualitativ hochwertiges Content-Marketing und die Einbindung von Zielgruppen auf verschiedenen Plattformen erreicht werden.

Mobile Leistung sollte oberste Priorität haben

Aus diesen Dokumenten und einer kürzlichen Ankündigung , dass Google Websites deindexiert, die auf Mobilgeräten nicht funktionieren, müssen wir die mobile Leistung ernst nehmen. Wenn Ihre Website auf Mobilgeräten schlecht funktioniert, wird sie am 5. Juli 2024 deindexiert.

Auswirkungen des Google Search API-Lecks auf die digitale Marketingstrategie

Wenn wir über diese Erkenntnisse nachdenken, werden mehrere strategische Anpassungen deutlich. Erstens gibt es das Konzept, die Null-Klick-Mentalität auszugleichen. Bisher enthielten unsere E-Mails alle notwendigen Informationen, um zusätzliche Klicks zu vermeiden. Angesichts der Tatsache, dass Chrome-Clickstream-Daten das Ranking beeinflussen können, könnten wir unsere E-Mail-Strategie jedoch anpassen, um Klicks auf unsere Blogbeiträge zu fördern. Diese Änderung stellt sicher, dass Benutzerinteraktionen mit unserer Website erfasst werden, was möglicherweise unsere Suchsichtbarkeit verbessert.


Ein weiterer strategischer Wendepunkt besteht darin, sich auf Links mit hohem Datenverkehr zu konzentrieren. Der Schwerpunkt liegt jetzt darauf, Backlinks von verkehrsreichen, seriösen Quellen statt von zahlreichen kleineren Quellen zu sichern. Quellen mit hohem Datenverkehr werden von den Google-Algorithmen eher als Indikatoren für Glaubwürdigkeit und Relevanz erkannt und beeinflussen so unsere Rankings positiv.


Es ist auch wichtig, Nachfrage nach visuellen Inhalten zu schaffen. Die Erstellung ansprechender Videos und Bilder kann Suchergebnisse positiv beeinflussen. Visuelle Inhalte führen tendenziell zu mehr Benutzerinteraktion und längeren Interaktionszeiten – wertvolle Kennzahlen, die durch Chrome-Clickstream-Daten erfasst werden.


Auch eine Neubewertung der Outlinking-Praktiken ist notwendig geworden. Früher galt Outlinking als positives SEO-Signal, heute ist man jedoch der Auffassung, dass es mit Spam-Scores zusammenhängt. Diese Erkenntnis erfordert von uns eine Neubewertung des Werts von Outlinking und die Anpassung unserer Praktiken, um mögliche Strafen zu vermeiden.


Schließlich entwickelt sich der Fokus auf Erwähnungen statt auf Links zu einer neuen Strategie. Die Priorisierung von Erwähnungen Ihrer Marke und wichtiger Entitäten in hochwertigen Inhalten im gesamten Web kann ebenso wirkungsvoll sein wie der traditionelle Linkaufbau. Dieser Ansatz nutzt die Erkennung von Entitätserwähnungen durch Google in seinen Ranking-Algorithmen.


Zusammenfassend unterstreichen die Erkenntnisse aus dem Google Search API-Leak die Bedeutung konsistenter und qualitativ hochwertiger Inhaltserstellung und -verteilung, der Benutzereinbindung und der differenzierten Rolle verschiedener SEO-Praktiken wie Linkaufbau und Markensuche. Wenn Sie Ihre Strategien an diese Enthüllungen anpassen, können Sie Ihr Suchranking und Ihre allgemeine digitale Präsenz verbessern. Es könnte jedoch riskant sein, sich zu sehr auf dieses Leak zu verlassen, ohne die sich weiterentwickelnde Natur des Google-Algorithmus zu berücksichtigen.


Und was ist Ihre Meinung dazu?


Vergessen Sie nicht, sich meine Berichterstattung über die KI-Übersichten von Google und deren Auswirkungen auf das digitale Marketing anzusehen.