Die Suchmaschinenmarketing-Community versucht, das durchgesickerte Yandex-Repository zu verstehen, das Dateien enthält, die auflisten, was wie Suchmaschinen-Ranking-Faktoren aussieht. Ryan Jones (@RyanJones) glaubt, dass dieses Leck eine große Sache ist, und hat bereits [einige der Yandex-Modelle für maschinelles Lernen hochgeladen](https ://twitter.com/RyanJones/status/1620266355323961344) zum Testen auf seinen eigenen Rechner. Obwohl einige nach umsetzbaren SEO-Hinweisen suchen, ist man sich allgemein einig, dass dies eher hilfreich ist, um ein allgemeines Verständnis der Funktionsweise von Suchmaschinen zu erlangen (@RyanJones, 29. Januar 2023). Wie Ryan sagte: „[Wenn] Sie Hacks oder Abkürzungen wollen, sind diese nicht hier. Aber wenn Sie mehr darüber verstehen möchten, wie eine Suchmaschine funktioniert, gibt es Gold.“
Ryan glaubt, dass wir viel aus der Untersuchung der durchgesickerten Liste der Yandex-Ranking-Faktoren lernen können, aber die Untersuchung dieser Liste allein reicht nicht aus. Er erklärt, dass Yandex zwar nicht Google ist, aber viele von Google erfundene Technologien wie PageRank und BERT verwendet. Er erklärt auch, dass die Faktoren und Gewichtungen, die auf sie angewendet werden, wahrscheinlich je nach Suchmaschine variieren werden, aber die Informatikmethoden, die zur Analyse der Textrelevanz verwendet werden, werden sehr ähnlich sein. Darüber hinaus stellt er fest, dass im Code mehr Ranking-Faktoren berechnet werden als in den durchgesickerten Listen aufgeführt sind, wobei einige negative Gewichtungen Faktoren zugewiesen werden, von denen SEOs annehmen könnten, dass sie positiv sind, oder umgekehrt. Link: https://www.seobility.net/en/blog/yandex-ranking-factors/
Es wird allgemein angenommen, dass Yandex 1.923 Ranking-Faktoren für seine Suchmaschine verwendet. Allerdings hat Christoph Cemper (LinkedIn-Profil), Gründer von Link Research Tools, von Freunden gehört, dass es noch viel mehr Rankings gibt Faktoren als zunächst angenommen. Laut diesen Quellen verwendet Yandex 275 Personalisierungsfaktoren, 220 „Web-Frische“-Faktoren, 3186 Bildsuchfaktoren und 2.314 Videosuchfaktoren. Überraschenderweise verwendet die Suchmaschine auch Hunderte von Link-bezogenen Ranking-Faktoren. Dies deutet darauf hin, dass es weit mehr als die mehr als 200 Ranking-Signale gibt, die Google ursprünglich in seinen SERPs verwenden wollte.
Jüngste Datenlecks des Suchmaschinenalgorithmus von Google haben die Frage aufgeworfen, wer den gesamten Algorithmus wirklich kennt. Es ist erstaunlich, wie organisiert die Ranking-Faktoren waren, als sie durchgesickert sind, und viele fragen sich jetzt, ob es eine umfassende Tabelle bei Google gibt, die alle Ranking-Faktoren enthält.
Christoph Cemper, SEO-Experte, kommentierte dieses Thema gegenüber dem Search Engine Journal mit den Worten, es sei ihm „immer schon absurd erschienen“, dass nicht einmal Google-Mitarbeiter den gesamten Algorithmus kennen würden. Er fährt fort, dass ein solch komplexes System dokumentiert werden muss und sogar Code durchgesickert sein könnte. Vielleicht trägt dieses Datenleck also dazu bei, den Algorithmus von Google in seiner derzeitigen Form nicht mehr zu betrachten.
Kürzlich durchgesickerte Yandex-Dateien haben die Möglichkeit geboten, einen Teil der Rangfolge der Suchergebnisse einer Suchmaschine (Yandex) zu sehen, obwohl die Daten nicht zeigen, wie Google funktioniert. Zu den Erkenntnissen, die enthüllt wurden, gehören das neurale Netzwerk von Yandex namens MatrixNet, das 2009 über einen [Archive.org-Link zur Ankündigung](https://web.archive.org/web/20160311035825/https://yandex .com/company/technologies/matrixnet/){rel="nofollow"}. Es ist wichtig zu beachten, dass MatrixNet im Gegensatz zu einigen Behauptungen nicht mit Googles RankBrain gleichzusetzen ist – Googles begrenzter Algorithmus, der sich darauf konzentriert, die 15 % der Suchanfragen zu verstehen, die es noch nie zuvor gesehen hat. Im Oktober 2015 veröffentlichte Bloomberg einen Artikel ([Archive.org Snapshot](https://web.archive.org/web/20151101155408/https://www.bloomberg.com/news/articles/2015-10-26/ google-wandelt-seine-lukrative-websuche-auf-ai-maschinen um){rel="nofollow"}), die die Einführung von RankBrain in Googles Algorithmus in jenem Jahr offenbarte, sechs Jahre nach der Einführung von Yandex MatrixNet. Laut dem Artikel hat RankBrain einen begrenzten Zweck und ist darauf ausgelegt, Wörter und Phrasen zu erraten, die in der Bedeutung ähnlichen Suchanfragen entsprechen, mit denen es nicht vertraut ist, um noch nie dagewesene Suchanfragen effektiv zu bearbeiten. Im Gegensatz dazu ist MatrixNet ein maschineller Lernalgorithmus, der eine Suchanfrage klassifiziert und entsprechende Ranking-Algorithmen entsprechend anwendet. In einer englischsprachigen Ankündigung aus dem Jahr 2016 (hier) wurde ausführlicher beschrieben, wie dieser Algorithmus in der modernen Websuche auf der Google-Plattform funktioniert.
MatrixNet ist ein leistungsstarker Ranking-Algorithmus, der es Benutzern ermöglicht, komplexe Formeln zu generieren und sie für bestimmte Suchanfragen anzupassen. Dadurch wird sichergestellt, dass die Qualität des Rankings für einen Abfragetyp die Gesamtleistung der Suche nach anderen Typen nicht beeinträchtigt. Im Gegensatz zu anderen Ranking-Algorithmen ermöglicht MatrixNet den Benutzern, Anpassungen und Optimierungen an bestimmten Parametern vorzunehmen, ohne das gesamte System komplett überholen zu müssen. Darüber hinaus kann MatrixNet automatisch Empfindlichkeitsstufen für verschiedene Faktoren in der Ranking-Formel auswählen. Mit diesen erweiterten Funktionen hat sich MatrixNet von RankBrain und anderen vergleichbaren Algorithmen abgesetzt. https://www.deepcrawl.com/blog/rankbrain-matrixnet-same/
MatrixNet ist ein wichtiger Faktor, der bei der Untersuchung der Dokumente zu den Yandex-Rankingfaktoren zu berücksichtigen ist. Es ist wichtig, den Yandex-Algorithmus zu verstehen, um diese Dokumente zu verstehen. Dazu können Leser hier einen Artikel lesen, in dem die Algorithmen für künstliche Intelligenz und maschinelles Lernen von Yandex beschrieben werden.{rel=" nofollow"}. Dominic Woodman, ein Twitter-Nutzer mit dem Namen @dom_woodman, hat einige interessante Beobachtungen über das Leck gemacht und festgestellt, dass einige dieser Faktoren übereinstimmen mit SEO-Praktiken wie variierendem Ankertext (wie von ihm getwittert hier).
Alex Buraks (@alex_buraks) hat kürzlich einen Twitter-Thread über die Bedeutung der internen Linkoptimierung für SEO-Zwecke veröffentlicht. John Mueller von Google ermutigt Publisher seit langem, dafür zu sorgen, dass wichtige Seiten prominent verlinkt sind, und rät davon ab, sie tief in der Website-Architektur zu vergraben. Er erklärte im Jahr 2020: „[Was passieren wird], wir werden sehen, dass die Homepage wirklich wichtig ist, Dinge, die von der Homepage verlinkt sind, sind im Allgemeinen auch ziemlich wichtig … wenn sie sich von der Homepage wegbewegen halte das wahrscheinlich für weniger kritisch" (John Mueller shared). Dies deutet darauf hin, dass wichtige Seiten als wichtiger angesehen werden, wenn sie von dort aus verlinkt werden, wenn sie in der Nähe der Hauptseiten bleiben, über die Website-Besucher gelangen.
John Mueller von Google hat kürzlich das Thema Crawling-Tiefe als Rankingfaktor angesprochen. Er stellte klar, dass es sich nicht um einen Ranking-Faktor handelt, sondern um ein Signal an Google, welche Seiten wichtig sind. Alex Buraks zitierte dann eine Yandex-Regel, die die Crawling-Tiefe von der Startseite als Ranking-Regel verwendet, was darauf hindeutet, dass es wichtig ist, wichtige Seiten in der Nähe der Hauptseite zu halten (1 Klick entfernt) und weniger wichtige Seiten 3 Klicks oder weniger entfernt sein sollten . Dies ist im Hinblick auf die Wichtigkeit sinnvoll, wenn man sich weiter von der Homepage entfernt. Es gibt auch Google-Forschungsberichte wie das Reasonable Surfer Model und das Random Surfer Model, die die Wahrscheinlichkeit berechnen, dass zufällige Surfer auf bestimmten Webseiten landen, indem sie Links folgen. Link zum Tweet: [Link zum vernünftigen Surfer-Modell:](https:/ /www.seobythesea.com/2016/04/googles-reasonable-surfer-patent-updated/)
Alex Buraks, ein SEO-Experte, hat kürzlich getwittert, dass Backlinks von Hauptseiten wichtiger sind als die von internen Seiten. Sein Tweet verlinkt auf ein Bild, das ein Diagramm zeigt, das diese Aussage darstellt. Diese Faustregel ist wichtig für SEO, da sie hilft sicherzustellen, dass wichtige Inhalte in der Nähe der Startseite oder Innenseiten bleiben, die eingehende Links anziehen.
Kürzlich wurde ein Leck in der Art und Weise entdeckt, wie Suchmaschinen Webseiten lesen. Dieser Leak befindet sich noch in einem frühen Stadium, hat aber das Potenzial, zukünftigen Nutzern der Suchmaschinenoptimierung ein besseres Verständnis dafür zu vermitteln, wie diese Dienste funktionieren. Durch weitere Untersuchung und Analyse dieses Leaks können die Leute einen besseren Einblick in die Funktionsweise von Suchmaschinen und die verschiedenen Komponenten gewinnen, die sie antreiben. Beitragsbild: Shutterstock/san4ezz. Sehen Sie sich die News- und SEO-Kategorie des Search Engine Journal an, um weitere Informationen zu diesem Thema zu erhalten.