Co-Occurence oder warum Backlinks und Keywords an Bedeutung verlieren
Die Frage nach dem Inhalt des Textes und damit verbunden Fragen nach Duplicate Content und Abwertungen wegen zu hoher oder zu niedriger Keyword-Dichte gehören derzeit zu den häufigsten Fragen unserer Kunden, aber auch in Foren und bei Facebook ist das Thema ziemlich präsent.
Interessanterweise hängt das Thema eng mit der Tatsache zusammen, dass Google immer weniger große Updates (also Core-Updates) vornimmt und das Updaten der Ergebnislisten immer mehr zum permanenten Prozess wird.
Gleich vorweg genommen sei gesagt, dass beides die gleiche Ursache hat: Googles einbinden von künstlicher Intelligenz (KI) in die Bewertung von Websites.
T3N hatte vor kurzem einen großen Artikel zum Thema, ob KI bei Google Backlinks bald überflüssig macht. Im Artikel enthalten waren einige sehr interessante Informationen über die Nutzung von KI. Besonders das Thema Co-Occurrence sollte man sich, wie im Artikel gut herausgestellt wird, einmal genauer anschauen um zu wissen, wie man gute Texte für die eigene Website oder auch den Onlineshop schreibt.
Was bedeutet Co-Occurrence für den Content meiner Seite?
Bis vor einiger Zeit hat Google den Inhalt einer Seite an bestimmten Schlagworten (Keywords) fest gemacht. Tauchten einige Keywords besonders oft auf, die sich mit der Suchanfrage gedeckt haben, landete die Seite weiter vorne. Das haben einige SEOs ausgenutzt und solche Sachen wie „Wortwolken“ oder ähnliches eingebaut. Google steuerte da dagegen, indem es berechnen lies wie oft ein Wort im Verhältnis zum Rest des Textes vorkommt und bei einer zu großen Häufung die Seite wegen Spam in den Suchergebnissen massiv nach hinten warf.
Solche Updates in der Berechnung der Suchergebnisse wurden früher durch ein Entwicklerteam gesteuert und dann in sogenannten „Core-Updates“ (also Kern Updates der Google Suche) ausgerollt. Dadurch hat Google seine Suchergebnisse immer wieder angepasst.
Vor einigen Jahren gab Google bekannt, dass es immer weniger dieser Core-Updates geben wird, sondern die Suchergebnisse permanent neu berechnet werden und Google dabei jederzeit automatisch lernt. Möglich macht es die Entwicklung von Künstlicher Intelligenz (KI) durch sogenanntes „Machine Learning“. Verkürzt gesagt: Google hat ein Programm geschrieben, welches nicht mehr durch den Menschen angepasst werden muss um die Suchergebnisse immer optimal zu bilden, sondern das Programm bringt sich genau das selbst bei.
Deswegen geht der Fokus bei Google weg von vergleichsweise stumpfen Textanalysen, die nur suchen ob bestimmte Keywords (bzw. Worte die damit verwandt sind) im Text enthalten sind. Die KI von Google ist immer besser in der Lage den Sinn eines Textes bzw. einer kompletten Website inhaltlich zu verstehen und zu bewerten. So wie es das menschliche Gehirn auch tut. Ein Mensch ordnet einen Text nicht thematisch auf Grund bestimmter Schlagworte ein, sondern auf Grund des komplexen Inhaltes an sich.
Dank KI wird Google immer mehr in die Lage versetzt Texte tatsächlich zu verstehen und somit den Content einerseits aus Usersicht auf Relevanz zu prüfen und andererseits diesen Prozess zu automatisieren. Das Prinzip dahinter nennt sich in der Liguistik „Co-Occurrence“ (zu Deutsch: Co-Vorkommen) und ist eigentlich grob gesagt nichts anderes als eine extreme Weiterentwicklung der Keywordanalyse. Bereits seit den frühen 2010er Jahren wird das Thema, wie viel Einfluss die KI auf Googles Suchergebnisse hat unter SEOs heiß diskutiert.
Google versucht damit die Suchergebnisse für den Nutzer selbst und nicht für die Allgemeinheit auszugeben. Das Ziel ist es, dass jeder Nutzer genau das findet, was er suchen wollte (Suchintention). Verbindet man dieses Ziel in der berechtigten Annahme, dass Google diesbezüglich bereits weit fortgeschritten ist in der Entwicklung (selbst große Agenturen wie Sistrix können immer seltener Core-Updates erkennen, was vermutlich daran liegt, dass es weniger geworden sind), dann muss man einfach sagen, dass interner Duplicate Content (also sich ähnelte oder gleiche Texte auf verschiedenen Seiten innerhalb der eigenen Website) kein wirkliches Problem mehr darstellen. Google kann immer mehr unterscheiden, in welchem Zusammenhang die Texte zueinander stehen. Ein Fakt, der z.B. Shopbetreiber freuen dürfte, die immer wieder vor dem vermeintlichen Problem standen, dass ähnliche Produkte auch ähnliche oder gar gleiche Beschreibungstexte haben müssen und so im Ranking u.U. miteinander konkurrieren.
Und was bedeutet das für die Backlinks?
Auch hier sind die Auswirkungen deutlich. Erkennt Google per KI den Inhalt eines Textes und kann diesen auf Relevanz für die Suchintention prüfen, werden Backlinks als Messwert für die Relevanz einer Seite kaum mehr benötigt. Das bringt uns noch zum Schlagwort der „Co-Citation„. Gelingt es Google erfolgreich seiner KI auch dieses Prinzip zu lernen, werden Backlinks fast obsolet. Dann gelingt es Verknüpfungen der Inhalte zweier Seiten herzustellen und die Relevanz zueinander einzuschätzen. Backlinks werden dann zu wenig mehr als einer losen Verbindung zweier Seiten, die als Anlass für eine genauere Betrachtung genommen werden kann.
Doch das Prinzip der Co-Citation scheint noch nicht so weit zu sein, wie das der Co-Occurrence. Anders ist es kaum zu erklären, dass viele der vorderen Seiten (wenn auch nicht alle, wie der oben verlinkte T3N Artikel zeigt) nach wie vor viele thematisch gut passende Backlinks haben. Im Moment scheint es also eher eine Hybrid-Version zu sein. Aber die KI von Google ist ja vergleichsweise noch am Anfang und wird sicher immer besser werden.
Damit setzt sich der Trend fort, dass Websites immer mit dem Gedanken optimiert werden sollten „Was will der Nutzer und wie biete ich es ihm optimal?“.
Rico ist Gründer und Inhaber von Orange Raven. Er ist seit über 10 Jahren als Marketing Experte (Studium Uni) speziell für Gambio und WordPress unterwegs.