Die Google-eigene Forschungsabteilung untersucht derzeit, inwiefern der Wahrheitsgehalt einer Webseite ins Google-Ranking einfließen könnte. Über 200 Faktoren bezieht der Suchmaschinenanbieter in die Listung seiner Ergebnisse ein. Nur wenige dieser Größen sind bisher bekannt. Lange galt der sogenannte Pagerank, der die externen Verlinkungen einer Seite wertete, als ein Indiz für valide Seiten. Das Konzept basierte auf Referenzen: Je mehr fremde Seiten auf die eigene verwiesen, desto relevanter schien Google die Seite für das gesamte Netzwerk – und damit auch für Suchanfragen.
Der Algorithmus der Wahrheit
Als Alternative zum linkbasierten Wertungssystem erforscht Google zurzeit eine neue Technik, die die Vertrauenswürdigkeit einer Webseite anhand von Fakten messen können soll. Kürzlich erschien ein erstes Arbeitspapier von Google-Mitarbeiterin Xin Luna Dong in Zusammenarbeit mit anderen Kollegen mit dem Titel: “Knowledge-Based Trust: Estimating the Trustworthiness of Web Sources”. Hier erklären die Forscher, wie ihr Algorithmus funktioniert: Der sogenannte “Knowledge-Based Trust”, kurz KBT, soll vor allem die Inhalte einer Seite selbst bewerten. Die Berechnung erfolgt anhand einer Datenbank mit rund 2,8 Milliarden Fakten. Webseiten werden aufgrund dieser Daten auf ihren Wahrheitsgehalt überprüft, je weniger Dissonanzen auftreten desto vertrauenswürdiger wertet Google die Seite und desto höher soll sie dann auch im Ranking erscheinen.
Google recherchiert
Mit dieser Methode will Google das Bewertungsverfahren seiner Suchmaschine noch besser gestalten und Nutzern qualitativ höherwertige Inhalte bieten. Das Verfahren ist dabei kaum manipulierbar, da Google eigene Wissensdatenbanken zusammenstellt. So nutzt das Unternehmen bereits jetzt unter dem Namen Knowledge Vault riesige Datenbestände für seine Dienste die es anhand der Informationen im Web täglich aktualisiert. Das Verfahren zur Aktualisierung dieser Wissensbestände ist komplex und kombiniert verschiedene Technologien. Anhand spezifischer Referenzseiten erfassen bspw. einige Programme, sogenannte „Importer“, regelmäßig Daten. Diese werden dann in weiteren Schritten aufbereitet und der Knowledge Vault aktualisiert. Die von Google als vertrauenswürdig eingestuften Referenzseiten verfügen selbst über stetige Aktualisierungen und einheitliche Strukturierungen, so zählt bspw. die Free Enzyklopädie Wikipedia zum Repertoire. Sie ist damit aber nur eine von vielen Quellen für Google, das seine Wissensbestände über den Bezug möglichst vieler verschiedener Anbieter erstellt.
Mit relevanten Inhalten punkten
Über die Validität einer solchen Datenbank lässt sich streiten, nichtsdestotrotz bestimmt natürlich Google selbst hier die Grundlage. Für Webseitenbetreiber hieße ein neuer Fakten-Check eine noch intensivere Betreuung der eigenen Inhalte. Gleichzeitig entstehen mit einer solchen stärkeren Fokussierung auf die eigentlichen Inhalte auch neue Chancen, das eigene Angebot besser zu positionieren. Ganz auf die Reputation der Netzwerke wird Google wohl aber auch in näherer Zukunft nicht verzichten können, so gelten die sogenannten Backlinks, also die Verlinkungen anderer Webseiten auf die eigene Domain, wie vor als ein wichtiges Qualitätsmerkmal für das Google-Ranking, auch wenn sich ihr Einfluss in letzter Zeit etwas verringert hat. Anand einer Stichprobe fand Google heraus, dass es zwischen einem hohen Wahrheitsgehalt von Webseiten und den Verlinkungen oftmals Zusammenhänge gibt. Unter 2.000 untersuchten Webseiten verfügten die mit dem höchsten Wahrheitsgehalt meist auch über viele Verlinkungen. Korrekte, relevante Inhalte lohnen sich also im doppelten Sinne.