Trust Rank – Die Lösung gegen Webspam?

Historisches:

Die Relevanz des Sucherergebnisses.. Das Problem haben alle Suchalgorythmen, ob Google, Yahoo, oder die kleine Webseite von nebenan mit PHP & MySQL, ASP.net & SQL-Server etc. Ein User sucht etwas und will möglichst genau das finden, was zu seiner Suchanfrage, zu seinem Problem etc. am Besten passt.

  • Doch welches Ergebnisse zeigt man weiter vorne an und welches weiter hinten?
  • Was ist also relevant und passt zur Suchanfrage?

Anworten bzw. Lösungsansätze auf diese Fragestellung gab es schon einige, in der kurzen Geschichte des Internet… Die im Moment wichtigste ist die von Marktführer Google:

Die Erfolgsstory und die Technik von Google ist ja mittlerweile auch der breiten Masse bekannt (“Das hat doch irgendwas mit diesen Links zu tun, oder”). Erlärungen zu Pagerank und Bewertung von Linknetzwerken gibts z.B. hier.

Nach dem kometenhaften Aufstieg zum quasi Monopolisten und der unglaublichen Wachstumsraten im Internet (Ich frag mich, was wir machen, wenn es dann irgendwann mal 6 Milliarden Blogs gibt, weil jeder Mensch cool vor sich hin bloggt ;-) )  hat Google in den letzten Jahren seinen Suchalgorythmus immer wieder angepasst und mit neuen Features und Schutzmaßnahmen versucht das Suchergebniss zu verbessern. Neben “clientseitigen” Schutzmaßnahmen, wie die Einführung von “rel=nofollow” Links,  gab es auch eine Reihe von Google-Maßnahmen um die PageRank ”Freunderlwirtschaft” einzudämmen bzw. um den lästigen Linkspamern (die Gästebücher und Foren mit Linksbots zumüllen)  den Wind aus den Segeln zu nehmen.

  • Erkennung und Abmahnen von Dublicate Content (doppelter Inhalt)
  • Erkennung von Linknetzwerken und direkten Backlinks
  • Einführung des Hiltop-Verfahrens, um zu Erkennen, ob Links von themenrelevanten Seiten kommen
  • Bad neighborhood – Hat eine Website zu viele abgemahnte, oder fast nur Links von themenfremden Seiten ist das nicht so groovy.
  • Die ominöse Google-Sandbox – wohl eher ein Sammelbegriff, um die Anwendung von verschieden Filtern zu erklären, die das oft kurzfristige Abstürzen von Rankingpositionen zur Folge haben
  • etc.

Trustrank

Seit Google 2005 den Trustrank als Patent angemeldet hat und circa zeitgleich ein Dokument von namhaften Gyongyi (Stanford University), Hector Garcia-Molina (Stanford University) und Jan Pedersen (Yahoo! Search) mit dem Titel “Combating Web Spam with TrustRank” im Internet auftauchte, brodelte die Gerüchteküche.

Die recht einfache Idee hinter dem Trust-Rank ist, dass Spamseite in der Regel nicht von ”vertrauensvollen” Webseiten verlinkt sind. Dem Dokument der 3 Herren zufolge reicht da eine Handvoll Webseiten (ca. 300), die per Hand ausgesucht werden. Danach wird das Linknetzwerk dieser Seiten automatomatisiert verfolgt und bewertet, um ein großes Netz an “Trust-Pages” zu bekommen und so Spam- und Scraperseiten auszuschließen.

Da tlw. auch Webseiten von großen Unternehmen im Ranking nach vorne gereiht wurden, stellt sich natürlich die Frage, in wie weit die Betriebsgröße und der Name eines  Unternehmens in das Ranking reinspielt. Ob das sinnvoll ist, sei mal in Frage gestellt….

Ob überhaupt ein Zusammenhang zwischen der Google Marke “Trust Rank” und dem veröffentlichen Dokument besteht, bzw. wie und in welchem Umfang Google den Trustrank in ihre Rankingbewertung einfließen lässt, ist natürlich fraglich. Aber ohne Gerüchte wäre die SEO-Szene ja auch fad.

Fazit:

Neben den klassischen Problemen, mit der große Suchmaschinen heute zu kämpfen haben:

  • Datenmenge
  • Mehrdeutigkeit & Grammatik der Suchanfragen
  • Aktualität
  • Technik

ist die Spamproblematik und das Liefern von relevanten Ergebnissen ein sehr zentrales Problem geworden. Simpel ausgedrückt: Dauert eine Suchanfrage zu lange, bzw. liefert sie auch nach dem xten Versuch nur unbrauchbare Ergebnisse, wird der User über kurz oder lang eine andere Suchmaschine ausprobieren und da Google & Co ja nicht unbedingt unabhängig von Werbung (Adwords und Co) sind, wäre das eher blöd für Googlehupf & Co….

Im Prinzip ist also alles, was gegen Spammails, Spamwebseiten etc. hilft, schützt, oder die Seuche zumindest eindämmt, ein gute Sache. Aber die Geschichte hat gezeigt, dass es grundsätzlich alles, was ein Mensch erfindet, auch von einem anderen wieder gehackt werden kann ;-) .  Aber man darf es den Spamwarzen zumindest nicht zu leicht machen.

Neben Lösungen “von oben”, wäre es mmn. nach auch sehr wichtig, die breite Masse an privaten Webseitenbetreibern (Von Blogs, Wiki, Social Network Seiten, Foren, Gästebüchern etc.) über die Problematik aufzuklären bzw. über Schutzmaßnahmen zu informieren. Alleine, wenn jedes Gästebuch oder PHPBB-Forum gegen Spamer geschützt wäre, würde das schon helfen…

Interessante Links:

http://en.wikipedia.org/wiki/TrustRank

http://diagnostics.googlerankings.com/trustrank.html

Combatin Webspam with Trustrank (PDF)

2 Gedanken zu “Trust Rank – Die Lösung gegen Webspam?

  1. Pingback: Onlinemarketing - SEO (Einleitung) | Webmaster Blog

  2. Pingback: Blog auf PeArLand.de » Blog Archive » Webspam

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>