100% unverbindliche Anfrage

Bitte wählen Sie:

Hilltop-Algorithmus

Der Hilltop-Algorithmus ist ein Berechnungsverfahren, das dazu dient, innerhalb einer Reihe von miteinander verknüpften Dokumenten diejenigen zu bestimmen, die zu einem festgelegten Suchwort die größte Relevanz aufweisen. Der Algorithmus wurde an der Universität Toronto entwickelt und stellt eine wichtige Neuerung im Bereich der Internet-Suche dar, nachdem Google 2003 das Patent für den Hilltop-Algorithmus erwarb.

Die beiden Wissenschaftler Krishna Barat und George Mihaila von der Universität Toronto haben den Algorithmus im besonderen Hinblick auf die immer wichtiger werdende Suche im Internet nach möglichst relevanten Seiten zu einem Suchwort entwickelt. Inwieweit Google auch auf den Hilltop-Algorithmus bei seiner Suche zurückgreift, kann nicht eindeutig bestimmt werden, man geht jedoch davon aus, dass der Hilltop-Algorithmus heute bereits eine wichtige Rolle bei der Ermittlung der Suchergebnisse spielt.

Grundlegende Berechnungsvorgänge beim Hilltop-Algorithmus

Die englische Bezeichnung „hilltop“ (deutsch: Hügelspitze) umschreibt die zugrunde liegende Berechnungsmethode beim Hilltop-Algorithmus recht treffend, dass nämlich rechentechnisch zuerst einmal von Seiten ausgegangen wird, die den größten Überblick über ein Themengebiet geben. Das ist mit dem Wort „hilltop“ gemeint, weil analog auch von einer Hügelspitze aus der Überblick zunächst einmal am größten ist.

In der Praxis bedeutet das, dass durch den Hilltop-Algorithmus im ersten Schritt die sogenannten Experten Seiten ermittelt werden. Diese Seiten haben sehr viele Verbindungen zu unabhängigen Seiten des gleichen Themas. Die Ermittlung dieser Seiten kann sehr einfach und automatisch im Hintergrund erfolgen. Daneben lässt sich die – meist recht geringe Zahl – von Experten Seiten auch gut aktualisieren.

Die Suche nach Autoritäts-Seiten – also hoch relevanten Seiten zum festgelegten Suchwort – gestaltet sich damit im Anschluss wesentlich einfacher, da definitionsgemäß nur solche Seiten als Autoritäts-Seiten zugelassen werden, auf die mindestens zwei voneinander unabhängige Experten Seiten verweisen.

Rolle der Experten Seiten beim  Hilltop-Algorithmus

Durch die Experten Seiten werden praktisch alle relevanten Dokumente zu einem Thema bereits zusammengefasst. Eine Reihung nach Relevanz kann dann annähernd an die Zahl der auf eine Seite verweisenden Experten Seiten erfolgen, hier wird die Berechnungsmethode allerdings ungenau, da hoch relevante Seiten unter Umständen von einigen Experten Seiten nicht erfasst oder berücksichtigt werden, was nicht zwangsläufig etwas über den Grad ihrer Relevanz aussagt.

Für ein tatsächliches Ranking von Seiten ist der Hilltop-Algorithmus also nur bedingt bis gar nicht geeignet, er kann aber andere Algorithmen unterstützen, indem er den Rechenaufwand verringert, der am Anfang der Suche über den gesamten Suchindex hinweg entsteht.

Um das Berechnungsergebnis in der Praxis nicht zu verfälschen, müssen außerdem entsprechende Prüfungen über die tatsächliche Unabhängigkeit der Seiten voneinander erfolgen – so muss beispielsweise sichergestellt sein, dass die Autoritäts-Seiten nicht von Experten Seiten abhängige Seiten sind, sondern tatsächlich eigenständige Seiten. Dafür sind zusätzliche Berechnungen notwendig.

Hilltop-Algorithmus als Waffe gegen Spam

Da Suchmaschinen – anders als natürliche Leser – nur Zeichenketten wahrnehmen, können sie Inhalte nicht nach ihrer echten Relevanz überprüfen, sondern müssen auf andere Methoden ausweichen. Laienhafte, oberflächliche und schlicht unzureichende Inhalte können von Suchmaschinen durch den Hilltop-Algorithmus aber dadurch ausgeschlossen werden, wenn die Tatsache in Betracht gezogen wird, dass auf solche qualitativ minderwertigen Seiten in der Regel nicht von einer hohen Zahl von Experten Seiten verlinkt wird.

Sobald also die Qualitätsbestimmung der Experten Seiten ausreichend treffend ist, fallen Spam Seiten und Seiten mit minderwertigen Inhalten praktisch automatisch durch das Raster beim Hilltop-Algorithmus und haben im Allgemeinen keine Möglichkeit, als Autoritäts-Seiten eingestuft zu werden, ihre Relevanz wird also praktisch bereits automatisch als gering bewertet.

DMOZ Seiteneinträge bei der Bestimmung von Experten Seiten

Kritisch für die Qualität der gesamten Suche ist hier also die Bewertung als Experten Seiten. Insgesamt sind im Web weniger als 2% tatsächlich als Experten Seiten eingestuft – häufig sind es die Seiten aus dem DMOZ Verzeichnis oder aus entsprechend qualitativ hochwertigen, manuell erstellten Webkatalogen. Hinter dem DMOZ verbirgt sich das Open Directory Project, das qualitativ hochwertige und sehr relevante Webseiten listet und von freiwilligen Redakteuren betreut wird.

Das Motto des Projekts, dessen Daten frei und kostenlos zugänglich sind, lautet „Humans Do It Better“. Die Leistungen des Projekts sind durchaus ansehnlich, über 7.000 Autoren verfassen Kurzkommentare zu neuen Webseiten mit hoher Relevanz, die Einträge liegen insgesamt bei rund 4,7 Millionen, davon rund eine halbe Million für den deutschsprachigen Bereich. Jede im DMOZ eingetragene Seite wurde manuell von einem Redakteur geprüft. Insgesamt werden die Seiten in mehr als einer Million unterschiedlicher Kategorien abgelegt.

Der Name DMOZ leitet sich übrigens aus der ersten Webadresse des Projekts her – dmoz.org, was auf den ursprünglichen Namen „Directory Mozilla“ verwies. DMOZ Seiten sind zwar nicht die einzige Quelle für die Bestimmung von Experten-Seiten, aber eine durchwegs immer noch sehr wichtige.

Technische Verfahren für die Unabhängigkeitsprüfung von Seiten

Um zu prüfen, ob Autoritäts-Seiten von den auf sie verlinkenden Experten Seiten tatsächlich unabhängig sind, werden einige recht einfache Kriterien verwendet, die auch rechnerisch sehr leicht zu prüfen sind. Erst einmal muss der namensgebende Teil der Domainnamen sich komplett unterscheiden, darüber hinaus müssen die IP-Adressen in einem unterschiedlichen C-Block liegen, was sich daran erkennen lässt, dass die ersten drei Blöcke der IP-Adresse jeweils unterschiedlich sind.

Rechnerisch kommen dann auch noch bestimmte Ausschlussverfahren zum Einsatz, die bei eng miteinander verknüpften Seiten auch mögliche wahrscheinliche Querverbindungen zwischen den Seiten berücksichtigen und diese dann nicht als unabhängige Seiten werten. Für den Status einer Expertenseite muss darüber hinaus auch der Schwellenwert von mindestens fünf Verweisen auf unabhängige Seiten im Themenbereich überschritten sein, Hauptthemengebiete werden zusätzlich berücksichtigt.

Sind alle diese Kriterien erfüllt, werden den Experten Seiten indiziert. Das erfolgt beim Hilltop-Algorithmus mit einem speziellen, invertierten Index. Alle Phrasen, die das Suchwort enthalten, werden aufgelistet, daneben Überschriften, Titel und Ankertexte der Experten Seiten. Danach werden rechnerisch die semantischen Bezüge zwischen den einzelnen Elementen und Keyword-Kombinationen und den Verweisen geprüft. Diese Prüfungsverfahren sind äußerst komplex und vielschichtig, sie stellen jedenfalls aber einen sehr wichtigen Teil des gesamten Konzepts dar.

Unterschiede zwischen Hilltop-Algorithmus und PageRank Algorithmus

Im Hinblick auf die Berechnungsverfahren gibt es zwischen dem Hilltop-Algorithmus und dem PageRank Algorithmus wichtige Unterschiede. Insgesamt gilt der Hilltop-Algorithmus als exakter, insbesondere dort, wo es um allgemeine Suchanfragen in großer Häufigkeit zu relativ allgemeinen Suchbegriffen geht. Durch die Basierung auf unabhängigen Experten Seiten sind die Suchergebnisse auch besser abgesichert und können weniger leicht zufällig verfälscht werden.

An seine Grenzen stößt der Hilltop-Algorithmus allerdings immer dort, wo es um hoch spezielle Suchanfragen geht, zu denen es nur vergleichsweise wenige Seiten im Netz gibt. Der PageRank Algorithmus hingegen legt vor allem die Linkpopularität einer Seite oder eines Dokuments fest, nach den neueren Berechnungsmethoden auch eines gesamten Blocks – das heißt einer gesamten Domain oder eines noch weiter gefassten Bereichs, um die Rechenleistung beim Ermitteln des PageRank zu verringern.

Das hinter dem PageRank stehende „Zufallssurfer-Modell“ erweist sich in vielen Bereichen zwar als zutreffend, allerdings – und das ist die größte Problematik beim PageRank Algorithmus – spiegelt der PageRank lediglich das Interesse anderer Webseitenbetreiber und nicht das Interesse der User und die Qualität der Seite wider. Dieser Effekt relativiert sich zwar durch die vielen Anpassungen der PageRank Berechnung seit 2003, und den Einsatz einiger zusätzlicher Algorithmen wie Hub and Authorities oder TrustRank, bleibt aber grundlegend bestehen.

Der Hilltop-Algorithmus mit seinem auf unabhängigen Experten beruhenden Konzept bietet dagegen eine vor allem auf den User und seinen Nutzen fokussierte Bewertung, die auch weniger leicht unterlaufen werden kann.



Zurück zur Hauptseite: Google

Sie haben Fragen?

Kostenlose, unverbindliche Erstberatung:

Anrufer aus Deutschland:
Tel. 0771 - 1589439
Internationale Beratung:
Tel. +49771 - 1589439
Anfrage per Email:
buero@seo-analyse.com

» zum Anfrage-Formular

Onpage Optimierung

Suchmaschinenoptimierung im Quelltext

Wir schaffen für Ihre Webseite oder Ihren Shop eine optimale Onpage-Basis für weiterführende Optimierungsmaßnahmen.

Offpage Optimierung

Offpage Suchmaschinenoptimierung

Natürlicher Linkaufbau gemäß den Regeln der Suchmaschinen - wir bieten ihn!

SEO Beratung

SEO Beratung

Unsere Spezialisten beraten Sie gerne hinsichtlich Ihrer akuten oder strategischen Fragen.

Ranking Monitoring

Ranking Optimierung

Bei uns Standard: qualifiziertes Monitoring Ihrer Google Platzierungen.

Suchmaschinenoptimierung für Google

Google Suchmaschinenoptimierung

Wir kombinieren Google Optimierung mit ganzheitlicher Suchmaschinenoptimierung.

SEO Strategie

SEO Strategie

Praxisbewährte Strategien, die auf Zahlen und Fakten basieren.

SEO Tools

SEO Tools

Immer im Bild: professionelle SEO Tools informieren Sie über den Status Quo.