100% unverbindliche Anfrage

Bitte wählen Sie:

Google Big Daddy Update

Das Google Big Daddy Update wurde von Google bereits Ende 2005 veröffentlicht, zuerst im englischsprachigen Raum als Probebetrieb, im Anschluss daran auch für alle anderen Sprachen weltweit und als feste und bleibende Veränderung.

Eine Besonderheit, die es nur bei diesem Update gab, war, dass Google hier auch aktiv die User mit einbezog, die anfangs die Auswirkungen des Updates des Algorithmus testen und auch bewerten konnten. Zu diesem Zweck wurde das Update erst nur auf zwei IP Adressen veröffentlicht – dort war die Suchmaschine mit einem Button für die User versehen, die damit Zustimmung oder Ablehnung bekunden konnten. Das war neu und einzigartig – Google machte das weltweite Inkrafttreten des Updates (sog. „Rollout“) tatsächlich davon abhängig, ob die Mehrzahl der User mit den veränderten Ergebnissen der Suche einverstanden ist.

Insider vermuten, dass dies jedoch lediglich deshalb erfolgte, weil Big Daddy kein Update im eigentlichen Sinn war, also eine Veränderung des Algorithmus, sondern weil es bei Big Daddy vor allem um eine Veränderung der Infrastrukturvoraussetzungen ging, und im Wesentlichen darum, wie die Software Seiten durchsuchte und indexierte. Big Daddy war in Wirklichkeit also mehr ein Software Update als tatsächlich ein Algorithmus Update.

Nach der mehrheitlichen Zustimmung der testenden User wurde Big Daddy erst im März 2006, nach einem insgesamt mehrmonatigem Testbetrieb auf zwei Servern des Data Center unter zwei bestimmten IP-Adressen, für das gesamte Data Center übernommen. Von diesem Zeitpunkt an sind alle Auswirkungen von Big Daddy durchgehend in Googles Systemen wirksam.

Vom Google Big Daddy Update ausgelöste Veränderungen

Eine der wesentlichen Veränderungen, die als Auswirkungen von Big Daddy gelten können, war, dass mit der Veröffentlichung und der Einspielung im gesamten Data Center eine ganze Reihe von Seiten aus dem regulären Index gelöscht wurden.

Matt Cutts, damals einer der leitenden Software Ingenieure von Google (heute Googles oberster Spam-Bekämpfer), begründete dies in einer öffentlichen Stellungnahme damit, dass es sich hierbei um Seiten gehandelt hätte, bei denen der Algorithmus sehr wenig Vertrauen in die zur Seite führenden, aber auch in die von der Seite wegführenden Links gezeigt hätte.

Das sei in den meisten Fällen, so Cutts, bei Seiten der Fall, die entweder eine hohe Zahl von zurückführenden Verlinkungen, sogenannten reciprocal links, aufgewiesen hätten, oder zu deutlich von Spam verschmutzten Bereichen verlinkt hätten. Auch intensiver Linktausch oder Linkverkauf hätten zu diesem Verlust an Trust führen können. Für die Webseitenbetreiber war dies natürlich katastrophal, da eine im regulären Index nicht mehr gelistete Seite kaum mehr überhaupt gefunden wird.

Überdies war das die erste wirklich massive Aktion von Google, um gekaufte oder getauschte Links abzuwerten. Die Hauptsache aller Veränderungen spielte sich auch tatsächlich in diesem Bereich ab – Big Daddy zielte also ursächlich auf unnatürliche Verlinkungen bei Webseiten.

Von Matt Cutts gab es dabei auch einige veröffentlichte Kommentare zu einzelnen Webseiten, was ebenfalls ein Novum war – einer der berühmtesten Kommentare, der später als fast sprichwörtlich für die Thematik galt, lautete: „Ihre Immobilien-Seite verlinkt zu einer Seite mit kostenlosen Klingeltönen, zu einem SEO Wettbewerb und einer Seite für Omega 3 Fischöl – ich glaube, ich habe ihr Problem gerade gefunden„.

Die „Trustability“ von Links

Das Prinzip der Vertrauenswürdigkeit von Links, der sogenannten Trustability, das mit dem Google Big Daddy Update erstmals öffentlich und auf breiter Basis eingesetzt wurde, und die Abstrafung unnatürlicher Linkstrukturen auf Seiten gehören seitdem zu einem viel beachteten Bereich, der auch bei vielen anderen Algorithmus Updates, wie etwa dem Panda Update und zuletzt beim Penguin Update immer wieder verbessert und intensiviert wird.

Insbesondere durch Verwendung der BlockRank Technologie beim Algorithmus, der 2003 von der Universität Toronto entwickelt wurde, entsteht ein eindeutiger Trust-Wert von Domains und gesamten Bereichen, sogenannten Blocks. Solche Verlinkungen „vererben“ dann ihre hohe oder niedrige Vertrauenswürdigkeit, also ihren Trust auch bis zu einem gewissen Maß auf die verlinkende Seite.

Bei den auf die Seite weisenden Links hingegen sind vor allem die zuvor als Expertenseiten (experts) zu einem bestimmten Themenkreis erkannten Seiten für eine Positionierung der Seite innerhalb der Suchergebnislisten (SERPs – Search Engine Result Pages) maßgeblich. Den Verlinkungen – sowohl den auf die untersuchte Seite weisenden als auch denen, die von der Seite weg weisen, kommt also seit dem Google Big Daddy Update eine sehr hohe Bedeutung zu.

Es gilt für die meisten als sehr wahrscheinlich, dass die BlockRank Technologie, die schon 2003 bekannt war, vermutlich schon vor dem Google Big Daddy Update genutzt wurde, und nicht das Google Big Daddy Update als der Zeitpunkt der Umstellung auf BlockRank zu sehen ist.

Das Google Big Daddy Update als erste große Qualitätsmaßnahme

Seit den Anfangszeiten von Google hatten sich die Qualität der Suchergebnisse und die Qualität des Contents innerhalb der hoch rankenden Seiten in den SERPs massiv verschlechtert. Die tatsächliche Fähigkeit des Algorithmus, hoch relevante und qualitativ hochwertige Suchergebnisse nach vorne zu stellen, hatte deutlich nachgelassen.

Eine Zeitlang stand auch in Frage, ob der Ansatz, den PageRank hauptsächlich auf der Zahl der auf eine Seite verlinkenden Seiten aufzubauen, tatsächlich zielführend war – angesichts von fehlenden, ausreichend überzeugenden Alternativen blieb man aber dann bei diesem Ansatz.

Er geht ursprünglich auf eine soziometrische Berechnungsmethode zurück, die schon in den fünfziger Jahren entwickelt worden war, und darauf zielte, die Relevanz eines einzelnen Objekts innerhalb von verknüpften Strukturen vor allem über die Zahl der Verknüpfungen zu definieren, die auf dieses Objekt hindeuten.

Im Laufe der Zeit wurde dieser Ansatz dann immer wieder verfeinert, neue Parameter flossen in die Bewertung mit ein und im Verlauf der nächsten Updates wurden auch die Links insgesamt nicht mehr nur quantitativ, sondern vor allem auch zunehmend treffender qualitativ bewertet. Als hoch vertrauenswürdig gelten heute beispielsweise immer noch DMOZ Links.

DMOZ als vertrauenswürdige Bewertung

Das DMOZ ist ein redaktionell erstelltes Verzeichnis von Webseiten, die tatsächlich von Menschen überprüft und bewertet werden, diese ehrenamtlichen Mitarbeiter des Verzeichnisses, bis zu 7.000 insgesamt, nehmen nur solche Seiten in das DMOZ auf, die tatsächlich echte Qualität aufweisen und für Nutzer einen hohen Mehrwert bieten können.

Angesichts der schnell wachsenden Zahl von Webseiten konnte aber sehr bald schon nicht mehr mit der Entwicklung Schritt gehalten werden, und Listeneinträge im DMOZ für neu veröffentlichte Seiten erfolgten ab 2008 bereits mit großen Verzögerungen, bis heute sind diese Verzögerungen bei den Listeneinträgen durchwegs noch deutlich länger geworden, auch durch den Wegfall einer großen Zahl von Autoren.

Die Abkürzung DMOZ, die noch aus den Anfangszeiten des Internets stammt und Directory Mozilla bedeutet, wurde von der früheren Internet-Adresse in der Anfangszeit abgeleitet und bis heute beibehalten.

Auswirkungen des Google Big Daddy Updates auf Googles Datencenter

Kurz nach Abschluss und Übernahme des Google Big Daddy Updates auf alle Server der Google Data Center wurde ein Kommentar des damalige CEO von Google, Eric Schmidt, in der New York Times schon bekannt, Google hätte eine „Speicherkrise“ – alle Datenspeicher seien voll.

Kurz nach Abschluss der Google Big Daddy Updates Prozeduren kam es dann zu technischen Problemen bei Google, die wochenlang anhielten: Seiten waren abwechselnd im Index oder nicht, Suchergebnisse brachten häufig alte, gespeicherte Seiten oder sogenannte ‚dead pages‘ (404 pages) als Ergebnis, oder die Suchergebnisse waren überhaupt irrelevant.

Experten führen das vor allem darauf zurück, dass für die massiven Änderungen im Index, die durch das Google Big Daddy Update veranlasst wurden, kurzzeitig einfach nicht mehr genug Rechenkapazität zur Verfügung stand. Einige Wochen nach dem Rollout des Google Big Daddy Updates beruhigte sich die Situation wieder, die Qualität der Suchergebnisse war von da an deutlich wahrnehmbar angestiegen.

Einer der Faktoren, die zur Entwicklung des Google Big Daddy Updates sicherlich mit beigetragen hatten, war also auch sicherlich die zunehmende Überlastung der Google Server durch spammende Seiten, die bereits zu Ende des Vorjahres deutlich erkennbare Ausmaße angenommen hatte.



Zurück zur Hauptseite: Google Updates

Sie haben Fragen?

Kostenlose, unverbindliche Erstberatung:

Anrufer aus Deutschland:
Tel. 0771 - 1589439
Internationale Beratung:
Tel. +49771 - 1589439
Anfrage per Email:
buero@seo-analyse.com

» zum Anfrage-Formular

Onpage Optimierung

Suchmaschinenoptimierung im Quelltext

Wir schaffen für Ihre Webseite oder Ihren Shop eine optimale Onpage-Basis für weiterführende Optimierungsmaßnahmen.

Offpage Optimierung

Offpage Suchmaschinenoptimierung

Natürlicher Linkaufbau gemäß den Regeln der Suchmaschinen - wir bieten ihn!

SEO Beratung

SEO Beratung

Unsere Spezialisten beraten Sie gerne hinsichtlich Ihrer akuten oder strategischen Fragen.

Ranking Monitoring

Ranking Optimierung

Bei uns Standard: qualifiziertes Monitoring Ihrer Google Platzierungen.

Suchmaschinenoptimierung für Google

Google Suchmaschinenoptimierung

Wir kombinieren Google Optimierung mit ganzheitlicher Suchmaschinenoptimierung.

SEO Strategie

SEO Strategie

Praxisbewährte Strategien, die auf Zahlen und Fakten basieren.

SEO Tools

SEO Tools

Immer im Bild: professionelle SEO Tools informieren Sie über den Status Quo.