Blog Zeige alle Beiträge

Die Rückkehr des Pinguins – Google implementiert Penguin mit Update 4.0 in den Core-Algorithmus

by SMART LEMON Team | SMART LEMON Team

Kurz vor dem letzten Wochenende hat Google klare Fakten geschaffen und offiziell Penguin 4.0 ausgerollt. So berichtet Gary Illyes auf dem Google Webmaster Central Blog, dass dieses Update des Penguin-Algorithmus nach einer umfassenden Entwicklungs- und Testphase seit dem 23. September global und in allen Sprachen ausgerollt werde.

Immerhin hat man sich dafür fast auf den Tag genau zwei Jahre Zeit gelassen, zugleich aber auch eine ganze Reihe von Website-Betreibern seit Oktober 2014 in der letzten Iteration des linkhungrigen Vogels hängen lassen. Damit dies in Zukunft nicht mehr passiert, kommen mit Penguin 4.0 eine ganze Reihe von Änderungen zum Tragen.

Welchen Zweck erfüllt Google Penguin überhaupt?

Penguin gilt in SEO-Kreisen gemeinhin als Googles Jäger von unnatürlichen bzw. minderwertigen Links. Schnappte die erste Iteration des schwarz-weißen Vogels im April 2012 vor allem noch bei optimierten Ankertexten zu, sind im Laufe der letzten vier Jahre mit Sicherheit weitere Qualitätsaspekte eines Links hinzugekommen. So ganz genau hat man sich seitens Google aber nie in die Karten schauen lassen.

Konkret lassen sich für Penguin die folgenden Charakteristika herausstellen:

  • Es handelt(e) sich um eine algorithmische Abwertung von Websites/Domains, die aufgrund qualitativ schlechter Links greift.
  • Der Penguin-Algorithmus funktioniert global und nicht nur für einzelne Seite. Wurde in der Vergangenheit eine Website abgestraft, so waren nicht nur Teilbereiche, sondern die gesamte Domain davon betroffen.
  • Aufgrund des algorithmischen Charakters gibt es auch keine Benachrichtigung. Der Webmaster sieht lediglich Ranking-Einbrüche und daran gekoppelt auch Traffic-Verluste.

Was ändert sich nun mit der aktuellsten Version?

Penguin ist ab sofort fester Bestandteil des Google Core-Algorithmus

Ähnlich wie im Falle von Panda hat man nun auch Penguin fest in Googles Core-Suchalgorithmus implementiert. Damit sind die hiermit in den Blick genommen Kriterien ab sofort eindeutig als Ranking Signale und nicht mehr als bloßer Filter zu verstehen.

Im Detail bedeutet dies, dass dieser Algorithmus nach jedem Crawlen aktualisiert wird. D.h. sowohl Panda als auch Penguin laufen immer wieder über die jeweilige Seite und bewerten diese positiv oder negativ. Penguin seit letztem Freitag sozusagen live.

Bis diese Änderungen im Falle von Penguin aber final greifen, müssen wir uns wohl aber noch etwas in Geduld üben. So erklärte Gary Illyes, dass die Implementierung gerade erst gestartet ist und der Crawler fortan alle Seiten mindestens einmal gesehen haben muss. Google stellt hierfür zusätzliche Rechenleistung zur Verfügung , ohne das Alltagsgeschäft – sprich das eigentliche Crawling und die Indexierung von Websites – zu vernachlässigen.

Der Penguin wird granularer – Auswirkungen greifen für Unterseiten

Vor dem Hintergrund hat sich auch die Funktionsweise bzw. Auswirkung verändert. So verspricht – oder droht – je nach Standpunkt 😉 – Google, dass mit Penguin 4.0 das Ranking basierend auf Spamsignalen wesentlich granularer angepasst wird und nicht mehr die gesamte Website davon betroffen ist.

Konkret bedeutet dies: Penguin greift zukünftig auf Basis von Unterseiten und eben nicht mehr der gesamten Domain. Auf diese Weise sollen Websites, die in den letzten zwei Jahren im algorithmischen Filter festhingen, sich langsam wieder erholen. Kamen Penguin-Opfer in den letzten Jahren oftmals wieder mit einem großen Sprung zurück, wird fortan jede Unterseite nach einem entsprechenden Crawl bewertet.

Die-Rückkehr-des-Pinguins-–-Google-implementiert-Penguin-mit-Update-4.0-in-den-Core-Algorithmus-1-c-Sven-Giese.jpg
Die-Rückkehr-des-Pinguins-–-Google-implementiert-Penguin-mit-Update-4.0-in-den-Core-Algorithmus-1-c-Sven-Giese.jpg

Goodbye Google Statusmeldungen zu Updates

Die skizzierten Aspekte erklären dann auch, weshalb es seitens Google zukünftig keine Status-Updates zu Penguin (und Panda) mehr geben wird. Die schwarz-weißen Tiere sind dauerhaft im Kern-Algorithmus der Suchmaschine implementiert und fortan Teil der “Wir nehmen immer Änderungen vor”-Antwortpolitik.

Dies wohl auch vor dem Hintergrund, dass – anders als bei manuellen Penaltys (Benachrichtigungen über Google Search Console) -, lange keine Möglichkeit bestand, die Seite neu beurteilen zu lassen. Hier reicht in Zukunft ein neuer Crawl der betroffenen Seite.

Darüber hinaus dürften die allgemein sichtbaren bzw. globalen Änderungen in den SERPs im Gegensatz zu den vorherigen Updates nahezu völlig verschwinden. Man als SEO dementsprechend kaum noch den jeweiligen Effekt von Pinguin isoliert betrachten können, da er als Teil des Core mit allen anderen Signalen überlappt. Auch dies hat sicherlich etwas mit dem Thema Qualitätssicherung der SERPs zu tun.

Keine Änderungen beim Gebrauch des Disavow-Tools

Nach dem Bekanntwerden des Updates fragten viele Webmaster und SEOs, inwieweit sich die Core-Implementierung auf den Gebrauch des Google Disavow-Tools auswirkt. Googles John Müller hat sich diesbezüglich relativ in einem Tweet vom 23. September geäußert.

Kurzum, man soll das Disavow-File in der Search Console genau so wie zuvor behandeln. Durch Penguin ergeben sich hier keine Änderungen.

Auch Manual Actions haben weiterhin Bestand

Ähnlich wie beim Umgang mit dem Disavow Tool wird sich durch Penguin 4.0 auch nichts beim Thema Manual Actions ändern. So stellte Gary Illyes auf seinem Twitter-Account nochmals deutlich klar, dass diese a) nach wie vor verteilt und b) entsprechend über die Search Console kommuniziert werden.

Insofern ist dieser „blaue Brief“ in Zukunft die einzige Form der Abstrafung, bei der eine direkte Kommunikation mit Google möglich ist.

Ein erste Zwischenfazit: Vor- und Nachteile der Core-Implementierung

Zunächst einmal ist Googles Entscheidung durchaus zu begrüßen. Immerhin gehören damit die langen Wartezeiten zwischen den einzelnen Updates der Vergangenheit an und man lässt betroffene Webmaster und SEOs hier nicht mehr unnötig lange auf dem Trockenen sitzen.

Ob die algorithmische Abstrafung in den jeweiligen Fällen berechtigt war oder nicht – Gerade für viele Onlineshop-Betreiber waren die langen Wartezeiten dieses Update-basierten Modells eine echte Zumutung. Aus dieser Perspektive ist das Update als Fortschritt zu bewerten.

Angesichts der hier angedeuteten Echtzeit und Granularität dürften sich umgekehrt aber auch wieder viele SEOs herausgefordert fühlen, die Grenzen des Machbaren bzw. Erlaubten auszureizen. Immerhin dürfte sich eine mögliche algorithmische Abstrafung auch relativ schnell wieder beheben lassen. Zumindest in der Theorie, denn aus meiner Sicht ist hier noch nicht das letzte Wort gesprochen.

Insofern dürfte es in den nächsten Tagen bzw. wahrscheinlich eher Wochen spannend zu beobachten sein, ob und wie sich einzelne Domains unter diesen neuen Voraussetzungen entwickeln. Stand heute gibt es allerdings noch nicht viel zu sehen (siehe dazu exemplarisch den oben eingefügten Tweet von Dr. Pete Meyers).

Weitere Informationen zum aktuellen Penguin 4.0 Update

STAY IN TOUCH

NEWSLETTER