Sag niemals nie zu Panda 4.2 – Infos zum aktuellen Google-Refresh
Panda 4.2 – schon wieder tobt der Bär!
Der Spruch ist geklaut, passt aber sehr gut: Never say no to Google „Panda”! Seit 2011 watscht das Update in unregelmäßigen Abständen tausende Seiten für minderwertigen Content ab. Zwar wurde der „Panda“-Bär ursprünglich losgelassen, um vor allem Linkfarmen anzugreifen. Wie bekannt steht „Panda“ aber längst allgemein für Abstrafungen gegenüber Seiten, deren Inhalte von Google als „low quality content“ bewertet werden. Das heißt als „thin“ und / oder „shallow“ und / oder „pirated“, mithin genauso als „user-unfriendly“. Ein „nein“ zu Googles Qualitätsmaßgaben ist darum weniger ratsam denn je, auch weil Google im Mai zusätzlich eine „Phantom“-Suchmetrik in den Core-Algorithmus integrierte. Diese Metrik (auch als „Quality“-Update bekannt) operiert sozusagen wie ein „Reverse Panda“ und platziert Domains mit hoher Wertigkeit weiter oben in den Rankings. Sie bestraft also nicht für minderwertigen Content, sondern belohnt für guten. Aber ob nun so oder so: Fest steht, dass Google den Kampf gegen fragwürdige Websites mit ziemlich taffer Tatze führt.
Die neueste Kampfrunde wurde am 19. Juli eingeläutet, als Google offiziell damit begann, das Panda-Refresh 4.2 (#28) auszurollen. Zunächst einmal: warum „Refresh“? Google erklärte, es solle sich seit dem letzten vollwertigen Update 4.0 (am 26. März 2014) nichts Schwerwiegendes an den Metriken und damit den Auswirkungen geändert haben. Es handelt sich demnach bloß um die Aktualisierung des Datenbestandes, um eine Panda-Iteration. Das ist wichtig, denn es müsste theoretisch bedeuten, dass Websites eigentlich keine Penalty zu befürchten hätten, wenn sie schon von 4.0 und 4.1 nicht betroffen waren. Überhaupt, kündigte Google an, werde es diesmal höchstens 3 Prozent aller Suchanfragen („search queries“) treffen. Klingt tatsächlich nach nicht viel, aber trotzdem bleibt die Frage: Welche Art von Websites mag gefährdet sein? Erste Rückschlüsse erlauben aktuelle Daten von sistrix.de.
Die betroffenen 3 Prozent – wer fällt ins Beuteschema?
Im aktuellen Indexwatch-Report (sistrix.de/news/indexwatch) wird unter dem Stichwort Panda 4.2 auf einen Sichtbarkeitseinbruch bei yasni.de hingewiesen. Die Domain beherbergt eine so schon ominöse „Personensuchmaschine“ und, viel wichtiger, noch etwas anderes: viele (aufpoppende) Werbeanzeigen bei zugleich geringer Textmenge. Wer die Suche wirklich ausprobiert, wird vom Ergebnis zumal wenig überzeugt sein. Dass man eine solche Seite bald wieder verlassen und so ein negatives Usersignal senden wird, ist die denkbar logische Konsequenz. Weiterhin berichtet Sistrix im Panda-Kontext von Reaktionen bei „einige[n] große[n] Preis-, Gutschein- und Vergleichsseiten“. Also Seiten, die erfahrungsgemäß zahlreiche Unterseiten oder Verzeichnisse mit mangelhaftem und werbekontaminiertem Content aufweisen.
Es ist nun bekannt, dass der Panda eine „page-level score“ vornimmt. Er überprüft die Einzelseiten einer Domain separat auf ihre jeweilige Qualität. Darum nähren die eben genannten Sistrix-Infos einen bestimmten Verdacht. Sichtbare Ranking-Einbußen durch Panda 4.2 könnten vor allem folgende Websites betreffen: 1. Websites mit (sehr) vielen qualitativ fragwürdigen Pages – mit thin Content etwa. 2. Websites mit (sehr) vielen kaum SEO-optimierten Pages – mit dynamisch generierten &%§-URLs etwa. Und natürlich Websites, für die 1. und 2. zugleich gilt. Es griffe dann trotz „page-level score“ ein kumulativer Effekt. Zwar hinterließe der Bär auf page-level nur Tatzenkratzer. Im Ganzen allerdings, sprich domainweit, täten die vielen Kratzer doch empfindlich weh. Besonders bedroht wären demnach Seiten, die den Panda mit großen Rationen an Low- und Mid-Quality Content mästen. Auch SEO-Mängel auf page-level (wie fehlende Metadaten, ungenaue 301-Redirects, falsch verwendete Canonical-Tags und so weiter) könnten ab einer gewissen Seitenzahl eine noch fatalere Rolle als sowieso schon spielen.
Der behäbige Bär – Zeit für Maßnahmen!
Wer viele Einzelseiten hat und jetzt die Penalty fürchtet, kann (sollte!) sich für Panda 4.2 aber durchaus noch rüsten. Geeignete Maßnahmen können nach wie vor rechtzeitig ergriffen werden. Erwähnenswert an diesem Panda ist ja auch: Er schreitet diesmal sehr, sehr gemütlich voran. Das gibt Webmastern wohl entsprechend Zeit, ihren Webspace zu renovieren und / oder aufzuräumen. Am 05. August bekräftigte Search Engine Land unter Berufung auf Google, es handele sich diesmal um „the slowest rollout ever“; über stolze sieben Monate solle sich das Ausrollen diesmal hinziehen. In manchem aufgebrachten Kommentar heißt es deshalb sinngemäß: Skandal! Schiebung! Böser Bär! Wir werden erst in vielen Monaten erfahren, ob wir zu den 3 Prozent gehören! Oder: Unsere Seite, wenn sie jetzt im Ranking fällt, ist für alle diese Monate nicht mehr zu retten! Da halten wir nun gerne dagegen. Die positive Einstellung eines aktuellen Artikels von marketing-cow.de finden wir nämlich viel konstruktiver. Da heißt es weise: „Nutzt die Zeit und arbeitet mit Bedacht an eurer Seite“! D’accord! Im Zweifelsfall nicht klagen, sondern handeln. Es ist gewiss etwas Wahres dran, wenn in Bezug auf das ausstehende Ausroll-Zeitfenster von einer „Schonfrist“ gesprochen wird.
Man kann es durchaus so betrachten, dass Google den Webmastern genügend Gelegenheit geben möchte, um ‚Ja!‘ zum Refresh zu sagen. Um sich Panda-sicher zu machen. Etwa indem man sich klugerweise dafür entschiede,
- Titles und Meta Descriptions (mit Blick auf den User) zu verbessern oder zu ergänzen,
- die Zeichenquantität anzupassen (lesenswerte Texte haben ab 200 Wörter aufwärts),
- das Textniveau zu erhöhen (lesenswerte Texte erklären, unterhalten, informieren,…),
- lästige Werbeeinblendungen (vor allem Interstitials) zu reduzieren oder zu entfernen,
- Einzelzeiten mit 404-Fehlermeldung oder blinde 301-Redirects zu entfernen,
- sich zwecks effektiver Onpage-Optimierung vertrauensvoll an die OMSAG zu wenden.
Alle Panda-Panik – unangebracht?
Tipp: Wer solche Maßnahmen nicht für alle Unterseiten durchführen will oder kann, sollte dies zumindest für die wichtigsten in Erwägung ziehen. Deren positive Bewertung könnte dann das Gesamt-Negativergebnis ‚abfedern‘. Und noch etwas: Never forget the Google „Phantom“-Update! Da diese Metrik, wie gesagt, hochwertige Seiten mit besseren Rankings belohnt, ließe sie sich wie ein ‚Panda-Penalty-Puffer‘ betrachten. Und da eben sie ein Teil des Core-Algorithmus ist, wirkt die Metrik – im Unterschied zum Panda (wobei Google dessen Core-Integration ebenfalls plant) – wie in Echtzeit. Soll heißen: Sie kann praktisch jederzeit auf eure Bemühungen um Qualität reagieren. Es könnte daher auch helfen, einzelne schlechte Unterseiten aus dem Index zu werfen und mit guten auszugleichen, die bestenfalls noch mit hohen Besucherraten und längeren Verweildauern punkten.
Womöglich (um zum Abschluss auch eine provokative These abzuliefern) ist mehr Aufwand und Panik als sonst aber gar nicht angemessen. Wer sagt eigentlich, dass Google diesen Refresh nicht einfach deshalb so langsam ausrollt, weil die Webmaster dann längerfristig verunsichert sind und fleißig an der Qualität ihrer Seiten schrauben? Ohne dass der Panda wirklich zuschlagen müsste? Diese Pan(da)opticon-Taktik wäre zwar gemein, sie bescherte uns in den kommenden sieben Monaten aber trotzdem höherwertige Inhalte, wozu wir auch nicht nein sagen. Den Pandabären (4.2), seinen Freund Phantom und die (möglichen) Folgen zu beobachten, wird also weiterhin spannend bleiben; und wer weiß, welche Krallen Google als nächstes auszufahren gedenkt…? Da dürft natürlich auch ihr drüber nachdenken. Überhaupt dürft ihr Leser euch zum lauten Zustimmen oder Kopfnicken ermuntert fühlen. We never say no to comments.
Bild-Quellenangabe: angela n. auf Flickr (Creative Commons; Original-Bild verändert)