Die Suchmaschine schießt Dubletten ab
Von Frank Große
2011 war ein Schicksalsjahr für viele Webseitenbetreiber: Etliche große Online-Auftritte fanden sich plötzlich nicht mehr oben auf der ersten Google-Ergebnisseite platziert, sondern irgendwo unter ferner liefen. Die Folge waren zum Teil dramatische Umsatzeinbrüche. Schuld war eine einschneidende Änderung im Google-Algorithmus, der automatisch das Ranking der Ergebnisse bei jeder Suchanfrage berechnet. Der Filter namens Panda sorgt seitdem dafür, dass die Ergebnisseiten zuerst Treffer mit nützlichen Inhalten und redaktionellen Texten anzeigen.
Manche Sites mussten in der Folge bis zu 85 % Sichtbarkeitsverluste hinnehmen. Nach Angaben von Google wirkte sich das Roll-out von Panda auf rund 12 % aller Suchergebnisse in englischer Sprache aus; ein ähnlicher Wert ist für den deutschen Raum anzusetzen.
Gegen Ramsch und Reizüberflutung
Google wollte mit Panda die inhaltliche Qualität seiner Suchmaschinenergebnisse steigern: Der Algorithmus misst die Qualität einer Seite seitdem maßgeblich an ihrem Content, was den Mehrwert für die Suchenden schlagartig verbesserte. In den Suchergebnissen sollen qualitativ hochwertige Seiten auf den oberen Plätzen erscheinen – schlechte Seiten hingegen büßten im Ranking deutlich ein. Auf diese Weise straft Google Webseiten mit
- einer geringen Menge eigener Inhalte (Unique Content),
- vielen Zweit- und Mehrfachverwertungen (Duplicate Content),
- einer kurzen Verweildauer der Leser,
- einer hohen Absprungrate,
- vielen Seiten mit identischen Links und Texten,
- zu viel Werbung,
- Keyword Stuffing,
- Seiteninhalten und Seitentiteln, die nicht zur Suchanfrage passen, sowie
- einem hohen Prozentsatz an gleichen Links oder gleichen Texten auf einer Seite (sogenannten Boilerplate-Inhalten).
Für einzigartige Inhalte und viele Leser
Für Turbulenzen sorgte vor allem die Entscheidung für Unique Content. Der englische Begriff bedeutet so viel wie „einzigartiger Inhalt“ und ist letztlich das Alleinstellungsmerkmal von Webseiten. Er antwortet auf die Frage „Was finde ich hier, was es sonst nirgendwo gibt?“. Webseiten, die für den Leser keinen derartigen Mehrwert bieten, werden von Panda in der Suchmaschinenplatzierung abgestraft – was als großer Vorteil für die Nutzer zu werten ist. Hierzu gehören auch Seiten mit leerem Inhalt, die nur dazu dienen, die interne Verlinkung aufzubauen, oder die sogenannten Content-Farmen, bei denen ausschließlich die Quantität im Vordergrund steht.
Wenn die gesamte Website von einem Panda-Filter betroffen ist, spricht man von einer Site-wide Penalty. Findet Panda ausreichende viele Einzelseiten, Segmente oder URLs, die Panda als qualitativ schlecht einstuft, so wird die gesamte Domain als schlecht eingeordnet und entsprechend abgestraft. Die Folge sind Ranking-Verluste und Einbußen bei der Sichtbarkeit in den Suchergebnissen: Dadurch, dass die Webseite nun nicht mehr im oberen Bereich der Resultate erscheint, findet sie deutlich weniger Leser und die Klickrate sinkt drastisch. Dieser Rückgang ist am besten mit Google Analytics und den Google Webmaster Tools erkennbar.
Was original ist, bleibt, der Rest fliegt raus
Wer einmal Panda-gestraft ist, muss viel Handarbeit investieren. Zuerst ist Duplicate Content aufzuspüren und zu löschen (bzw. zu überarbeiten). Dubletten im Netz zeigen sich, wenn man einzelne Google-Suchen danach startet, oder mit Hilfsmitteln wie Copyscape. Ähnliche Werkzeuge gibt es auch, um herauszufinden, ob Inhalte als Doppel auf den eigenen Seiten vorliegen. Das geht z.B. mit Siteliner, der im kostenlosen Check bis zu 250 Einzelseiten einer Webpräsenz prüft – die Ergebnisstatistik ist jedoch erklärungsbedürftig.
Ein umfangreicheres Auditing ermöglicht Screaming Frog. Die Anwendung funktioniert als SEO-Spider und listet sämtliche verlinkten Unterseiten auf (die kostenlose Lite-Version ist auf 500 URIs beschränkt), simuliert also genau die Vorgehensweise von Google.
Gezielte Anweisungen für den Indexroboter
Ein anderer Weg besteht darin, Google daran zu hindern, Duplikate überhaupt zu indizieren. Der Meta-Tag noindex weist die Suchmaschine an, die betreffende Seite nicht zu erfassen, während nofollow dem Crawler die Empfehlung gibt, Linkverweise nicht zu berücksichtigen. Allerdings ist zu bedenken, dass zu viele Noindex-Seiten dazu führen können, dass Google das Crawl-Budget für die Site absenkt. Insgesamt ist es verlässlicher, alle Seiten zu löschen, die überflüssig sind.
Bei der Frage nach Duplicate Content spielen auch die Session IDs und andere URL-Fragmente eine Rolle. Bei vielen Content-Managament-Systemen produziert jeder einzelne Webseitenbesucher, der eine Seite aufruft, eine Dublette davon, deren URL nur die jeweilige Session ID angehängt ist. All diese Seiten haben natürlich dieselben Inhalte. Dieses Problem lässt sich jedoch mit der Meta-Angabe canonical umgehen. Sie wird im Head der Seiten notiert und sagt dem Google-Crawler, dass er auf den primären URI zurückgreifen soll.
Aufräumen und auf Erfolg hoffen
Eine algorithmisch durch Panda vergebene Abstrafung kann man nicht händisch durch einen Google-Mitarbeiter aufheben lassen; einen Reconsideration Request einzureichen, ist in solchen Fällen also sinnlos. Stattdessen gilt es, die Ursachen für die Penalty zu beseitigen.
Wann genau Panda seine Strafmaßnahmen zurücknimmt, sobald die Seite brav gesäubert ist, weiß niemand. Auch Google selbst hält sich in diesem Punkt bedeckt. Als sicher gilt aber, dass spätestens beim nächsten Crawling die Sichtbarkeit wieder erlangt wird.
Künftige Updates versteckt Google im Paket
Ganz zu Beginn der Google-Panda-Einführung wurden in recht großen Abständen mehr oder minder große Panda-Updates ausgerollt. Was sie bewirkten (bzw. bewirken sollten), war mit den entsprechenden Werkzeugen meist recht schnell auszumachen. Einen guten Überblick über die vergangenen Updates gibt die Google Algorithm Change History von SEOmoz, Inc.
Seit Everflux im März 2013 packt Google seine Panda-Neuerungen in einem fortlaufenden Prozess mit anderen Aktualisierungen zusammen. Die monatlich gesammelten Daten werden aktualisiert und die sich daraus ergebenden Änderungen innerhalb von zehn Tagen weltweit ausgespielt. Daher ist der Zusammenhang von Panda-Ursache und SERP-Auswirkung (Search Engine Result Pages) jetzt weit weniger deutlich erkennbar.
Fazit: Kollateralschäden in der Selbstverteidigung
Panda wirkt sich dramatisch auf die Sichtbarkeit von Webseiten aus. Die Webpräsenzen von Unternehmen sind generell gut beraten, den entsprechenden Anforderungen von Google brav zu folgen, wenn sie weiter im Ranking der Suchergebnisse oben auf der Seite stehen wollen.
Andererseits straft Panda nicht nur Link-Farmen und magere Inhalte, sondern belohnt auch gute Webseiten mit vernünftigem Content, die seitdem besser abschneiden. Und davon profitieren die Nutzer, die im Internet Auskunft suchen. Und natürlich Google selbst. Denn würde der Online-Riese einer kritischen Masse von Onlinern unbrauchbare Suchergebnisse vorsetzen, bräche sein eigenes Geschäftsmodell zusammen.