Duplicate Content-Session auf der SMX Advanced

Anfang Juni nahm ich an der Duplicate Content-Session auf der SMX Advanced in Seattle teil. Ich konnte der Versuchung nicht widerstehen zu demonstrieren, wie sich Buffy in der alltäglichen Search Marketing Welt wiederfindet. Aber hauptsächlich war ich dort, um von euren Duplicate Content-Problemen zu erfahren und Ideen zu sammeln, wie Suchmaschinen dabei helfen können.


Vor einigen Monaten verfasste Adam einen großartigen Beitrag zum
Umgang mit Duplicate Content. Dies sind die wichtigsten Dinge, die man über Duplicate Content wissen sollte:

  • Google will einmalige Ergebnisse liefern und wählt deswegen automatisch eine Version aus, falls eure Websites Duplicate Content aufweisen. Falls ihr euch also nicht die Mühe machen wollt, eure Duplikate auszusieben, könnt ihr einfach uns dafür Sorge tragen lassen.
  • Duplicate Content auf eurer Site führt nicht zu Penalties. Wenn doppelte Seiten erkannt werden, taucht im Interesse der Ergebnisvielfalt nur eine Version in den Suchergebnissen auf.
  • Duplicate Content führt nicht dazu, dass eure Site in die Supplemental Results rutscht. Allerdings kann dies indirekt ausgelöst werden, falls verschiedene Links auf die unterschiedlichen Versionen eurer Seite zeigen und so einen niedrigeren PageRank verursachen.


Auf der SMX Advanced-Konferenz fragten wir, welche Duplicate Content-Probleme für euch am gravierendsten sind. Das Publikum war am meisten besorgt über Scraper-Sites, die Mehrfachverwendung von Content mittels Feeds (d.h. syndication) und über interne Duplizierung. Wir haben dazu eine Menge potenzieller Lösungen diskutiert und werden diese – wie auch andere – bei der Weiterentwicklung unseres Toolsets berücksichtigen. Für diejenigen, die nicht an der Diskussionsrunde teilnehmen konnten, ist hier die Liste mit den möglichen Lösungen, die wir besprochen haben:


Festlegung der bevorzugten Version einer URL in der Sitemap-Datei

Eine Möglichkeit, die wir diskutierten, ist die Festlegung der bevorzugten Version einer URL in einer Sitemap-Datei. Wenn wir eine Vielzahl an URLs finden, die zu ein und demselben Content zeigen, könnten wir die Links zu der bevorzugten Seite bündeln und nur diese indexieren, so der Vorschlag.

Angebot einer Methode zur Kennzeichnung von Parametern, die bei der Indexierung wegfallen sollen

Wir diskutierten darüber, dies entweder in einem Interface wie den Webmaster-Tools oder aber über die robots.txt-Datei einer Website anzubieten. Falls eine URL zum Beispiel Session-IDs enthält, könnte der Webmaster die Variable der Session-ID als solche kennzeichnen. Dies würde Suchmaschinen helfen, eine sauberere Version der URL zu indexieren und die Links zusammenzufassen. Das Publikum tendierte zu einer Erweiterung der robots.txt-Datei für diese Zwecke.

Angebot einer Authentifizierungsmethode für Content-Eigentum

Dies würde Suchmaschinen mit zusätzlichen Informationen versorgen um sicherzustellen, dass wir die Originalversion eines Artikels indexieren statt eine gescrapte oder eine über Feeds verbreitete Version. Bitte beachtet, dass wir hier bereits einen ziemlich guten Job machen und nicht viele Teilnehmer im Publikum dies als ein Hauptproblem ansahen. Das Publikum war jedoch interessiert an einer Form der Authentifizierung als zusätzlichem Schutz. Einige schlugen vor, jeweils die Seite mit dem frühesten Datum zu verwenden; aber Erstellungszeitpunkte sind nicht immer zuverlässig. Es schlug auch jemand vor, dass Website-Inhaber ihren Content registrieren lassen können. Dies könnte aber auch Probleme hervorrufen, da nicht so findige Website-Inhaber vielleicht nicht wissen, wie man Content registriert. Dadurch könnte passieren, dass jemand anderes den Content stattdessen für sich registriert. Im Moment stützen wir uns auf eine Anzahl von Faktoren wie etwa die Autorität einer Website und die Anzahl an Backlinks. Für die Weiterverbreitung von Content mittels Feeds schlagen wir vor, dass ihr die Websites, die euren Content verwenden wollen, dazu anhaltet, ihre Version mittels der robots.txt-Datei zu blocken. So stellt ihr sicher, dass nur eure Version in den Suchergebnissen erscheint.

Bereitstellung eines Duplicate Content-Berichts für Website-Inhaber

Es gab großen Zuspruch für die Idee eines Duplicate Content-Berichts, in welchem aufgelistet würde, welche Seiten innerhalb eurer Website von Suchmaschinen als Duplikate angesehen werden, wie auch, welche Seiten auf anderen Websites Duplikate eures Contents sind. Außerdem diskutierten wir die Möglichkeit einer Alarmfunktion in diesem Bericht, so dass Website-Inhaber via Email oder RSS über neue Duplicate Content-Probleme benachrichtigt werden könnten (vor allem bei externer Duplizierung).

Zusammenarbeit mit Blogging-Software und Content Management Systemen an Duplicate Content-Fragen

Einige Probleme um Duplicate Content begründen sich darauf, wie eine Software eine Website erstellt und die URLs strukturiert. Zum Beispiel könnte ein Blog denselben Content auf der Homepage, einer Permalink-Seite, einer Kategorieseite und einer Archivseite haben. Wir sind auf jeden Fall bereit, mit Software-Herstellern über Wege zu sprechen, wie man den Usern einfache Lösungen bereitstellen kann.

Neben der Diskussion potenzieller Lösungen für Duplicate Content-Probleme hatte das Publikum auch einige Fragen.

Q: Wie reagieren Suchmaschinen darauf, wenn ich eine ganze Reihe von internen Links mit dem NoFollow-Attribut versehe, um Probleme mit Duplicate Content zu reduzieren?

Die Anzahl an Nofollow-Links auf einer Website wird nicht als negatives Signal bewertet. Es ist jedoch möglicherweise nicht die beste Methode, Suchmaschinen vom Crawlen duplizierter Seiten abzuhalten, weil ja auch andere Websites zu dieser Seite linken könnten. Eine bessere Methode wäre es, Seiten, die nicht gecrawlt werden sollen, mittels der robots.txt-Datei zu blocken.

Q: Werden Suchmaschinen weiterhin mit Sitemaps zusammen arbeiten?

Wir haben sitemaps.org im November letzten Jahres gelauncht und uns seitdem weiterhin regelmäßig getroffen. Im April fügten wir die Option hinzu, dass ihr uns in der robots.txt-Datei über eure Sitemap informieren könnt. Wir wollen weiterhin zusammen an solchen Initiativen arbeiten, um euch das Leben als Webmaster einfacher zu machen.

Q: Viele Seiten auf meiner Website bestehen hauptsächlich aus Schaubildern, die auf jeder Seite unterschiedlich sind. Wie kann ich sicherstellen, dass Suchmaschinen diese Seiten nicht für Duplikate halten, weil sie die Bilder nicht interpretieren können?

Um sicherzustellen, dass Suchmaschinen diese Seiten als Unikate erkennen, solltet ihr auf jeder Seite unterschiedlichen Text einfügen (zum Beispiel unterschiedliche Titel, Bildunterschriften oder Beschreibungen für jedes Schaubild) sowie Alt-Texte für jedes Bild. (Zum Beispiel alt=“Bild, das Willows Entwicklung zum Bösen zeigt” statt einfach alt=“Bild”)

Q: Ich habe meinen Content an viele Affiliates weitergegeben, und nun ranken einige dieser Sites besser als meine Website. Was kann ich tun?

Wenn eurer Content verteilt ist, mag es notwendig sein, den Content auf eurer Seite aufzuwerten und zu erweitern, um eure Website einzigartig zu machen.

Q: Bei der Websuche möchte ich Duplikate in den Suchergebnissen sehen. Könnt ihr das als eine Option anbieten?

Wir wissen, dass die meisten User es vorziehen, keine Duplikate in den Suchergebnissen zu sehen. Die Fragestellerin meinte im Besonderen, dass sie eine Information möglicherweise nicht von einer bestimmten Website bekommen möchte und daher gern andere Optionen hätte. In diesem Fall haben andere Websites jedoch wahrscheinlich nicht identischen Content und würden daher in den Suchergebnissen erscheinen. Denkt daran, dass ihr den “&filter=0”-Parameter hinter der Google Web Search-URL angeben könnt, um weitere ähnliche Resultate zu erhalten.

Ich habe alle diese Fragen und mögliche Lösungen zurück in mein Team und zu anderen Googlern gebracht. Wir werden weiterhin daran arbeiten, die besten Suchergebnisse zu liefern und die Zusammenarbeit mit euch, den Webmastern, auszuweiten. Wenn ihr weitere Gedanken hierzu habt, wir würden sie liebend gern hören!


Original


Post von Vanessa Fox (Übersetzung von Manuel, Search Quality)

Freitag, 22. Juni 2007 um 13:16

Google´s E-Mail Kommunikation mit Webmastern

In den letzten Tagen gab es nochmals Versuche, deutsche Webmaster durch falsche E-Mails von Google zu verunsichern. Diese E-Mails stammen nicht von Google. Seit einigen Wochen hat Google die Benachrichtigung von Webmastern durch E-Mails eingestellt. Google arbeitet derzeit an einem zuverlässigeren Webmaster-Kommunikationsprozess.

Mittwoch, 20. Juni 2007 um 19:19

Mehr Möglichkeiten für euch, uns Input zu geben

In Google arbeiten wir ständig daran, unsere User mit den bestmöglichen Suchergebnissen zu versorgen. Unser Spam-Bericht ist eine grossartige Möglichkeit euren Input in unsere Arbeit an der Verbesserung der Ergebnisse einfliessen zu lassen. Manche von euch haben auch nach einer Möglichkeit gefragt, um bezahlte Links zu melden.

Links sind ein wichtiger Faktor in unserer PageRank-Berechnung, da sie angeben, wie nützlich jemand eine Seite findet. Gekaufte Links sind zwar wunderbar für Werbung und Traffic, jedoch weniger hilfreich für die Berechnung des PageRank. Das Kaufen und Verkaufen von Links mit dem Ziel, die Suchergebnisse zu manipulieren und Suchmaschinen in die Irre zu führen, verstößt gegen unsere Richtlinien.

Als Reaktion auf eure Nachfragen bieten wir jetzt innerhalb der Webmaster-Tools ein Berichtformular für bezahlte Links an. Um das Formular zu verwenden, loggt euch einfach ein und gebt Informationen über die Sites an, die Links rein zum Zweck der Suchmaschinenmanipulation kaufen und verkaufen. Wir werden jeden Bericht prüfen und auf Basis dieser Feedbacks unseren Algorithmus und unsere Suchergebnisse verbessern. In manchen Fällen kann es sein, dass wir gegen Sites einzeln vorgehen.

Falls ihr Links zu Werbezwecken verkauft, dann gibt es viele Möglichkeiten, dies zu kennzeichnen, wie zum Beispiel:

  • Einfügen eines rel="nofollow"-Attributs in den href-Tag
  • Umleiten der Links auf eine Zwischenseite, die per robots.txt für Suchmaschinen gesperrt ist
Wir legen großen Wert auf euren Input und freuen uns darauf, unsere gute Partnerschaft mit euch weiterhin zu vertiefen.

Original

Post von Vanessa Fox (Übersetzung von Claudia, Search Quality)

Donnerstag, 14. Juni 2007 um 19:07

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.