Posted:
Jetzt, wo sich die Sonne nicht zu früh verzieht und die Abende anständig lang sind, zieht es viele von uns raus ins Freie und wir geben uns der altehrwürdigen Kunst des Grillens hin. Wenn es darum geht, unter freiem Himmel Essen zu braten, werden allerlei Tools verwendet - von primitiv bis futuristisch. Manchen reicht ein kleines Lagerfeuer für die authentische Naturerfahrung, andere stehen auf Geräte mit Edelstahl- und Infrarotbrennern, die selbst einen Grillweltmeister vor Neid erblassen lassen.

Eine interessante Variation des Grillens unter freiem Himmel ist das Solarkochen. Diese Kunst paart einfachste Mittel mit modernem Erfindergeist. Grundlage des Solarkochens ist ein "Ofen", der in die pralle Sonne gestellt wird und die darin befindliche Nahrung passiv erhitzt. Es ist ganz einfach, ein Solarkoch zu werden, denn man kann sich die entsprechende Hardware mit ein wenig Mühe aus preiswerten Bauteilen selbst basteln. Der Reiz der schlichten und kostengünstigen Do-It-Yourself-Methode gewinnt immer mehr Anhänger, die ihre
eigenen Solarkocher konstruieren.

Wie das mit Webmastern zusammenhängt? Auch in der Webmaster-Community benutzt man verschiedene Tools auf unterschiedlichste Art und Weise. Genau wie in der Grillszene gibt es in der Webmaster-Community manche, die ihre eigenen Werkzeuge fabrizieren und weitergeben. In unseren Gesprächen mit Webmastern haben wir immer wieder großes Interesse daran bemerkt, dass wir unsere Webmaster-Tools zum Zweck der Einbindung für Drittanbieter öffnen. Wir haben uns diesen Vorschlag zu Herzen genommen und ich freue mich bekannt geben zu können, dass wir eine API für die Webmaster-Tools veröffentlichen. Die unterstützten Features der ersten Version sind Folgende:

  • Verwaltung von Websites
    • Ruft eine Liste eurer Sites in den Webmaster-Tools ab
    • Fügt eure Sites zu den Webmaster-Tools hinzu
    • Verifiziert eure Sites in den Webmaster-Tools
    • Entfernt eure Sites aus den Webmaster-Tools
  • Bearbeitung von Sitemaps
    • Ruft eine Liste eurer eingereichten Sitemaps ab
    • Fügt Sitemaps zu den Webmaster-Tools hinzu
    • Entfernt Sitemaps aus den Webmaster-Tools
Die gegenwärtige API verfügt nur über einen Teil der Funktionalität der Webmaster-Tools. Doch dies ist ja erst der Anfang. Schaut euch doch mal den Developer's Guide for the Webmaster Tools Data API an und legt dann gleich mit der API los.

Also, Webmaster... ran an eure selbstkonstruierten Tools und lasst es brutzeln!


Get Cooking with the Webmaster Tools API (English version)

Post von Jonathan Simon, Webmaster Tools Team (Übersetzung von Jörg, Search Quality)

Posted:
Vor zwei Jahren haben wir Google Trends gelauncht, ein Tool, das es allen ermöglicht festzustellen, wonach weltweit gerade gesucht wird. Außerdem könnt ihr damit das weltweite Interesse an euren Lieblingsthemen vergleichen. Letztes Jahr haben wir Hot Trends hinzugefügt, was euch die gerade aktuellen Suchanfragen anzeigt - die am schnellsten wachsenden Suchanfragen bei Google, stündlich aktualisiert. Und seit letzter Woche stellen wir die normalisierten Zahlen zum Suchvolumen in Google Trends zum Export bereit.

Nun haben wir eine neue Ebene bei Google Trends hinzugefügt: Google Trends für Websites, ein nettes Tool, das euch einen Eindruck davon vermittelt, wie beliebt eure Lieblings-Sites sind - einschließlich eurer eigenen Site! Außerdem vergleicht und ordnet das Tool die Besucher nach Orten und zeigt zusätzlich verwandte Sites und dazugehörige Suchanfragen.

Schauen wir uns einmal ein Beispiel an - die Veröffentlichung des "In Rainbows"-Albums von Radiohead. Als Teil unseres jährlichen Zeitgeist-Berichts posten wir die am schnellsten anwachsenden Suchbegriffe und im letzten Jahr setzte sich radiohead an die Spitze als am schnellsten anwachsender Suchbegriff im letzten Quartal des Jahres 2007.

Mithilfe von Google Trends können wir das Such-Volumen von radiohead verglichen mit in rainbows über die letzten 12 Monate verfolgen.

radiohead vs. in rainbows

Mittels Hot Trends können wir erkennen, dass am 10. Oktober (der Veröffentlichungstermin von In Rainbows) die meisten Leute hauptsächlich am Download von In Rainbows und an Kritiken des neuen Albums interessiert waren.

Mit Trends für Websites kann das Ganze nun aus einer zusätzlichen Perspektive betrachtet werden: Wir können sehen, wie sich die Anzahl der unterschiedlichen Besucher (unique visitors) von radiohead.com und inrainbows.com im Verlauf der letzten 12 Monate entwickelt hat. Außerdem werden die Länder angezeigt, wo diese Sites besonders beliebt waren, sowie verwandte Sites und Suchbegriffe.

radiohead.com vs. in rainbows.com

Wir können erkennen, dass radiohead.com (die blaue Linie) im Oktober 2007 einen riesigen Popularitätsschub erlebte. Die Veröffentlichung von In Rainbows hat viele Leute dazu bewegt, die Website der Band zu besuchen. Die Site des Albums, inrainbows.com (die rote Linie), hatte einen noch dramatischeren Anstieg zu verzeichnen - wahrscheinlich deshalb, weil es auf dieser Site das Album zum Download gab. Außerdem lässt sich erkennen, dass der Traffic auf radiohead.com insgesamt zugenommen hat, selbst als der Traffic auf inrainbows.com zurückgegangen ist.

Beachtet bitte, dass Trends für Websites ein Tool von Google Labs ist und wir daran arbeiten, die Qualität der gezeigten Daten zu verbessern. Weil die Daten auf Hochrechnungen und einer Anzahl unterschiedlicher Quellen basieren, ist es möglich, dass sie von anderen Quellen, die ihr zum Ermitteln eurer Traffic-Daten verwendet, abweichen. Weitere Informationen könnt ihr in unseren FAQ für Website-Betreiber finden.

Besucht einfach Google Trends, um euch Trends für Websites anzuschauen!

A new Layer to Google Trends (English version)

Post von R.J. Pittman, Director of Product Management - Consumer Search Properties (Übersetzung von Sven, Search Quality)

Posted:
Webmaster fragen uns oft, wie sie ihre Sichtbarkeit im Netz steigern können. Viel davon hat mit Suchmaschinenoptimierung zu tun, d. h. sicherzustellen, dass der Content eines Publishers in allen Suchmaschinen erscheint.

Jedoch gibt es einige Fälle, in denen Webmaster den Suchmaschinen zusätzliche Information mitteilen müssen - beispielsweise, wenn sie gewisse Seiten davon abhalten wollten, in den Suchergebnissen aufzutauchen. Dafür verwenden sie das sogenannte Robots-Exclusion-Protokoll (REP), über welches Webmaster kontrollieren können, wie Suchmaschinen auf ihre Site zugreifen - ob es nun darum geht, die Sichtbarkeit des Contents der gesamten Site zu kontrollieren (über die robots.txt-Datei) oder auf kleinerem Level für einzelne Seiten (über META-Tags).

Seit seiner Einführung in den frühen 90ern ist REP zum Standard geworden, mit dem Webmaster spezifizieren können, welche Teile ihrer Site sie veröffentlichen und welche Teile sie privat halten möchten. Heute benutzen Millionen von Publishern REP, um einfach und effizient mit Suchmaschinen zu kommunizieren. Die Stärke von REP liegt in dessen Flexibilität, sich parallel zum Netz mit zu entwickeln, in dessen übergreifenden Einsatzmöglichkeiten für alle großen Suchmaschinen und alle großen Robots und in der Art und Weise, wie es von jedem Publisher, ob groß oder klein, angewendet werden kann.

Obwohl REP im Grunde von allen Suchmaschinen anerkannt wird, haben wir nie versucht, gemeinsam genauer zu bestimmen, wie wir die unterschiedlichen Tags jeweils interpretieren. In den letzten Jahren haben wir mit Microsoft und Yahoo! zusammengearbeitet, um Standards wie Sitemaps festzulegen und zusätzliche Tools für Webmaster anzubieten. Seit der ursprünglichen Ankündigung haben wir weitere Verbesserungen basierend auf Feedback der Community eingeführt - und wir werden dies auch in Zukunft tun.

Unserem Motto folgend, den Webmastern das Leben einfacher zu machen, werden wir heute eine genauere Dokumentation darüber veröffentlichen, wie wir REP implementieren. Dies soll Webmastern eine übergreifende Implementierung anbieten und es für Publisher deutlicher machen, wie ihre REP-Anweisungen von drei großen Suchmaschinen interpretiert werden - REP wird also für noch mehr Webmaster im Netz intuitiver und leichter zu handhaben sein.

Allgemeine REP-Anweisungen
Die folgende Liste zeigt alle größeren REP-Features, die derzeitig von Google, Microsoft und Yahoo! implementiert sind. Bei jedem Feature seht ihr, was es tut und wir ihr es einsetzen solltet.

Jede dieser Anweisungen kann dahingehend spezifiziert werden, ob sie für alle oder nur bestimmte Crawler bestimmt ist, indem sie nur bestimmte User-Agents ansprechen - anhand dessen kann jeder Crawler identifiziert werden. Zusätzlich zur Identifikation des User-Agents unterstützen alle unserer Crawler auch die Authentifizierung basierend auf Reverse-DNS , was hilft, deren Identität zu bestimmen.

1. Robots.txt-Anweisungen
ANWEISUNG
WIRKUNG
EINSATZMÖGLICHKEITEN
Disallow Veranlasst den Crawler, eure Site nicht zu indexieren - das robots.txt eurer Site muss jedoch gecrawlt werden, um diese Anweisung zu finden. Die per Disallow gesperrten Seiten werden jedoch nicht gecrawlt. 'No Crawl'-Seite einer Site. Diese Anweisung ist die Default-Syntax und bewahrt (einen) bestimmte(n) Pfad(e) einer Site davor, gecrawlt zu werden.
Allow Sagt dem Crawler, welche Seiten eurer Site indexiert werden sollen, so dass ihr diese Anweisung in Kombination mit Disallow verwenden könnt.
Dies ist vor allem im Zusammenhang mit Disallow-Anweisungen nützlich, durch die große Teile einer Site mit Disallow gesperrt sind außer eines kleinen Teils, der darin eingeschlossen ist.
$ Wildcard SupportSagt dem Crawler, alles ausgehend vom Ende einer URL zu suchen - bezieht sich auf eine große Anzahl von Verzeichnissen, ohne bestimmt Seiten anzugeben.'No Crawl'-Dateien mit bestimmten Mustern, z. B. Dateien eines bestimmten Dateityps, der immer eine bestimmte Erweiterung hat, wie etwa pdf.
* Wildcard Support Sagt dem Crawler, dass er nach einer Sequenz von Zeichen suchen soll. 'No Crawl'-URLs von einem bestimmten Muster, z. B. Disallow-URLs mit Session-IDs oder anderen überflüssigen Parametern.
Sitemaps Location Sagt dem Crawler, wo er eure Sitemaps finden kann. Auf andere Orte verweisen, an denen sich Feeds befinden, die Crawlern helfen, URLs auf einer Site zu finden.

2. HTML-META-Anweisungen
ANWEISUNG
WIRKUNG
EINSATZMÖGLICHKEITEN
NOINDEX META Tag Veranlasst den Crawler, eine bestimmte Seite nicht zu indexieren. Seiten sollen nicht indexiert werden. Dies ermöglicht es, dass Seiten, die gecrawlt wurden, nicht in den Index aufgenommen werden.
NOFOLLOW META Tag Sagt dem Crawler, dass er einem Link zu anderem Content auf einer bestimmten Seite nicht folgen soll. Schützt Bereiche, die öffentlich zugänglich sind, davor, von Spammern zu Linkzwecken missbraucht zu werden. Indem ihr NOFOLLOW einsetzt, lasst ihr den Robot wissen, dass ihr alle Links dieser Seite nicht zählen wollt.
NOSNIPPET META Tag Sagt dem Crawler, dass Snippets für eine bestimmte Seite in den Suchergebnissen nicht anzeigt werden sollen. Es soll kein Snippet für eine Seite in den Suchergebnissen angezeigt werden.
NOARCHIVE META Tag Sagt der Suchmaschine, dass für eine bstimmte Seite kein "cached" Link angezeigt werden soll. Ihr wollt den Usern keine Kopie der Seite im Cache der Suchmaschine zur Verfügung stellen.
NOODP META Tag Sagt dem Crawler, dass für eine bestimmte Seite nicht der Titel und das Snippet des Open Directory Projects verwendet werden soll. Für eine bestimmte Seite soll nicht der Titel und das Snippet aus dem ODP (Open Directory Project) verwendet werden.


Diese Anweisungen können auf alle Arten von Content angewendet werden. Sie können entweder in das HTML einer Seite oder in den HTTP-Header für Nicht-HTML-Content eingebunden sein, wie z. B. PDF oder Video, die einen X-Robots-Tag verwenden. Mehr darüber könnte ihr hier lesen: Post über den X-Robots-Tag oder in unserer Serie von Posts über Bots und Meta-Tags.

Andere REP-Anweisungen
Die oben gelisteten Anweisungen werden von Microsoft, Google und Yahoo! verwendet, sie sind aber unter Umständen nicht von allen Suchmaschinen implementiert. Zusätzlich werden die folgenden Anweisungen zwar von Google, nicht aber wie die obigen Anweisungen durchgängig von allen drei Suchmaschinen unterstützt.

UNAVAILABLE_AFTER Meta Tag - Sagt dem Crawler, wann eine Seite "verfallen" soll, z. B. nach welchem Datum sie nicht mehr in den Suchergebnissen auftauchen soll.

NOIMAGEINDEX Meta Tag - Sagt dem Crawler, dass Bilder für eine bestimmte Seite nicht in den Suchergebnissen angezeigt werden sollen.

NOTRANSLATE Meta Tag - Sagt dem Crawler, dass der Content einer Seite nicht für die Suchergebnisse übersetzt werden soll.

In Zukunft wollen wir weiter zusammenarbeiten, um es Webmastern so einfach wie möglich zu machen, neue Einsatzweisen von REP verwenden zu können, sobald diese aufkommen. Bleibt also dran!

Weitere Informationen
Mehr zum Thema robots.txt könnt ihr auf http://www.robotstxt.org finden, und in Googles Hilfe für Webmaster, die hilfreiche Informationen enthält wie:
Wir haben auch einige Posts in unserem Webmaster-Blog zur robots.txt-Datei, die ihr vielleicht hilfreich findet, wie:
Es gibt auch eine hilfreiche Liste der Bots, die von anderen großen Suchmaschinen eingesetzt werden.

Ihr könnt auch die Blogposts von Yahoo! und Microsoft lesen, um zu sehen, was unsere Kollegen zu dem Thema zu sagen haben.

Englisches Original

Post von Prashanth Koppula, Product Manager (Übersetzung von Claudia, Search Quality)

Posted:
Das Thema Duplicate Content wird bei vielen Webmastern immer noch rege diskutiert, daher möchte ich hier auf einige häufige Fragen eingehen, die ihr auf Konferenzen und in unserem Forum für Webmaster gestellt habt.

Zunächst möchte ich kurz auf eine häufig geäußerte Sorge eingehen: Die Tatsache, dass ihr in den meisten Fällen keinen Einfluss darauf habt, wenn Dritte Inhalte eurer Site kopieren. Uns ist bewusst, dass dies nicht die Schuld der betroffenen Webmaster ist. Daher betrachten wir identischen Content, der auf verschiedenen Sites auftaucht, nicht von vornherein als Verstoß gegen unsere Richtlinien für Webmaster. Wir versuchen in solchen Fällen lediglich herauszufinden, welches der jeweilige Original-Content ist - was in den meisten Fällen auch gut gelingt und somit keinerlei negative Effekte für die Site mit dem Original-Content mit sich bringt.

Prinzipiell können wir bei Duplicate Content zwei typische Fälle unterscheiden:
  • Duplicate Content innerhalb eurer Site, d. h. doppelt vorhandene Inhalte, die (häufig unbeabsichtigt) an mehreren Stellen eurer Site auftauchen.

  • Duplicate Content über verschiedene Sites verteilt, d. h. Inhalte eurer Site erscheinen (auch hier meistens unbeabsichtigt) identisch auf externen Sites.
Im ersten Fall könnt ihr gut selbst die Initiative ergreifen, um zu vermeiden, dass wir doppelte Inhalte eurer Site indexieren. Schaut euch einfach mal Adam Lasniks Post Duplicate Content - Best Practice bei dupliziertem Inhalt und den Post Duplicate Content-Session auf der SMX Advanced von Vanessa Fox an. Diese Posts geben euch praktische Tipps, was ihr bei Problemen mit Duplicate Content auf eurer Site tun könnt. Ein weiterer Vorschlag: Stellt in eurer Sitemap die bevorzugte Version eurer URLs bereit. Wenn wir beim Crawlen verschiedene Seiten mit den gleichen Inhalten finden, erhöht die Angabe der bevorzugten Version der URL in der Sitemap die Wahrscheinlichkeit, dass wir in den Suchergebnissen die von euch bevorzugte Version anzeigen. Weitere Informationen dazu findet ihr in unserem umfangreichen Artikel in der Hilfe für Webmaster.

Im zweiten Fall kann es sein, dass jemand Inhalte eurer Seite kopiert und auf externen Seiten platziert - häufig um Geld mit diesen "gestohlenen" Inhalten zu verdienen. Ebenso gibt es viele Web-Proxies, die Inhalte der Seiten indexieren, die über den Proxy aufgerufen wurden. Wenn wir solche doppelt vorhandenen Inhalte erkennen, dann prüfen wir verschiedene Signale, um die Site mit dem Original-Content zu ermitteln, was in der Regel gut funktioniert. Ihr müsst euch daher keine Sorgen machen, falls ihr feststellt, dass eurer Content gescrapt wurde.
Wenn ihr bewusst Inhalte weitergebt, z. B. an mehrere Syndication-Partner, dann solltet ihr darauf achten, dass eure Partner einen Link zurück auf euren Original-Content setzen.

Einige Webmaster fragen uns oft, was die Gründe dafür sein könnten, wenn eine Site mit gescraptem Content höher rankt als die Site mit dem Original-Content. Dies sollte nur recht selten vorkommen, aber falls ihr euch einmal in dieser Situation befindet, können euch diese Tipps weiterhelfen:
  • Prüft, ob eure Inhalte noch für unsere Crawler erreichbar sind:
    Eventuell habt ihr mit einer Änderung in eurer robots.txt-Datei bestimmte Inhalte vom Crawlen ausgeschlossen.

  • Überprüft eure Sitemap-Datei: Gibt es dort Änderungen, die den Content betreffen, der gescrapt wurde?

  • Stellt sicher, dass eure Site mit unseren Richtlinien für Webmaster übereinstimmt.
Abschließend möchte ich nochmal erwähnen, dass Duplicate Content in der Mehrzahl der Fälle keine negativen Effekte auf das Ranking eurer Site in unseren Suchergebnissen hat. Die doppelten Inhalte werden ganz einfach herausgefiltert, und wenn ihr euch einige der Tipps in den oben erwähnten Links anschaut, dann habt ihr durch deren Anwendung einfach eine größere Kontrolle darüber, was genau von uns gecrawlt wird und welche Versionen eurer Inhalte mit größerer Wahrscheinlichkeit in den Suchergebnissen erscheinen. Ein Verstoß gegen unsere Richtlinien für Webmaster liegt nur in den Fällen vor, wenn deutlich ist, dass Duplicate Content vorsätzlich und mit böswilliger Absicht erstellt wurde.

Wenn ihr über dieses Thema weiter diskutieren wollt, besucht unser Forum für Webmaster.

Post von Sven Naumann, Search Quality Team

Posted:
Vor ungefähr einem Jahr haben wir als Reaktion auf User-Feedback ein Berichtformular für bezahlte Links in den Webmaster-Tools eingerichtet. Das Feedback unserer User in Form von Meldungen bezahlter Links, Webspam oder Vorschlägen im Diskussionsforum für Webmaster ist außerordentlich wertvoll dabei sicherzustellen, dass die Qualität unseres Indexes und unserer Tools so gut wie möglich ist. Hier möchte ich die Bedeutung hervorheben, die die Meldungen von bezahlten Links und Webspam für unseren Index haben. In einem weiteren Post werde ich beleuchten, wie das Feedback und die Anliegen im Forum für Webmaster uns dabei geholfen haben, unsere Hilfe für Webmaster und die Webmaster-Tools zu verbessern.

Bezahlte Links melden

Wie wir in dem Post Informationen zum Kauf und Verkauf von Links, die PageRank vererben betont haben, behält sich Google das Recht vor, Maßnahmen gegenüber Sites zu ergreifen, die PageRank vererbende Links kaufen oder verkaufen, um Suchergebnisse zu manipulieren. Wir arbeiten hart daran, diese Links mittels algorithmischer Erkennung herabzusetzen, doch wenn ihr eine Site seht, die PageRank vererbende Links kauft oder verkauft, dann lasst es uns bitte wissen. Im Lauf des vergangenen Jahres reichten User Tausende von Berichten zu bezahlten Links bei Google ein, und jeder Bericht kann mehrere Websites enthalten, die im Verdacht stehen, Links zu verkaufen. Diese Meldungen werden aktiv überprüft und das Feedback ist äußerst hilfreich zur Verbesserung unserer Suchalgorithmen. Wir sind auch dazu bereit, manuelle Maßnahmen für einen großen Teil der Berichte bezahlter Links vorzunehmen, während wir fortwährend daran arbeiten, unsere Algorithmen zu verbessern. Wichtiger noch, der große Einsatz unserer User, die uns bereits bezahlte Links mitgeteilt haben, hat dabei geholfen, die Qualität unseres Indexes für Millionen von Usern zu verbessern. Dieser Artikel in der Hilfe für Webmaster bietet euch weitere Informationen über das Melden bezahlter Links.

Webspam melden

Seit November 2001 bietet Google ein Formular an, über das man Webspam melden kann. Wir schätzen es, wenn uns User zum Wohl der gesamten Internet-Community auf möglichen Missbrauch aufmerksam machen. Es gibt zwei Arten von Spam-Reports: ein authentifiziertes Formular, das die Anmeldung in den Webmaster-Tools vorraussetzt, und ein nicht authentifiziertes Formular. Wir erhalten täglich Hunderte von Spam-Reports. Die Spam-Reports, die mittels des authentifizierten Formulars eingereicht werden, werden stärker gewichtet und öfter individuell untersucht. Spam-Reports, die mittels des nicht authentifizierten Formulars eingereicht werden, werden nach ihrer Auswirkung eingestuft, und ein großer Teil dieser Reports wird ebenfalls überprüft. Udi Manber, VP Engineering & Search Quality, erwähnte in seinem kürzlich veröffentlichten Blogpost, dass im Jahr 2007 mehr als 450 neue Verbesserungen an unseren Suchalgorithmen vorgenommen wurden. Es ist keine Übertreibung zu sagen, dass User, die sich die Zeit genommen haben, uns auf Spam hinzuweisen, wesentlich zu vielen dieser algorithmischen Verbesserungen beigetragen haben.

In Zukunft

Da die Erwartungen der User an die Suche täglich steigen, wissen wir, dass es wichtig ist, einen Index von hoher Qualität mit relevanten Suchergebnissen anzubieten. Wir freuen uns immer darüber, in unserem Forum für Webmaster Geschichten über Spam-Reports zu hören, die merkliche Ergebnisse erzielt haben. Nachdem ihr jetzt wisst, wie Google Feedback verwendet, um die Qualität unserer Suche zu verbessern, wollt ihr uns vielleicht auch auf Webspam hinweisen, den ihr in unseren Ergebnissen gesehen habt. Verwendet bitte unser authentifiziertes Formular, um uns auf bezahlte Links oder andere Arten von Webspam hinzuweisen. Noch einmal vielen Dank, dass ihr euch die Zeit nehmt, zu unseren Verbesserungen beizutragen!

The Impact of User Feedback, Part 1 (English version)

Post von Reid Yokoyama, Search Quality (Übersetzung von Johanna, Search Quality)

Posted:
Viele von euch haben uns nach weiteren Informationen über verschiedene Techniken im Zusammenhang mit Webservern gefragt - insbesondere im Zusammenspiel mit Googlebot. Aus diesem Grund haben wir ein kurzes Glossar erstellt, um auf einige der ausgefalleneren Methoden einzugehen.
  • Geolocation: Usern zielgerichteten bzw. unterschiedlichen Content liefern, abhängig davon, wo sie sich befinden. Als Webmaster könnt ihr den Ort des Users beispielsweise anhand der gespeicherten Einstellungen in einem Cookie ermitteln, ebenso aus Informationen, die mit dem Login des Users verknüpft sind oder anhand der IP-Adresse des Users. Angenommen, ihr betreibt eine Site über Baseball, dann könntet ihr Geolocation-Methoden anwenden, um z. B. bei Usern aus New York die Yankees auf eurer Site hervorzuheben.

    Wichtig ist hierbei, dass ihr Googlebot genauso behandelt wie einen gewöhnlichen User aus derselben Gegend bzw. einem ähnlichen IP-Bereich etc. (d. h. ihr solltet Googlebot nicht so behandeln, als käme er aus einem separaten Land - das wäre Cloaking).

  • IP-Delivery: Usern zielgerichteten bzw. unterschiedlichen Content liefern, abhängig von ihrer IP-Adresse, da die IP-Adresse häufig Schlüsse über deren geografischen Ort zulässt. Da IP-Delivery als besondere Form von Geolocation betrachtet werden kann, gelten hierbei ähnliche Regeln. Googlebot sollte den gleichen Content sehen, den ein gewöhnlicher User mit der gleichen IP-Adresse sehen würde.




  • Cloaking: Usern wird anderer Content präsentiert, als ihn Googlebot sieht. Dies steht nicht im Einklang mit unseren Richtlinien für Webmaster. Wenn die Datei, die Googlebot crawlt, nicht identisch mit der Datei ist, die ein gewöhnlicher User sieht, kann das als Problem eingestuft werden. Programme wie beispielsweise "md5sum" oder "diff" können einen Hash-Wert berechnen, um zu überprüfen, ob zwei Dateien identisch sind.

  • An den ersten Klick sind keine Bedingungen geknüpft: Indem ihr eure Site so gestaltet, dass sie unserem Grundsatz von "An den ersten Klick sind keine Bedingungen geknüpft" folgt, könnt ihr euren kostenpflichtigen oder abo-basierten Content in unserer Suche bereitstellen, ohne gegen unsere Richtlinien für Webmaster zu verstoßen. Ihr gestattet dabei den Usern, die über die Google-Suche auf eure Site kommen, den gesamten Text des jeweiligen Dokuments zu sehen - selbst wenn sie noch nicht registriert bzw. noch kein Abonnent sind. Der erste Klick der User zu eurem Content ist also kostenlos. Sobald die User auf einen anderen Bereich der Site klicken, könnt ihr dann eine entsprechende Registrierungsseite bzw. eine Seite mit den Zahlungsmöglichkeiten anzeigen.

    Wenn ihr dieses Modell nutzen wollt, solltet ihr sicherstellen, dass der Content, den User beim Klick auf ein Suchergebnis sehen, identisch ist mit dem Content, den Googlebot sieht.
Ihr habt noch weitere Fragen? Schaut doch einfach im Forum für Webmaster vorbei!

How Google defines IP delivery, geolocation, and cloaking (English version)

Post von Maile Ohye, Search Quality (Übersetzung von Sven, Search Quality)

Posted:
In den vergangenen Monaten kamen besonders im deutschen Markt vermehrt Fragen dazu auf, wie ihr Webkataloge erstellen könnt, die als inhaltlich hochwertig angesehen werden. Wir möchten daher die Webverzeichnislandschaft etwas beleuchten, um denen unter euch zu helfen, die einen Webkatalog pflegen oder gerade dabei sind, ein Webverzeichnis zu erstellen.

In Google arbeiten wir ständig daran, unseren Usern Content von hoher Qualität anzubieten. Sehr viele Webverzeichnisse erfüllen jedoch diesen Qualitätsstandard leider nicht und bieten unseren Usern keinen entsprechend guten Content an: sie enthalten weder genügend sinnvolle Einträge noch bieten sie irgendeinen redaktionellen Service, um aus unserer Sicht als befriedigende Suchergebnisse für unsere User zu gelten. Was sehen wir also als den eigentlichen Zweck eines Webverzeichnisses an? Idealerweise finden User relevante Einträge vor, die sie zu wertvollen Informationsquellen führen.

Was sind die Zutaten für einen guten Webkatalog?

Mit diesen Überlegungen im Hinterkopf würden wir euch gern einige Tipps geben, die euch dabei helfen sollen, einen guten Webkatalog zu erstellen:
  • Wählt ein klares Thema für euer Verzeichnis: Versucht, Informationen über ein bestimmtes Nischenthema anzubieten, welches euch und euren Usern am Herzen liegt - je allgemeiner ein Verzeichnis ist, umso schwieriger ist es, ein durchgehend hohes Qualitätsniveau zu halten.
  • Erstellt eine gute Struktur mit themenrelevanten Kategorien, und sorgt dafür, dass diese auch relevante Einträge enthalten: Eure User werden sich darüber freuen, wenn sie auf einen Blick erfassen können, welche Themen ihr in dem Verzeichnis abdeckt, und sie dann auch tatsächlich die gesuchte Information in den entsprechenden Kategorien vorfinden.
  • Stellt die Qualität sicher, indem ihr organische und gut editierte Einträge und Beschreibungen anbietet: Nehmt euch die Zeit die Einträge, die Leute euch für den Webkatalog zuschicken, zu überprüfen - sorgt dafür, dass sie zum Thema passen und euren Usern nützen. Falls ihr alle Beiträge mit ungenügender oder ganz ohne redaktionelle Überprüfung akzeptiert, oder falls die URLs "spammy" sind, kann dies die Qualität des Verzeichnisses negativ beeinflussen. Stellt euch immer die Frage: Würde ich selbst zufrieden sein, falls ich diesen Eintrag in einem Webkatalog finde?
  • Überlegt, wie ihr einen Mehrwert schaffen könnt: Ihr müsst nicht gezwungenermaßen dort aufhören, wo euer Webkatalog endet - vielleicht lohnt es sich darüber nachzudenken, wie ihr Usern zusätzliche Informationen über das spezielle Thema anbieten könnt, wie beispielsweise durch zusätzliche Beiträge oder einen Blog - eventuell möchtet ihr ihnen auch die Möglichkeit geben, in einem Forum zu diskutieren.
Zusammengefasst: Überprüft, ob euer Webkatalog euren Usern wirklich etwas Wertvolles bietet, und ob er tatsächlich eine gute Informationsquelle zu Themen darstellt, zu denen User suchen.

Ist es in Ordnung, mit meinem Verzeichnis Geld zu verdienen?

Unsere Empfehlung ist hier: Legt eure Priorität zunächst auf den Content und nicht auf kommerzielle Aspekte oder Links.

Sicher ist es in Ordnung, wenn ihr Geld mit eurem Webkatalog verdient, solange ihr auch überzeugenden und guten Content für User anbietet. Falls ihr eine Gebühr dafür verlangt, in eurem Verzeichnis gelistet zu werden - wofür ist sie? User werden es anerkennen, falls eine mögliche Gebühr für die Mühe und Zeit verwendet wird, die es kostet, alle Einträge zu überprüfen und somit einen hohen Qualitätsstandard zu erhalten. Wir bemerken einen Trend weg vom redaktionell überprüften Webkatalog und hin zu Verzeichnissen mit gescrapten Einträgen oder bereits vorgefertigten Kategorien, vor allem da solche binnen kurzer Zeit mit einem Script oder Template erstellt werden können. Nun, es spricht nichts gegen Scripts oder Templates - sie können euch mitunter die Arbeit erleichtern und sehen oft gut aus. Behaltet letztlich jedoch den Wert für eure User im Auge, die nach originalen und relevanten Einträgen suchen. Verzeichnisse mit leeren Kategorien beispielsweise, die lediglich voll mit Werbelinks sind, bringen dem Webmaster vielleicht eine Handvoll bezahlter Klicks ein, aber letztlich stellen sie eine schlechte User-Erfahrung dar. Daher ist es unwahrscheinlich, dass sie in unseren Suchergebnissen gut gelistet werden.

Wie steht es mit Backlinks?

Wir empfehlen, es euren Usern zu überlassen, ob sie einen Link zu eurer Site setzen möchten, anstatt einen Backlink zu eurer Site zu einer Bedingung für die Aufnahme in eurer Verzeichnis zu machen. Linktausch mit dem Ziel, das Ranking in Suchmaschinen zu manipulieren, verstößt gegen unsere
Richtlinien für Webmaster. In diesem Post zum Thema Kauf und Verkauf von Links, die PageRank vererben, könnt ihr mehr Informationen dazu finden.

Faktoren, die ihr beachten solltet, bevor ihr eure Site in einem Webkatalog anmeldet


Falls ihr eine gute Website habt und User darauf aufmerksam machen möchtet, stellt euch die Frage, wo ihr den Eintrag zu eurer Site gelistet haben möchtet. Sicherlich mag es auf den ersten Blick attraktiv erscheinen, in allen möglichen Webkatalogen da draußen präsent zu sein. Automatische Eintragungsservices für Webverzeichnisse versprechen, dies ohne großen Aufwand für euch zu erledigen. Andererseits ist es die Mühe wert, die Verzeichnisse gezielt auszuwählen, um sicherzustellen, dass eure private oder geschäftliche Site in einem Verzeichnis von hoher Qualität gelistet wird, da dies auch von Usern entsprechend genutzt und geschätzt wird. Ihr könnt die Kriterien, die zu Beginn dieses Posts diskutiert wurden, zur Überprüfung heranziehen, ob das Verzeichnis, in dem eure Site gelistet ist, auch einem guten Qualitätsstandard entspricht.
Falls ihr dafür bezahlt, in möglichst vielen Verzeichnissen ungeachtet ihrer Qualität gelistet zu sein, könnte dies ein schlechtes Licht auf eure Site werfen. Wenn wir der Meinung sind, dass dies nach Linkkaufaktivitäten aussieht, dann können wir dem gegebenenfalls entgegenwirken.

Google hat nun ein größeres Augenmerk darauf, deutschen Usern hochwertige Webkataloge im Suchindex anzubieten. Falls ihr im Zweifel darüber seid, welche Kriterien wichtig sind, um wertvollen Content zu erstellen und eine gute Qualität zu erhalten, dann besucht unsere
Richtlinien für Webmaster. Für den Fall, dass ihr feststellt, dass sich eure Site nicht in Übereinstimmung mit unseren Richtlinien befindet, könnt ihr die notwendigen Änderungen vornehmen. Wenn ihr sichergestellt habt, dass unsere Richtlinien nicht verletzt werden, könnt ihr eure Site zur erneuten Überprüfung einreichen.

Falls ihr noch Fragen zu diesem Thema habt und diese mit unseren Google Guides und anderen Usern diskutieren möchtet, dann stellt sie bitte in unserem Diskussionsforum für Webmaster.


Post von Claudia Pfalzer und Daniela Loesser, Search Quality Team