Rich Snippets auch für deutschsprachige Websites

Im Rahmen unserer Bemühungen, die Suchergebnisse für unsere Nutzer auf der ganzen Welt hilfreicher zu machen, möchten wir euch hiermit mitteilen, dass Rich Snippets seit einiger Zeit international verfügbar sind. Falls ihr unsere Blog-Posts verfolgt habt, wisst ihr bereits, dass Nutzer mithilfe von Rich Snippets zusätzliche Fakten und Daten von eurer Website in den Suchergebnissen anzeigen können.

So haben wir beispielsweise kürzlich Rich Snippets für Rezepte eingeführt, mit denen die Nutzer für bestimmte Websites kurze Rezeptinfos anzeigen und so einfacher entscheiden können, ob die betreffende Seite die gewünschten Informationen enthält:



In unseren Blogs und Foren erhielten wir zahlreiche Anfragen zur internationalen Unterstützung für Rich Snippets und wir wissen, dass viele von euch bereits mit der Auszeichnung von Content begonnen haben.

Neben der Unterstützung von Rich Snippets in sämtlichen Sprachen steht auch eine Dokumentation zur Auszeichnung von Websites für Rich Snippets in den folgenden Sprachen zur Verfügung: Chinesisch (vereinfacht), Chinesisch (traditionell), Deutsch, Englisch, Französisch, Italienisch, Japanisch, Koreanisch, Niederländisch, Polnisch, Portugiesisch, Russisch, Spanisch Tschechisch, Türkisch und Ungarisch. Ihr könnt die Sprache der Hilfe ändern, indem ihr auf der Hilfeseite nach unten scrollt und dort die gewünschte Sprache aus dem Dropdown-Menü auswählt.

In der Dokumentation erfahrt ihr, wie ihr die verschiedenen Typen von Rich Snippets, die derzeit unterstützt werden, optimal nutzen könnt: PersonenprofileBeurteilungenVideosEreignisse und Rezepte. Es lohnt sich also, sie zu lesen! Mit unserem Testtool – das zwar nur auf Englisch verfügbar ist, aber zum Testen von Auszeichnungen in jeder Sprache verwendet werden kann – könnt ihr eure Auszeichnung überprüfen und sicherstellen, dass die Ergebnisse erwartungsgemäß angezeigt werden.

Wir ihr wahrscheinlich bereits wisst, führen wir die Rich Snippets schrittweise ein. Das heißt, dass durch die Auszeichnung eurer Websites nicht unbedingt garantiert ist, dass Rich Snippets für eure Seiten angezeigt werden. Wir tun dies, um unseren Nutzern eine optimale Nutzererfahrung zu bieten. Seid aber versichert, dass wir intensiv an der Erweiterung dieser Funktion auf möglichst viele Webseiten arbeiten.

Rich snippets go international (English version)

Post von Kavi Goel, Pravir Gupta und Yu Watanabe (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)

Donnerstag, 27. Mai 2010 um 10:00

Websitegeschwindigkeit in den Suchergebnissen

Ihr wisst wahrscheinlich schon, dass wir bei Google Geschwindigkeit lieben – in unseren Produkten und im Web. Als Teil dieser Bemühungen berücksichtigen wir seit einiger Zeit in unseren Suchranking-Algorithmen auch die Geschwindigkeit von Websites. Die Websitegeschwindigkeit gibt an, wie schnell eine Website auf Webanfragen reagiert.

Es ist wichtig, die Geschwindigkeit von Websites zu verbessern – und zwar nicht nur für Website-Inhaber, sondern für alle Internetnutzer. Schnellere Websites bedeuten glückliche Nutzer – eine langsame Reaktionszeit einer Website führt laut unseren internen Studien dazu, dass die Besucher weniger Zeit dort verbringen. Schnellere Websites verbessern jedoch nicht nur die Nutzererfahrung. Eine Verbesserung der Websitegeschwindigkeit bedeutet, wie aktuelle Daten zeigen, auch niedrigere Betriebskosten. Genauso wie uns ist auch unseren Nutzern Geschwindigkeit sehr wichtig. Daher haben wir uns dafür entschieden, die Websitegeschwindigkeit bei unseren Suchrankings zu berücksichtigen. Wir ziehen viele Faktoren heran, um die Geschwindigkeit einer Website im Vergleich zu anderen Websites zu ermitteln.

Wenn ihr Website-Inhaber, Webmaster oder Webautoren seid, könnt ihr die Geschwindigkeit eurer Websites mithilfe folgender kostenloser Tools ermitteln:

  • Page Speed, ein Open-Source-Firefox/Firebug-Add-on, das die Leistung von Webseiten ermittelt und Verbesserungsvorschläge macht.
  • YSlow, ein kostenloses Tool von Yahoo!, das Möglichkeiten zur Verbesserung der Websitegeschwindigkeit vorschlägt.
  • WebPagetest zeigt eine Wasserfall-Ansicht mit der Ladeleistung eurer Seiten sowie eine Optimierungs-Checkliste an.
  • Unter Webmaster-Tools, Labs > Website-Leistung – siehe Diagramm unten – wird die Geschwindigkeit eurer Website so angezeigt, wie sie von Nutzern weltweit wahrgenommen wird. Wir haben auch zum Thema Website-Leistung gebloggt.

  • Site Performance Webmaster Tools
  • Viele weitere Tools sind auf code.google.com/speed zu finden.

Auch wenn die Websitegeschwindigkeit ein neues Kriterium ist, ist sie bei weitem nicht so wichtig wie die Relevanz einer Seite. Derzeit sind weniger als ein Prozent der Suchanfragen vom Kriterium der Websitegeschwindigkeit in unserer Implementierung betroffen. Das Websitegeschwindigkeits-Kriterium wird im Moment zudem nur bei auf Englisch gestellten Suchanfragen auf Google.com angewandt. Wir haben diese Änderung vor einigen Wochen nach einer gründlichen Testphase eingeführt. Wenn sich eure Website-Rankings nicht groß verändert haben, ist diese Websitegeschwindigkeits-Änderung für eure Website wahrscheinlich ohne Bedeutung.

Bitte fangt an, auf die Geschwindigkeit eurer Websites zu achten (die oben angegebenen Tools bieten einen tollen Ausgangspunkt dafür) – nicht nur, um euer Ranking bei Suchmaschinen zu verbessern, sondern auch, um die Erfahrung aller Nutzer im Internet zu verbessern.

Using site speed in web search ranking (English version)

Post von Amit Singhal, Google Fellow und Matt Cutts, Principal Engineer, Google Search Quality Team (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)

Mittwoch, 26. Mai 2010 um 10:30

Schrägstrich oder nicht?

Diese Frage wird häufig gestellt. Die Antwort wollen wir nicht schuldig bleiben! Traditionell geben URLs mit abschließenden Schrägstrich häufig ein Verzeichnis an, während die ohne abschließenden Schrägstrich auf eine Datei hindeuten:

http://example.com/foo/ (mit abschließendem Schrägstrich, traditionell ein Verzeichnis)
http://example.com/foo (ohne abschließenden Schrägstrich, traditionell eine Datei)

Dies muss jedoch nicht unbedingt der Fall sein. Google behandelt die oben angegebenen URLs gleich, jedoch als separate URLs, und zwar unabhängig davon, ob es sich um eine Datei oder ein Verzeichnis handelt oder ob sie einen abschließenden Schrägstrich enthalten.


Unterschiedlicher Content auf URLs mit und ohne Schrägstrich - ok für Google, weniger gut für Nutzer

Von einem technischen Standpunkt bzw. dem der Suchmaschine aus gesehen, ist es durchaus zulässig, wenn diese beiden URL-Versionen unterschiedlichen Content aufweisen. Eure Nutzer finden diese Konfiguration jedoch womöglich schrecklich verwirrend. Wie würdet ihr es finden, wenn www.google.com/webmasters und www.google.com/webmasters/ zu unterschiedlichem Content führen würden?

Aus diesem Grund führen URLs mit und ohne abschließenden Schrägstrich häufig zu demselben Content. Der häufigste Fall ist, dass eine Website mit einer Verzeichnisstruktur konfiguriert ist:
http://example.com/übergeordnetes-verzeichnis/untergeordnetes-verzeichnis/.


Die Konfiguration eurer Website und eure Optionen

Ihr könnt für eure Website problemlos prüfen, ob die URLs:

1. http://<eure-domain>/<irgendein-verzeichnis>/
(mit abschließendem Schrägstrich) und
2. http://<eure-domain>/<irgendein-verzeichnis>
(ohne abschließenden Schrägstrich)

nicht beide den Statuscode 200 zurückgeben, sondern ob eine Version an die andere weiterleitet.

  • Falls nur eine Version zurückgegeben werden kann (d. h., falls die andere zu ihr weiterleitet), prima! Dieses Verhalten ist vorteilhaft, weil so weniger Duplicate Content entsteht. Bei Weiterleitungen zu URLs mit abschließendem Schrägstrich wird in unseren Suchergebnissen unabhängig davon, ob es sich um eine 301- oder 302-Weiterleitung handelt, wahrscheinlich die Version der URL mit dem Statuscode 200 angezeigt. Meistens ist dies die URL mit abschließendem Schrägstrich.

  • Sollten die Version mit und die ohne abschließenden Schrägstrich denselben Content aufweisen und beide den Statuscode 200 zurückgeben, habt ihr folgende Möglichkeiten:
  1. Ihr ändert dieses Verhalten (siehe unten), um Duplicate Content zu vermeiden und die Effektivität des Crawlings zu verbessern.
  2. Ihr lasst es einfach so. Duplicate Content findet sich auf vielen Websites. Unser Indexierungsprozess handhabt die URLs für Webmaster und Nutzer häufig entsprechend. Es ist zwar keine optimale Situation, aber absolut legitim und ok. :)
  3. Ihr verlasst euch darauf, dass, insbesondere, wenn es um die URL des Stammverzeichnisses eurer Website geht, http://example.com und http://example.com/ identisch sind und auch dann keine Weiterleitung erfolgen kann, wenn ihr Chuck Norris heißt.

Sicherstellen, dass nur eine URL-Version angezeigt wird

Was also tun, falls eure Website für diese beiden URLs duplizierten Content anzeigt:

http://<eure-domain>/<irgendein-verzeichnis>/
http://<eure-domain>/<irgendein-verzeichnis>

also beide URLs den Statuscode 200 zurückgeben, d. h. keine der beiden Versionen eine Weiterleitung oder rel="canonical" enthält, und ihr das ändern möchtet?

1. Wählt eine URL als bevorzugte Version. Sollte eure Website eine Verzeichnisstruktur aufweisen, ist es üblicher, einen abschließenden Schrägstrich in euren Verzeichnis-URLs zu verwenden, also beispielsweise example.com/verzeichnis/ statt example.com/verzeichnis. Es steht euch jedoch frei, euch anders zu entscheiden.

2. Seid konsequent im Umgang mit der bevorzugten Version. Verwendet sie in euren internen Links. Falls ihr eine XML-Sitemap habt, verwendet für diese die bevorzugte Version und nicht ihr Gegenstück.

3. Verwendet eine 301-Weiterleitung von der duplizierten zu der bevorzugten Version. Sollte dies nicht möglich sein, ist rel="canonical" eine gute Lösung. rel="canonical" funktioniert für die Indexierungszwecke von Google und anderen gängigen Suchmaschinen ähnlich wie eine 301-Weiterleitung.

4. Testet eure 301-Konfiguration in den Webmaster-Tools mit "Abruf wie beim Googlebot". Stellt sicher, dass eure URLs:
http://example.com/foo/
http://example.com/foo
sich erwartungsgemäß verhalten. Die bevorzugte Version sollte Statuscode 200 zurückgeben. Die duplizierte URL sollte per 301-Weiterleitung zur bevorzugten URL führen.

5. Führt in den Webmaster-Tools eine Überprüfung auf Crawling-Fehler durch und prüft zur Sicherheit nach Möglichkeit auch in euren Webserver-Protokollen, ob die 301-Weiterleitungen implementiert wurden.

6. Profitiert davon! Nein, Spaß beiseite, ihr könnt euch jetzt beruhigt zurücklehnen in der Gewissheit, dass eure Serverkonfiguration effizient und eure Website optimiert ist.

To slash or not to slash (English version)

Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)

Dienstag, 25. Mai 2010 um 10:08

Die Indexierung von Videos einfacher gestalten

Ihr könnt Google am besten auf alle Videos auf eurer Website aufmerksam machen, indem ihr eine Video-XML-Sitemap erstellt und auf dem neuesten Stand haltet. Video-XML-Sitemaps liefern Google wichtige Informationen zu euren Videos, wie beispielsweise Wiedergabeseiten der Videos, Titel der Videos, Suchbegriffe, Miniaturansichten oder Dauer. Über die XML-Sitemap könnt ihr auch den Zeitraum festlegen, in dem jedes Video verfügbar ist. Diese Funktion eignet sich besonders für Content mit ausdrücklichen Anzeigezeit-Fenstern, sodass wir den Content nach dem Ablaufdatum aus unserem Index entfernen können.

Sobald eure XML-Sitemap erstellt ist, könnt ihr die URL der XML-Sitemap-Datei in Google Webmaster-Tools oder über eure "robots.txt"-Datei senden.

Sobald wir ein Video indexiert haben, kann es in den Ergebnissen der Google-Websuche in einer sogenannte Video-OneBox (mehrere Videoergebnisse für die Suchanfrage) und in Google Videos, unserem Produkt für die Videosuche, angezeigt werden. Ein Videoergebnis ist anhand seiner Miniaturansicht, der Wiedergabedauer und einer Beschreibung leicht erkennbar.

Ein Videoergebnis von CNN.com wird in den Google-Suchergebnissen beispielsweise folgendermaßen angezeigt:

video one box
Wenn eure Website Videos enthält, empfehlen wir euch, Video-XML-Sitemaps einzureichen und sie mit eurem neuesten Content zu aktualisieren. Besucht auch unsere kürzlich aktualisierte Webmaster-Tools-Hilfe zu Video-XML-Sitemaps und macht von unserem Webmasterforum Gebrauch. Wenn ihr eine Video-XML-Sitemap über Webmaster-Tools gesendet habt und uns eure Erfahrungen oder Probleme mitteilen möchtet, habt ihr hier die Möglichkeit dazu.

Help Google index your videos (English version)

Post von Nelson Lee, Product Manager Video Search (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)

Freitag, 21. Mai 2010 um 09:37

Webmaster-Tools: Häufigste Suchanfragen mit mehr Daten und Diagrammen

Wir haben gute Nachrichten für Website-Inhaber, die regelmäßig die Funktion "Häufigste Suchanfragen" in den Webmaster-Tools verwenden: Für jede Suchanfrage stehen seit einiger Zeit noch detailliertere Daten zur Verfügung. Vorher konnte nur die durchschnittliche Position der Seiten eurer Website in den Suchergebnissen für eine bestimmte Suchanfrage abgelesen werden. Jetzt könnt Ihr auf eine Suchanfrage im Bericht "Häufigste Suchanfragen" klicken, um eine genaue Analyse der Klicks für jede Position anzuzeigen, auf der die Seiten eurer Website in den Suchergebnissen für die betreffende Anfrage geführt wurden. Die Impressionen geben an, wie oft die Seiten eurer Website in den Suchergebnissen für die Anfrage angezeigt wurden. Die Klicks geben an, wie oft Suchende auf die Suchergebnisse dieser Anfrage geklickt haben, um eine Seite eurer Website zu besuchen. Neben den Werten für die Impressionen und Klicks enthält das Diagramm auch eine Liste der Seiten eurer Website, die mit den Suchergebnissen für diese Suchanfrage verlinkt waren. Darüber hinaus haben wir noch weitere Werte implementiert, mit denen die Ergebnisse insgesamt noch detaillierter dargestellt werden können.



Bisher konntet Ihr nur Daten der häufigsten Suchanfragen für die besten 100 Suchanfragen eurer Website sehen. Die Anzahl der gezeigten Suchanfragen wurde jetzt deutlich erhöht. Wenn eure Website in mehr als 100 Suchanfragen aufgelistet wird, erscheinen unten in der Tabelle mit den häufigsten Suchanfragen neue Schaltflächen für die Paginierung, mit denen Ihr durch eine viel größere Auswahl an Suchanfragen blättern könnt, die eure Website in den Suchergebnissen zurückgeben.



Bisher hattet Ihr nur die Möglichkeit, die Daten eurer Website herunterzuladen und eure eigenen Diagramme zu generieren, wenn Ihr die Daten für die häufigsten Suchanfragen visualisieren wolltet. Um euch ein wenig zu entlasten, wird jetzt ein Diagramm für euch erstellt und direkt innerhalb der Seite angezeigt.



Das Diagramm mit den häufigsten Suchanfragen enthält eine Datumsbereichsauswahl. Wenn Ihr also für einen bestimmten zurückliegenden Zeitraum die häufigsten Suchanfragen für eure Website anzeigen möchtet, könnt Ihr die Daten für genau diesen Zeitraum eingrenzen.



Für Websites mit zahlreichen, sich häufig ändernden Keywords gibt es jetzt die Option, die häufigsten Suchanfragen der Website zu durchsuchen, um den gesamten Datenbestand nach genau den gewünschten Informationen zu filtern.



Wir hoffen, euch gefallen die Updates, die wir an der Funktion "Häufigste Suchanfragen" vorgenommen haben, und Ihr könnt nun noch besser analysieren, wie eure Website in unseren Suchergebnissen angezeigt wird. Solltet Ihr Feedback oder Fragen zur Überarbeitung der Funktion "Häufigsten Suchanfragen" haben, postet eure Kommentare bitte im Webmasterforum.

More data and charts in Top Search Queries (English version)

Post von Jonathan Simon, Webmaster Trends Analyst (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)

Donnerstag, 20. Mai 2010 um 11:35

Phishing-Eindruck verhindern - auf eurer Website

In unserem kürzlich veröffentlichten Post im Google-Blog zur Onlinesicherheit haben wir unser System zur Erkennung von Phishing-Seiten erläutert. Unter den Millionen von Webseiten, die unsere Scanner auf Phishing analysieren, werden neun von zehn Phishing-Seiten erfolgreich erkannt. Unser Klassifizierungssystem kennzeichnet nur in etwa einem von 10.000 Fällen eine Nicht-Phishing-Website fälschlicherweise als Phishing-Website und schneidet somit deutlich besser ab als ähnliche Systeme. Unserer Erfahrung nach wurden "falsch positive" Websites häufig zur Verteilung von Spam erstellt oder es besteht ein anderer Zusammenhang mit verdächtigen Aktivitäten. Falls ihr feststellt, dass eure Website fälschlicherweise unserer Liste mit Phishing-Seiten ("Als Betrugsversuch gemeldete Webseite!") hinzugefügt wurde, meldet uns bitte den Fehler. Sollte eure Website hingegen unserer Malware-Liste hinzugefügt worden sein ("Diese Website kann Ihren Computer beschädigen"), befolgt bitte diese Anweisungen. Unser Team versucht, alle Beschwerden innerhalb eines Tages zu bearbeiten. Normalerweise antworten wir innerhalb weniger Stunden.

Leider kommt es gelegentlich vor, dass wir beim Prüfen eurer Meldungen genauso verwirrt sind wie unser automatisiertes System. Die Einhaltung der folgenden einfachen Richtlinien für Website-Betreiber ermöglicht es uns, Fehler schnell zu korrigieren. Außerdem könnt ihr so dafür sorgen, dass eure Website gar nicht erst in unsere Liste mit Phishing-Webseiten gerät:

- Fragt nicht nach Nutzernamen und Passwörtern, die nicht zu eurer Website gehören. Ein solches Verhalten stufen wir grundsätzlich als Phishing ein, also lasst es einfach. Falls ihr einen Add-on-Service zu einer anderen Website anbieten möchtet, solltet ihr stattdessen ein öffentliches API oder OAuth in Erwägung ziehen.

- Blendet in der Nähe von Anmeldefeldern keine Logos ein. Dies kann leicht zu der Annahme führen, dass das Logo eure Website repräsentiert, und den Nutzer dazu verleiten, persönliche Informationen auf eurer Website einzugeben, die für eine andere Website gedacht sind. Außerdem haben wir keine Möglichkeit, zu überprüfen, ob dies beabsichtigt ist, sodass wir eure Website vielleicht einfach sicherheitshalber blockieren. Um Missverständnisse zu vermeiden, solltet ihr solche Logos nur mit äußerster Vorsicht verwenden.

- Verwendet für eure Website möglichst wenige Domains, insbesondere zu Anmeldezwecken. Auf Website Y nach dem Nutzernamen und Passwort für Website X zu fragen, wirkt äußerst verdächtig. Abgesehen davon, dass es uns die Einstufung eurer Website erschwert, bringt ihr so euren Besuchern möglicherweise bei, verdächtige URLs zu ignorieren, sodass sie leichter Opfer von Phishing-Versuchen werden. Sollte es unbedingt notwendig sein, dass eure Anmeldeseite sich in einer anderen Domain befindet als eure Hauptwebsite, ist die Verwendung eines transparenten Proxys sinnvoll, der es den Nutzern ermöglicht, über eure primäre Domain auf diese Seite zuzugreifen. Falls alles andere nicht funktioniert...

- Sorgt dafür, dass Links zu euren Seiten leicht gefunden werden. Es ist sowohl für uns als auch für eure Nutzer schwierig, herauszufinden, wer für eine Seite außerhalb der Domain eurer Website verantwortlich ist, wenn die Links zu dieser Seite auf eurer Hauptwebsite nicht leicht zu finden sind. Das Problem ist denkbar einfach zu lösen: Ihr setzt einfach auf jeder Seite außerhalb der Domain einen Link zurück zu einer Seite innerhalb der Domain, auf der wiederum ein Link zu der externen Seite enthalten ist. Falls ihr das versäumt und eine eurer Seiten fälschlicherweise auf unserer Liste landet, gebt bitte in eurer Fehlermeldung an, wie wir den Link von eurer Hauptwebsite zu der fälschlicherweise blockierten Seite finden. Am allerwichtigsten jedoch...

- Sendet keine seltsamen Links per E-Mail oder IM. Es ist praktisch unmöglich für uns, ungewöhnliche Links zu verifizieren, die nur in euren E-Mails oder Sofortnachrichten vorkommen. Und, was es noch schlimmer macht, solche Links können dazu führen, dass eure Nutzer/Kunden/Freunde es sich angewöhnen, auf seltsame Links zu klicken, die sie per E-Mail oder IM erhalten. Damit riskieren sie, nicht nur Opfer von Phishing, sondern auch noch von anderen Formen der Internetkriminalität zu werden.

Wir hoffen natürlich, dass ihr den gesunden Menschenverstand respektiert, der hinter diesen Empfehlungen steckt. Allerdings müssen wir feststellen, dass selbst große E-Commerce-Unternehmen und Finanzdienstleister diese Regeln gelegentlich nicht einhalten. Die Einhaltung dieser Regeln verbessert nicht nur eure Erfahrungen mit unseren Anti-Phishing-Systemen, sondern trägt auch dazu bei, Benutzererfahrung zu verbessern.

Will the Real <Your Site Here> Please Stand Up? (English version)

Post von Colin Whittaker, Anti-Phishing-Team (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality)

Mittwoch, 19. Mai 2010 um 11:45

Wie man unerwünschte Inhalte los wird, Teil 3: Entfernen von Content, der euch nicht gehört

Willkommen beim dritten Teil unserer Serie "Wie man unerwünschte Inhalte los wird"!
In Teil 1 und 2 ging es darum, wie ihr die Entfernung von Content, der von euch kontrolliert wird, beschleunigen könnt und schnellere Entfernungen aus dem Cache beantragt. Heute sprechen wir darüber, wie ihr das öffentliche Tool zum Entfernen von URLs verwenden könnt, um das Entfernen von Content aus den Google-Suchergebnissen zu beantragen, wenn der Content von einer Website stammt, die ihr nicht kontrolliert.

Google bietet zwei Tools an, mit denen ihr eine schnellere Entfernung von Content beantragen könnt:

1. Tool zum Entfernen von bestätigten URLs: Mit diesem Tool beantragt ihr die Entfernung von Content aus den Google-Suchergebnissen, wenn er auf einer Website veröffentlicht ist, für die ihr in den Webmaster-Tools als Inhaber bestätigt seid (beispielsweise euer Blog oder die Website eures Unternehmens).

2. Öffentliches Tool zum Entfernen von URLs: Mit diesem Tool beantragt ihr die Entfernung von Content aus den Google-Suchergebnissen, wenn er auf einer Website veröffentlicht ist, für die ihr keine Inhaberschaft bestätigen könnt (zum Beispiel der Blog eures Freundes).

Manchmal möchtet ihr vielleicht Informationen von einer Website entfernen, die ihr weder besitzt noch kontrolliert. Jede Website und ihr Content werden von einem Webmaster kontrolliert. Ergebnisse können daher am besten aktualisiert oder von Google entfernt werden, indem der Inhaber der Website (auf der der Content veröffentlicht ist) entweder das Crawlen der URL blockiert, die Content-Quelle modifiziert oder die Seite ganz entfernt. Nicht geänderter Content würde, wenn er das nächste Mal von uns gecrawlt wird, erneut in unseren Suchergebnissen angezeigt werden. Der erste Schritt zum Entfernen von Content, der auf einer Website gehostet wird, die euch nicht gehört, besteht daher darin, Kontakt mit dem Inhaber der Website aufzunehmen und ihn zu bitten, den betreffenden Content zu entfernen oder zu blockieren.


Entfernter oder blockierter Content

Wenn der Website-Inhaber eine Seite entfernt, sollten Anfragen für die entfernte Seite die Antwort "404 (Nicht gefunden)" oder die Antwort "410 (Gelöscht)" zurückgeben. Wenn er die Seite für Suchmaschinen blockiert hat, sollte entweder der Zugriff auf die Seite in der "robots.txt"-Datei der Website gesperrt sein oder die Seite sollte ein "noindex"-Meta-Tag enthalten. Sobald eine dieser Anforderungen erfüllt ist, könnt ihr einen Antrag auf Entfernung stellen, indem ihr die Option "Der Webmaster hat die Seite bereits blockiert." verwendet.

Webmaster-Tools: Entfernen einer URL die entfernt/blockiert wurde

Manchmal sagt ein Website-Inhaber zwar, dass er eine Seite blockiert oder entfernt hat, hat dies jedoch noch nicht tatsächlich getan. Wenn er sagt, dass eine Seite blockiert wurde, könnt ihr das überprüfen, indem ihr in der "robots.txt"-Datei der Website überprüft, ob die Seite dort als blockiert aufgeführt ist.
User-agent: *
Disallow: /blocked-page/
Auch im HTML-Quellcode einer Seite selbst könnt ihr überprüfen, ob die Seite blockiert wurde. Ruft einfach die Seite auf und wählt in eurem Browser die Option zum Anzeigen des Quelltexts. Enthält der HTML-"head"-Abschnitt ein "noindex"-Meta-Tag?
<html>
<head>
<title>blockierte Seite</title>
<meta name="robots" content="noindex">
</head>
...
Wenn der Website-Inhaber euch mitteilt, dass die Seite entfernt wurde, könnt ihr das mithilfe eines Testtools für HTTP-Antworten wie z. B. dem Firefox-Browser-Add-on "Live HTTP Headers" überprüfen. Wenn dieses Add-on aktiviert ist, könnt ihr in Firefox jede URL darauf testen, ob die HTTP-Antwort tatsächlich "404 (Nicht gefunden)" oder "410 (Gelöscht)" ist.


Von der Seite entfernter Content

Sobald ihr überprüft habt, dass der Content, den ihr entfernen wollt, nicht mehr auf der Seite vorhanden ist, könnt ihr die Entfernung aus dem Cache beantragen, indem ihr die Option "Content wurde bereits von der Seite entfernt" verwendet. Mit dieser Art der Entfernung - normalerweise "Cache"-Entfernung genannt - wird sichergestellt, dass unsere Suchergebnisse weder die Cache-Kopie oder Version der alten Seite noch Snippets der alten Seitenversion anzeigen. Nur die aktuelle aktualisierte Seite - ohne den entfernten Content - ist von den Google-Suchergebnissen aus zugänglich. Es kann jedoch sein, dass der Rang der aktuellen aktualisierten Seite noch aufgrund von Begriffen in Zusammenhang mit dem alten Content bestimmt wird. Grund hierfür sind immer noch vorhandene eingehende Links von externen Websites. Wenn ihr einen Antrag auf Entfernung der Cache-Version stellt, werdet ihr zur Eingabe eines Begriffs aufgefordert, der von der Seite entfernt wurde. Vergewissert euch, dass ihr kein Wort eingebt, dass auf der aktuellen Live-Seite zu finden ist, damit unser automatisierter Prozess bestätigen kann, dass die Seite geändert wurde - andernfalls wird der Antrag abgelehnt. Weitere Informationen zu Cache-Entfernungen findet ihr in Teil 2 der Serie "Wie man unerwünschte Inhalte los wird".


Entfernen unangemessener Webseiten oder Bilder, die in unseren mit der SafeSearch-Funktion gefilterten Ergebnissen angezeigt werden

Google hat den SafeSearch-Filter eingeführt, um Suchergebnisse anbieten zu können, die keinen potenziell anstößigen Content enthalten. Wenn ihr Content findet, den die SafeSearch-Funktion eurer Meinung nach hätte herausfiltern müssen, könnt ihr beantragen, dass dieser Content zukünftig aus den von SafeSearch-gefilterten Ergebnissen ausgeschlossen wird. Stellt einen Antrag auf Entfernung, indem ihr die Option "In unseren SafeSearch-gefilterten Ergebnissen wird unangemessener Content angezeigt" verwendet.

Webmaster-Tools: Entfernen einer URL aus den SafeSearch-gefilterten Ergebnissen

Wenn beim öffentlichen Tool zum Entfernen von URLs Probleme auftreten oder ihr Fragen habt, die hier nicht angesprochen wurden, postet sie bitte im Forum für Webmaster oder zieht die ausführlicheren Entfernungsanweisungen in unserer Hilfe zurate. Wenn ihr im Forum postet, denkt daran, eure Beispiel-URLs für die Seiten, die ihr entfernt haben möchtet, durch einen Service zum Kürzen von URLs (Kurz-URL-Dienst) zu maskieren.

Hier findet ihr den vierten und letzten Teil der Serie: Der Status eurer Anfrage und was nicht entfernt werden sollte

URL removal explained, Part III: Removing content that you don't own (English version)

Post von Jonathan Simon, Webmaster Trends Analyst (Veröffentlichung der deutschen Fassung von Sven Naumann, Search Quality)

Donnerstag, 6. Mai 2010 um 11:42

Werdet gehört und euch wird geholfen

Alle Webmaster haben ab und an Probleme mit ihrer Website. Zu wissen, wohin man sich mit Fragen wenden kann, kann dann den großen Unterschied bei der Bereinigung des Problems ausmachen. Wir erhalten von Webmastern viele Anträge auf erneute Überprüfung einer Website in Fällen, in denen diese Anträge nicht unbedingt der beste Kontaktweg sind.

Nachfolgend listen wir die verbreitetsten Fälle auf, in denen wir Anträge auf erneute Überprüfung erhalten haben, und zeigen effektivere Wege, Fragen zu stellen und Probleme zu lösen.
Wir hoffen, es wird dadurch klarer, wann und wie man am besten mit uns in Kontakt treten kann. Solltet ihr detailliertere Informationen benötigen, seid ihr natürlich immer in unserem Webmaster-Forum willkommen, wo Googler und Webmaster mit Knowhow jeden Tag über Probleme in Bezug auf Websites diskutieren.

Ich hab gar keine Malware/Badware mehr!
Wenn wir Malware auf euren Seiten entdecken, zeigen wir in den Suchergebnissen den Warnhinweis: "Diese Webseite kann ihren Computer beschädigen." Wenn ihr diese Meldung seht, könnt ihr in eurem Webmaster-Tools-Konto detaillierte Informationen zum Typ der Malware erhalten.
Im Malware-Fall müsst ihr, nachdem ihr eure Website bereinigt habt, anstatt einen Antrag auf erneute Überprüfung zu stellen, die Überprüfung eurer Website auf Malware anfordern.

Was ihr tun könnt:

1. Wählt die betroffene Website auf der Webmaster-Tools-Homepage aus.
2. Klickt auf "Weitere Informationen" bei der Meldung Meldung "Diese Website verbreitet möglicherweise Malware"
3. Wählt "Überprüfung beantragen".

Ich will Teile meiner Seite aus den Suchergebnissen entfernen
(z. B. eine einzelne Seite, ein Unterverzeichnis oder die ganze Website)
Wenn ihr euren eigenen Content aus unserem Index entfernen wollt, müsst ihr einige Änderungen an eurer Website vornehmen. Löscht den Content vollständig von eurer Website oder verwehrt Google, eure Seite zu indexieren! Letzteres könnt ihr mit Hilfe der robots.txt-Datei oder spezieller Meta-Tags erreichen. Nachdem ihr dies getan habt, könnt ihr mittels unseres Tools zum Entfernen von Webseiten den Entfernungsprozess beschleunigen.

Was ihr tun könnt:
1. Schaut auf unserer Seite "Tool zum Entfernen von Webseiten" vorbei und meldet euch in eurem Google-Konto an.
2. Solltet ihr nich direkt auf die Seite "Neuen Antrag erstellen" weitergeleitet werden, klickt den Button "Neuer Antrag auf Entfernung".
3. Auf der Seite "Neuen Antrag erstellen", wählt die Optionen, die auf euren Antrag auf Entfernung zutreffen, aus, füllt die benötigten Felder aus und klickt "Antrag übermitteln".
Zusätzliche Informationen gibt es hier:
http://www.google.com/support/webmasters/bin/answer.py?answer=156412
Und zur robots.txt hier:
http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=35302


Ich habe meine Seite von der Indexierung ausgeschlossen. Bitte, nehmt sie wieder auf!
Wenn ihr einen Antrag auf Entfernung wieder rückgängig machen wollt, könnt ihr das über euren Webmaster-Tools-Account vornehmen.

Was ihr tun könnt:
1. Wählt die entsprechende Seite auf der Webmaster-Tools Hompage aus.
2. Klickt "Crawler-Zugriff" unter "Website Konfiguration"
3. Wählt den Tab "URL entfernen" aus.
4. Wählt nun den "Entfernter Inhalt"-Tab und klickt dann "Wieder aufnehmen" neben dem Inhalt, den ihr wieder im Index sehen wollt.
Ein zusätzlicher Hinweis: Wenn ihr Arbeiten an eurer Website vornehmt, könnt ihr das umständliche Entfernen und Wiederaufnehmen eurer Website vermeiden, in dem ihr euren Server so einstellt, dass er stattdessen einfach einen Statuscode 503 (Service Unavailable) ausgibt. Dadurch wissen wir dann, dass wir später für die Indexierung eurer Seiten wiederkommen sollen.


Ich sehe weniger Seiten im Index als meine Website eigentlich hat!
Das kann aus ganz verschiedenen Gründen in vielen verschiedenen Situationen so sein. Der allgemein sinnvollste Tipp ist, in unserem Webmaster-Forum vorbeizuschauen und mit anderen Webmastern und Googlern das Problem zu diskutieren. Bevor ihr das tut, könnt ihr jedoch einige Dinge selbst überprüfen.

Was ihr tun könnt:
  • Führt für eure Domain eine Suche mit dem Operator "site:" durch - mit und ohne www, da Google eure Website eventuell unter einer anderen Version gelistet hat.
  • Überprüft, ob eure interne Link-Struktur umfassend ist und all eure Seiten abdeckt werden. Ihr könntet isolierte Seiten haben, zu denen keine internen Links führen.
  • Reicht eine Sitemap für eure Website ein.
  • Stellt sicher, dass ihr keine Teile eurer Website mittels robots.txt oder Meta-Tags ausschließt.

Ich glaube, ihr zeigt nicht alle Links zu meiner Website an!

Es gibt zwei Möglichkeiten zu prüfen, wie viele Links zu eurer Seite führen. Sucht nach eurer Seite mit dem "link:"-Operator oder, um eine genauere Darstellung eure eingehenden Links zu erhalten, schaut in eurem Webmaster-Tools-Account nach - die Info zu den eingehenden Links ist direkt auf der Dashboard-Seite enthalten. Das Link-Ökosystem ist ausgesprochen dynamisch, also ändern sich die Reports oft.

Was ihr tun könnt:
1. Wählt die entsprechende Seite auf der Webmaster-Tools-Hompage aus.
2. Wählt "Links zu ihrer Seite" unter "Ihre Website im Web"

Ich habe eine Spamseite gefunden und will sie melden

Die beste Möglichkeit hierfür ist unser Spam-Bericht-Formular und nicht das Formular zur Beantragung einer erneuten Überprüfung.

Was ihr tun könnt:
Reicht einen Spam-Bericht über euren Webmaster-Tools-Account ein: https://www.google.com/webmasters/tools/spamreport?hl=de


Ihr akzeptiert meine Sitemaps-Datei nicht!
Der beste Weg, den Status eurer Sitemaps-Datei einzusehen und Fehler zu beheben, führt über euer Webmaster-Tools-Konto. Die Gründe für Probleme können hier allerdings von Fall zu Fall stark variieren.

Solltet ihr die Information, die ihr benötigt, nicht in unserem Hilfe-Beitrag zum Thema Sitemaps finden, wollen wir euch ermutigen, eure Fragen im Webmaster-Forum zu stellen, statt einen Antrag auf erneute Überprüfung zu stellen, da der an der falschen Stelle landet.


Ein Konkurrent stiehlt meinen Content!
Als ersten Schritt empfehlen wir euch, den Eigentümer der Website zu kontaktieren, um das Problem mit ihnen direkt zu klären. Solltet ihr so keinen Erfolg haben, wäre die nächste Möglichkeit, einen DMCA-Antrag einzureichen.


Werde ich von euch eine Antwort auf meinen Antrag auf erneute Überprüfung erhalten?
Wenn euer Antrag bearbeitet wurde, werdet ihr in eurem Webmaster-Tools-Konto eine Nachricht erhalten. Leider ist es uns jedoch nicht möglich, jeden Antrag, den wir erhalten, persönlich zu beantworten. Sollte euer Problem eines der oben genannten sein, wisst ihr nun aber, wohin ihr euch besser wenden könnt. Andernfalls, wenn ihr nach Bearbeitung eures Antrags keine Veränderung in der Leistung eurer Site feststellt, könnt ihr natürlich gern in unserem Forum für Webmaster um Rat fragen.

Zum Abschluss einige Bespielsituationen, in denen es tatsächlich eine gute Idee ist, einen Antrag auf erneute Überprüfung zu stellen: ;-)
  • Eure Seite wurde gehackt und ihr habt alle Probleme behoben.
  • Ihr habt eine neue Domain gekauft und vermutet, dass die Website früher gegen unsere Richtlinien für Webmaster verstoßen hat.
  • Ihr glaubt, dass eure Website gegen unsere Richtlinien für Webmaster verstoßen hat und habt nun alle Fehler beseitigt.
In unserer Hilfe für Webmaster könnt ihr weitere Informationen und auch ein hilfreiches (englischsprachiges) Video zu den Anträgen auf erneute Überprüfung finden:
http://www.google.com/support/webmasters/bin/answer.py?answer=35843

Post von Mariya Moeva, Search Quality Team (Übersetzung von Daniela Loesser, Search Quality Team)

Dienstag, 4. Mai 2010 um 10:01

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.