Mittwoch, 28. April 2010

Arbeiten mit mehrsprachigen Websites

Eine Website wird als mehrsprachig bezeichnet, wenn sie Content in mindestens zwei Sprachen anbietet. Beispiele für mehrsprachige Websites sind zum Beispiel die eines kanadischen Unternehmens, das eine englische und eine französische Version anbietet, oder ein Blog über Fußball in Lateinamerika, der in Spanisch und Portugiesisch verfügbar ist.

In der Regel ist eine mehrsprachige Website immer dann sinnvoll, wenn euer Zielpublikum verschiedene Sprachen spricht. Wenn ihr mit einem Blog über Fußball in Lateinamerika brasilianische Leser erreichen wollt, entscheidet ihr euch vielleicht nur für eine portugiesische Version. Wenn ihr jedoch auch Fußballfans in Argentinien erreichen wollt, wäre eine spanische Version hilfreich.


Google und Spracherkennung

Google versucht, die Hauptsprachen eurer einzelnen Seiten zu ermitteln. Ihr könnt die Spracherkennung erleichtern, indem ihr euch für eine Sprache pro Seite entscheidet und nicht mehrere Übersetzungen nebeneinanderstellt. Google erkennt zwar, falls eine Seite mehrere Sprachen enthält, wir empfehlen jedoch, die gleiche Sprache für alle Elemente einer Seite zu verwenden: Überschriften, Seitenleisten, Menüs usw.

Denkt daran, dass Google alle Sprachinformationen auf Codeebene ignoriert, von "lang"-Attributen bis hin zu Dokumenttypdefinitionen (DTD). Einige Web-Editoren erstellen diese Attribute automatisch, weshalb sie bei der Ermittlung der Sprache einer Webseite nicht sehr verlässlich sind.

Google-Nutzer erwarten, dass bei einer Suche in der eigenen Sprache auch lokalisierte Suchergebnisse angezeigt werden. Und hier kommt ihr als Webmaster ins Spiel: Wenn ihr eure Website lokalisiert, könnt ihr dies mit einigen der folgenden Tipps in den Suchergebnissen sichtbar machen.


Die Anatomie einer mehrsprachigen Website: URL-Struktur

Ihr braucht für eine mehrsprachige Website keine speziellen URLs erstellen. Dennoch möchten eure Nutzer möglicherweise anhand der URL erkennen können, in welchem Bereich eurer Website sie sich gerade befinden. Die folgenden URLs zum Beispiel sind ein klares Indiz dafür, dass sich der Nutzer auf der englischsprachigen Version dieser Website befindet:

http://example.ca/en/mountain-bikes.html
http://en.example.ca/mountain-bikes.html


Im Vergleich dazu sehen die URLs der französischsprachigen Version so aus:

http://example.ca/fr/mountain-bikes.html
http://fr.example.ca/mountain-bikes.html


Zusätzlich könnt ihr mit dieser URL-Struktur den Index eures mehrsprachigen Contents einfacher analysieren.

Wenn ihr URLs mit Sonderzeichen verwenden möchtet, nehmt die UTF-8-Codierung. Mit UTF-8 codierte URLs sollten ordnungsgemäß maskiert werden, wenn ihr sie so innerhalb eurer Links verwendet. Wenn ihr eure URLs manuell maskieren müsst, könnt ihr dafür ganz einfach einen Online-URL-Codierer verwenden. Wenn ihr zum Beispiel die folgende URL vom Englischen ins Französische übersetzen möchtet:

http://example.ca/fr/mountain-bikes.html

Könnte das etwa so aussehen:

http://example.ca/fr/vélo-de-montagne.html

Da diese URL ein Sonderzeichen enthält (é), würde sie bei korrekter Codierung wie folgt aussehen und könnte in einem Link auf euren Webseiten verwendet werden:

http://example.ca/fr/v%C3%A9lo-de-montagne


Crawlen und Indexieren eurer mehrsprachigen Website

Wir empfehlen, automatische Übersetzungen nicht indexieren zu lassen. Automatische Übersetzungen ergeben nicht immer Sinn und könnten als potenzieller Spam angesehen werden. Das Ziel einer mehrsprachigen Website besteht darin, durch die Bereitstellung von nützlichem Content in mehreren Sprachen ein größeres Publikum zu erreichen. Wenn eure Nutzer eine automatische Übersetzung nicht verstehen oder diese in ihren Augen künstlich erscheint, solltet ihr euch fragen, ob ihr wirklich diese Art von Content bereitstellen möchtet.

Wenn ihr eine Website lokalisiert, sollte Googlebot alle Sprachversionen einfach crawlen können. Ihr könnt dabei z. B. eine Verlinkung der Seiten untereinander in Betracht ziehen. Das heißt, dass ihr Verknüpfungen zwischen Seiten herstellen könnt, die den gleichen Content in verschiedenen Sprachen anbieten. Dies kann auch für eure Nutzer sehr hilfreich sein. Nehmen wir unser vorheriges Beispiel noch einmal und nehmen an, dass ein französischsprachiger Nutzer, der jetzt noch auf http://example.ca/en/mountain-bikes.html landet, mit einem Klick zur Seite http://example.ca/fr/vélo-de-montagne.html wechseln kann, wo der gleiche Content in französischer Sprache angezeigt wird.

Um das Crawlen von Content eurer Website zu erleichtern, solltet ihr automatische Weiterleitungen auf der Basis der vom Nutzer gewählten Spracheinstellung vermeiden. Durch diese Weiterleitungen können Nutzer (und Suchmaschinen) möglicherweise nicht alle Versionen eurer Website sehen.

Zu guter Letzt: Ihr solltet den Content für jede Sprache einer separaten URL zuweisen. Verwendet keine Cookies, um die übersetzten Versionen anzuzeigen.


Arbeiten mit Zeichencodierungen

Google extrahiert Zeichencodierungen direkt aus HTTP-Headern, HTML-Seitenheadern und dem Content. Bei der Zeichencodierung muss nicht viel beachtet werden. Ihr solltet jedoch nach widersprüchlichen Informationen Ausschau halten, etwa zwischen Content und Überschrift. Obwohl Google verschiedene Zeichencodierungen erkennen kann, empfehlen wir, falls möglich, die Verwendung von UTF-8 auf eurer Website.


Falls ihr jetzt einen Knoten in der Zunge habt...

Jetzt, wo ihr das alles wisst, bekommt ihr vielleicht beim Sprechen der vielen Sprachen einen Knoten in die Zunge - aber wenigstens muss das nicht mehr bei eurer Website der Fall sein!

Weitere Informationen findet ihr in unserem Post "Websites für mehrere Regionen". Außerdem sprechen wir in unserem nächsten Post über besondere Situationen, die beim Arbeiten mit globalen Websites auftreten können. Bis dahin könnt ihr gerne im Hilfeforum vorbeischauen und euch an einer Diskussion beteiligen.

Working with multilingual websites (English version)

Post von Xavier deMorales, Google Search Quality (Veröffentlichung der deutschen Fassung von Sven Naumann, Search Quality)

Freitag, 23. April 2010

Webmaster Tools: Inhaberschaft via DNS nachweisen

Vor einiger Zeit haben wir eine neue Methode zum Überprüfen der Website-Inhaberschaft eingeführt, mit der ihr eine bestätigte Inhaberschaft für eine Website noch einfacher mit einer anderen Person teilen könnt. Jetzt stellen wir euch eine weitere Möglichkeit zur Überprüfung vor. Die Überprüfung über DNS (Domain Name System) ermöglicht euch, bestätigter Inhaber einer ganzen Domain und somit aller Websites in dieser Domain zu werden. Sie bietet ebenfalls eine alternative Möglichkeit, Freunde zu bestätigen, die Probleme mit den bestehenden Methoden (HTML-Datei oder Meta-Tag) haben.

Ich möchte die neue Methode anhand eines Beispiels erläutern. Versuchen wir also, die neue Überprüfungsmethode gleich zu verwenden. In diesem Beispiel bin ich der Eigentümer der Domain example.com. Ich habe verschiedene Websites unter example.com, einschließlich http://www.example.com/, http://blog.example.com/ und http://beta.example.com/. Ich könnte die Inhaberschaft jeder einzelnen Website mithilfe der Meta-Tag- oder HTML-Datei-Methode bestätigen. Das würde jedoch bedeuten, dass ich drei Mal den gesamten Überprüfungsprozess durchführen muss. Und wenn ich auch noch http://customers.example.com/ hinzufügen möchte, muss ich dies ein viertes Mal tun. Die Überprüfung mithilfe eines DNS-Datensatzes ist da viel einfacher!

Zunächst füge ich "example.com" zu meinem Konto hinzu, entweder in den Webmaster-Tools oder direkt auf der Startseite zur Überprüfung.



Auf der Überprüfungsseite wähle ich die Methode "Einen DNS-Datensatz hinzufügen" aus und folge den Anweisungen, um den angegebenen TXT-Datensatz zur DNS-Konfiguration meiner Domain hinzuzufügen.




Wenn ich auf "Bestätigen" klicke, sucht Google nach dem TXT-Datensatz. Ist dieser vorhanden, werde ich ein bestätigter Inhaber von example.com und allen verknüpften Websites und Sub-Domains. Nun kann ich alle diese Websites in Webmaster-Tools sowie anderen durch Bestätigung zu aktivierenden Google-Produkten verwenden, ohne die Inhaberschaft erneut einzeln bestätigen zu müssen.

Wenn ihr die Überprüfung per DNS-Datensatz testest und es nicht sofort funktioniert, verzweifelt nicht!


Manchmal dauert es eine Weile, bis die DNS-Datensätze hochgeladen werden, sodass Google sie nicht sofort erkennen kann. Stellt sicher, dass ihr den Datensatz genau wie auf der Überprüfungsseite beschrieben hinzugefügt habt. Wir führen regelmäßige Prüfungen durch, und sobald wir den Datensatz finden, werdet ihr ohne weiteren Handlungsbedarf von eurer Seite ein bestätigter Inhaber.

Die Überprüfung per DNS-Datensatz ist nicht für jeden geeignet: Wenn ihr die DNS-Konfiguration nicht versteht, empfehlen wir euch, weiterhin die Methoden der HMTL-Datei und Meta-Tags zu verwenden. Für fortgeschrittene Nutzer ist dies jedoch eine tolle Möglichkeit, die Inhaberschaft ihrer Websites zu bestätigen.

Wenn ihr Fragen habt, findet solltet ihr im Webmaster-Forum Antwort finden.

DNS Verification FTW (English version)

Post von Sean Harding, Software Engineer (Veröffentlichtung der deutschen Fassung von Jörg Pacher, Search Quality Team)

Mittwoch, 21. April 2010

Spielt der PageRank von Twitter-Profilen eine Rolle?

Heute spricht Matt Cutts über die Bedeutung von PageRank für Twitter-Profile.



Wir haben eine Frage von Mani aus Delhi. Er fragt:

"Ich sehe den Google-PR, PageRank, bei einigen Twitter-Profilen, manchmal sogar einen PR von 4 für jemanden mit weniger als 50 Followers und 100 Tweets, während sinnvolle Profile keinen PR haben. Spielt der PR von Twitter-Profilen eine Rolle?"

Tja, der PR kann eine Rolle spielen, wenn ihr wollt, dass eure Twitter-Seite rankt. Schließlich ist der PageRank einer von mehr als 200 verschiedenen Faktoren, die wir fürs Ranking benutzen. Wenn ihr also beispielsweise eine Suche nach [Matt Cutts] durchführt und twitter.com/mattcutts als Ergebnis finden wollt, kommt der PageRank des Twitter-Profils ins Spiel. Gemeinhin spielt er keine Rolle für die Links auf dieser Seite, da diese gewöhnlich "nofollow" sind. Aber bedenkt, dass jemand, der nur 50 Followers und 100 Tweets hat, immer noch Links von jemand wirklich wichtigem oder mit großer Authorität ausgestattetem erhalten kann.

Das könnte der Grund sein, warum er oder sie PageRank hat. Zur Frage, warum ein bedeutenderes Profil keinen PageRank hat: Das kann manchmal daran liegen, dass niemand oder nur sehr wenige Leute zum Profil verlinken. Es könnte auch damit
zusammenhängen, dass eventuell einige wichtige Leute oder beispielsweise ein Zeitungsartikel zu euch verlinken, und wir den PageRank zwar berechnen - und das durchgehend - aber die neuen Werte für PageRank in der Toolbar nur alle drei oder vier Monate updaten.

Ihr könntet beispielsweise einen guten Link vor ein oder zwei Monaten erhalten haben, aber ihr müßt euch noch ein, zwei Monate gedulden, bis der veränderte PageRank für euer Twitter-Profil angezeigt wird. Im Allgemeinen würde ich mir über den PageRank-Wert eines Twitter-Profils nicht zu viele Gedanken machen. Stattdessen würde ich darüber nachdenken, wie ich die User einbinden kann. Wie bekomme ich User-Kommentare und Antworten und bewege sie dazu, das sie meinen Links folgen, etc.

Schließlich ist die Kommunikation der Hauptwert von Twitter: gute Links weiterzugeben und miteinander zu kommunizieren, anstatt PageRank und Rankings, die ihr als Folge davon erhaltet.

Übersetzung von Jörg Pacher, Search Quality Team

Dienstag, 20. April 2010

Wie man unerwünschte Inhalte los wird, Teil 2: Entfernen von vertraulichem Text

Nichts ist vor Änderungen gefeit. Wie wir in unserem letzten Post zum Entfernen von URLs gesehen haben, könnt ihr eine Seite eurer Website komplett blockieren oder entfernen. Vielleicht möchtet ihr aber auch nur Teile einer Seite oder bestimmte Textabschnitte ändern. Je nachdem, wie oft eine Seite gecrawlt wird, kann es eine Weile dauern, bis sich diese Änderungen in den Suchergebnissen widerspiegeln. In diesem Blog-Post wird erläutert, wie ihr vorgehen könnt, falls die Suchergebnisse immer noch alten, entfernten Content aufweisen. Das kann in Form eines "Snippets" der Fall sein oder auf der Cache-Seite, die mit dem Suchergebnis verlinkt ist. Es ist sinnvoll, diese Maßnahme zu ergreifen, falls der alte Content vertrauliche Informationen enthält, die umgehend entfernt werden müssen. Wenn ihr nur ganz normal eine Website aktualisiert, braucht ihr sie nicht durchzuführen.

Sehen wir uns einmal das folgende fiktive Beispiel für ein Suchergebnis an:



Um den im Snippet (oder auf der verlinkten, im Cache gespeicherten Seite) angezeigten Content zu ändern, müsst ihr zunächst den Content auf der aktuellen Onlineversion der Seite bearbeiten. Die Suchergebnisse enthalten aufgrund der automatischen Prozesse von Google so lange Teile des ursprünglichen Contents, bis der öffentlich sichtbare Content der Seite geändert wird.

Sobald dies erledigt ist, habt ihr mehrere Möglichkeiten, um diese Änderungen auf unsere Suchergebnisse zu übertragen:

1. Ihr wartet, bis der Googlebot die Seite erneut crawlt und indexiert.
Das ist die normale Methode, mit der ein Großteil des Contents auf Google aktualisiert wird. Je nachdem, wie oft der Googlebot die betreffende Seite crawlt, kann das recht lange dauern. Nachdem die Seite erneut gecrawlt und indexiert wurde, sollte der alte Content nicht mehr angezeigt werden, da er durch den aktuellen Content ersetzt wurde. Sofern das Crawling der betreffenden Seite durch den Googlebot nicht blockiert ist (entweder durch "robots.txt" oder weil kein ordnungsgemäßer Zugriff auf den Server möglich ist), erfolgt dieser Vorgang automatisch, d. h., ihr müsst nichts unternehmen. Das Crawling und die Indexierung können im Allgemeinen nicht beschleunigt werden, da diese Prozesse vollautomatisch erfolgen und von zahlreichen externen Faktoren abhängig sind.

2. Ihr fordert mit dem Tool zur Entfernung von URLs die Entfernung von Content an, der von der Webseite einer anderen Person entfernt wurde.
Bei Verwendung dieses Tools müsst ihr unbedingt die genaue URL der geänderten Seite eingeben. Dann gebt ihr an, dass der Content von der Seite entfernt wurde, und gebt ein oder mehrere Wörter ein, die vollständig von der betreffenden Seite entfernt wurden.



Keines der eingegebenen Wörter darf auf der Seite vorkommen. Sollte ein Wort an einer anderen Stelle auf der Seite vorkommen, wird eure Anforderung auch dann abgelehnt, wenn es von einem anderen Teil der Seite entfernt wurde. Vergewissert euch also, dass die Wörter, die ihr eingebt, nirgendwo auf der Seite mehr vorkommen. Angenommen, ihr hättet im obigen Beispiel "streng geheimen Erfassungsgerät Velocitus Incalculii" entfernt. In diesem Fall solltet ihr diese Wörter angeben und nicht etwas wie "mein Projekt". Sollte jedoch das Wort "streng" oder "Erfassungsgerät" noch an anderer Stelle auf der Seite vorkommen, wird die Anforderung abgelehnt. Am sichersten ist es, nur ein einziges Wort einzugeben, von dem ihr euch sicher seid, dass es nirgends auf der Seite mehr vorkommt.

Sobald eure Anforderung bearbeitet und festgestellt wurde, dass die übermittelten Wörter nicht mehr auf der Seite vorkommen, enthält das Suchergebnis kein Snippet mehr und die Seite im Cache ist nicht mehr verfügbar. Die Titel und die URL der Seite sind nach wie vor sichtbar und der Eintrag kann weiterhin in Suchergebnissen für Suchvorgänge enthalten sein, die mit dem entfernten Content zusammenhängen. Dies kann beispielweise bei einer Suche nach [velocitus incalculii] der Fall sein, obwohl diese Wörter nicht mehr im Snippet enthalten sind. Nachdem die Seite jedoch erneut gecrawlt und indexiert wurde, enthalten unsere Suchergebnisse das neue Snippet und die neue im Cache gespeicherte Seite.

Wichtig ist, dass wir die Entfernung des Worts bzw. der Wörter durch Aufrufen der Seite überprüfen müssen. Falls die Seite nicht mehr vorhanden ist und der Server ordnungsgemäß den HTTP-Statuscode 404 oder 410 zurückgibt, sodass wir nicht auf die Seite zugreifen können, ist es unter Umständen sinnvoller, eine komplette Entfernung der Seite anzufordern.

3. Ihr fordert über das Tool zur Entfernung von URLs von Google Webmaster-Tools die Entfernung von Informationen auf einer Seite eurer eigenen Website an.
Sofern ihr Zugriff auf die betreffende Website habt und in Google Webmaster-Tools bestätigt habt, dass ihr ihr Inhaber seid, könnt ihr dort über das Tool zur Entfernung von URLs (unter "Website-Konfiguration > Crawler-Zugriff") anfordern, dass das Snippet und die im Cache gespeicherte Seite entfernt werden, bis die Seite erneut gecrawlt wurde. Zur Verwendung dieses Tools müsst ihr nur die genaue URL der Seite einreichen. Entfernte Wörter müsst ihr hier nicht angeben. Sobald eure Anforderung verarbeitet wurden, werden das Snippet und die im Cache gespeicherte Seite aus den Suchergebnissen entfernt. Der Titel und die URL der Seite werden nach wie vor angezeigt; außerdem kann die Seite auch weiterhin im Ranking von Suchergebnissen für Abfragen in Bezug auf entfernten Content vorkommen. Nachdem die Seite erneut gecrawlt und indexiert wurde, kann das Suchergebnis mit einem gemäß dem neuen Content aktualisierten Snippet und einer aktualisierten im Cache gespeicherten Seite angezeigt werden.

Google führt die Indexierung und das Ranking von Elementen nicht nur auf Grundlage des Contents einer Seite durch, sondern auch auf Grundlage anderer externer Faktoren, beispielsweise der eingehenden Links zu der URL. Aus diesem Grund ist es möglich, dass eine URL auch noch dann in Suchergebnissen für nicht mehr auf der Seite vorhandenen Content vorkommt, wenn die Seite bereits erneut gecrawlt und indexiert wurde. Mit dem Tool zur Entfernung von URLs können das Snippet und die im Cache gespeicherte Seite aus einem Suchergebnis entfernt werden, der Titel des Suchergebnisses wird jedoch weder geändert noch entfernt. Auch die angezeigte URL wird nicht geändert und es wird nicht verhindert, dass die Seite für Suchanfragen in Bezug auf aktuellen oder vorherigen Content angezeigt wird. Falls dies für euch wichtig ist, solltet ihr sicherstellen, dass die URL die Voraussetzungen für eine vollständige Entfernung aus unseren Suchergebnissen erfüllt.

Entfernen von Content, der nicht im HTML-Format vorliegt

Hat der geänderte Content kein (X)HTML-Format, was beispielsweise der Fall ist, wenn ein Bild, eine Flash-Datei oder eine PDF-Datei geändert wurde, könnt ihr das Tool zur Entfernung von im Cache gespeicherten Content nicht verwenden. Sollte es also wichtig sein, dass der alte Content in den Suchergebnissen nicht mehr sichtbar ist, erreicht ihr dies am schnellsten, indem ihr die URL der Datei ändert, sodass die alte URL den HTTP-Ergebniscode 404 zurückgibt, und die alte URL mit dem Tool zur Entfernung von URLs löscht. Bei einer normalen Aktualisierung eurer Informationen durch Google kann die Aktualisierung der Vorschau von Inhalten, die kein HTML-Format aufweisen (beispielsweise Schnellansicht-Links für PDF-Dateien), nach dem erneuten Crawlen länger dauern, als dies bei normalen HTML-Dateien der Fall ist.

Verhindern der Anzeige von Snippets oder im Cache gespeicherten Versionen

Als Webmaster habt ihr die Möglichkeit, mithilfe von robots-Meta-Tags die Anzeige von Snippets oder im Cache gespeicherten Versionen aktiv zu verhindern. Die Entfernungstools benötigst ihr dazu nicht. Diese Vorgehensweise wird nur für Ausnahmefälle empfohlen, denn das Snippet hilft Nutzern, ein für sie relevantes Suchergebnis schneller zu identifizieren, und eine im Cache gespeicherte Seite ermöglicht es ihnen, euren Content auch dann anzuzeigen, falls euer Server nicht verfügbar ist. Ihr könnt jedoch mit dem robots-Meta-Tag "nosnippet" die Anzeige eines Snippets unterbinden oder mit dem robots-Meta-Tag "noarchive" die Speicherung einer Seite im Cache deaktivieren. Wird dies auf vorhandenen, bekannten Seiten geändert, muss der Googlebot die entsprechenden Seiten zuerst erneut crawlen und indexieren, damit die Änderung in den Suchergebnissen widergespiegelt wird.

Dieser Blog-Post verdeutlicht hoffentlich einige der Prozesse, die dem Tool zur Entfernung von URLs zugrunde liegen. In unserem nächsten Blog-Post beschäftigen wir uns mit Möglichkeiten, die ihr habt, falls ihr die Entfernung von Content anfordern möchtet, der euch nicht gehört. Bleibt dran!

Feedback und Fragen im Webmaster-Forum sind wie immer willkommen.

Hier findet ihr den dritten Teil der Serie: Entfernen von Content, der euch nicht gehört

URL removals explained, part II: Removing sensitive text from a page (English version)

Post von John Mueller, Webmaster Trends Analyst, Google Schweiz (Veröffentlicht von Jörg Pacher, Search Quality)

Freitag, 16. April 2010

Webmaster-Tools: Gemeinsamer Zugriff leicht gemacht

Es heißt, gemeinsam mit Freunden macht alles mehr Spaß. Passend zu diesem Motto haben wir vor kurzem zur Website-Überprüfung in den Webmaster-Tools eine Funktion hinzugefügt, die es euch erleichtert, die bestätigte Inhaberschaft eurer Websites mit anderen zu teilen.

Bisher musste jede weitere Person mithilfe eines Meta-Tags oder einer HTML-Datei als zusätzlicher bestätigter Inhaber einer Website ausgewiesen werden. Dies funktioniert in manchen Situationen problemlos, kann jedoch in anderen Fällen schwierig sein. Was ist beispielsweise, wenn ihr 20 Personen als bestätigte Inhaber eurer Website benötigt? Es wäre äußerst zeitaufwendig, 20 Meta-Tags oder HTML-Dateien hinzuzufügen. Mit unserer neuen Funktion ist das Hinzufügen neuer überprüfter Inhaber ein Kinderspiel.


Als bestätigter Inhaber einer Website könnt ihr die Seite mit den “Überprüfungsdetails” anzeigen (über die Links Webmaster-Tools oder die Überprüfungs-Startseite). Auf dieser Seite erhält ihr Informationen zur Website sowie eine Liste aller anderen bestätigten Inhaber. Am Ende der Liste mit den Inhabern findet ihr die Schaltfläche "Nutzer hinzufügen...". Klickt auf den Link, gebt die E-Mail-Adresse des Nutzers ein und die Person wird sofort zu einem bestätigten Inhaber der Website. Ihr könnt diese Inhaberschaft jederzeit wieder entfernen. Klickt dazu auf der Seite mit den Details neben der E-Mail-Adresse des Benutzers auf den Link "Überprüfung aufheben".

Beim Verwenden dieser Funktion solltet ihr einige wichtige Dinge beachten. Erstens muss jede Seite mindestens einen Inhaber aufweisen, der direkt bestätigt wurde (über ein Meta-Tag oder eine HTML-Datei). Wenn für alle direkt bestätigten Inhaber die Überprüfung aufgehoben wird, gilt dies automatisch auch für die bevollmächtigten Inhaber. Zweitens könnt ihr nur Personen als Inhaber bevollmächtigen, die ein Google Konto besitzen. Schließlich solltet ihr beachten, dass alle bevollmächtigten Inhaber genau die gleichen Zugriffsrechte haben wie ihr selbst. Sie können weitere Personen bevollmächtigen, Anfragen zum Entfernen von URLs stellen, Sitelinks in Webmaster-Tools verwalten usw. Bevollmächtigt daher nur Personen, denen ihr vertraut!

Wir hoffen, dass wir hiermit denjenigen von euch, die mehr als eine Person als bestätigten Inhaber für ihre Website benötigen, das Leben etwas erleichtern können. Bei Fragen findet ihr wie immer Unterstützung im Webmaster-Forum.

Sharing the verification love (English version)

Post von Sean Harding, Software Engineer (Veröffentlichtung der deutschen Fassung von Jörg Pacher, Search Quality Team)

Dienstag, 13. April 2010

Websites für mehrere Regionen

Habt ihr gewusst, dass die meisten User bei einer Umfrage der Meinung waren, in ihrer eigenen Sprache verfügbare Informationen wären wichtiger als ein niedriger Preis? Ich selbst lebe in der Schweiz und habe die Erfahrung gemacht, dass Freunde und Familienmitglieder explizit nach lokalen und lokalisierten Websites suchen und diese bevorzugt verwenden: richtig lokalisierte Websites machen bei Usern also eindeutig das Rennen. Google bemüht sich immer, seinen Nutzern die bestmöglichen Suchergebnisse zu zeigen. Oft sind das Seiten, die für den Standort des Nutzers bzw. seine Sprache lokalisiert sind.

Wenn ihr eine lokalisierte Version eurer Website erstellen und pflegen möchtet, beinhaltet dies logischerweise auch, sie leicht erkennbar und auffindbar zu machen. In dieser Blogpost-Serie geht es darum, was aus der Sicht von Suchmaschinen bei Websites für mehrere Regionen und in mehreren Sprachen zu beachten ist. (Mit unterschiedlichen Regionen sind normalerweise unterschiedliche Länder gemeint.) Manchmal trifft für eine Website auch beides zu und sie ist sowohl für mehrere Regionen als auch in mehreren Sprachen verfügbar. Wir beginnen mit ein paar allgemeinen Vorbereitungen und schauen uns dann Websites für mehrere Regionen an.

Vorbereitungen

Die Erweiterung einer Website auf mehrere Regionen bzw. Sprachen kann eine Herausforderung sein. Wenn ihr mehrere Versionen eurer Website erstellt, vervielfachen sich Probleme mit der Basisversion. Ihr sollten daher vor dem Start sicherstellen, dass alles richtig funktioniert. Normalerweise vervielfacht sich auch die Anzahl der URLs, mit denen ihr arbeitet. Daher solltet ihr nicht vergessen, dass ihr eine entsprechende Infrastruktur für die Website benötigt.


Planen von Websites für mehrere Regionen

Erkundigt euch bei der Planung von Websites für mehrere Regionen (also normalerweise für mehrere Länder) nach den rechtlichen bzw. administrativen Anforderungen, die gleich zu Beginn berücksichtigt werden sollten. Diese Anforderungen bestimmen unter Umständen eure Vorgehensweise; sie legen beispielsweise fest, ob ihr einen länderspezifischen Domain-Namen verwenden dürft oder nicht.
Alle Websites beginnen mit Domain-Namen. Google unterscheidet zwei unterschiedliche Typen von Domain-Namen:

  • ccTLDs (länderspezifische Top-Level-Domain-Namen, auf Englisch “country-code top level domain names”): Diese sind an ein bestimmtes Land gebunden. Der Domain-Name .de steht beispielsweise für Deutschland und der Domain-Name .cn für China. Anhand der ccTLDs können Nutzer und Suchmaschinen erkennen, dass eure Website explizit für ein bestimmtes Land gedacht ist.


  • gTLDs (generische Top-Level-Domain-Namen, auf Englisch “generic top level domain names”): Diese sind nicht an ein bestimmtes Land gebunden. Beispiele für gTLds sind .com, .net, .org oder .museum. Google betrachtet regionale Top-Level-Domain-Namen wie .eu und .asia als gTLDs, da sie nicht an ein bestimmtes Land gebunden sind. Außerdem betrachten wir einige ccTLDs wie .tv oder .me, die nicht von den jeweiligen Ländern genutzt werden, als gTLDs, da Nutzer und Webmaster diese unserer Erfahrung nach eher als generische als als länderspezifische TLDs ansehen. Wir haben keine vollständige Liste solcher fremdgenutzter ccTLDs, die wir als gTLDs betrachten, da sich diese im Lauf der Zeit ändert. Die geografische Ausrichtung für Websites mit gTLDs könnt ihr mithilfe der Einstellung "Geografisches Ziel" in Webmaster-Tools festlegen.


Faktoren der geografischen Ausrichtung

Im Allgemeinen verwendet Google die folgenden Elemente, um die geografische Ausrichtung einer Website (oder eines Teils einer Website) zu bestimmen:

  1. Die Verwendung einer ccTLD ist für User gewöhnlich ein starkes Signal, da dadurch ein bestimmtes Land eindeutig gekennzeichnet wird.

    oder

    Die manuelle geografische Ausrichtung für gTLDs in Webmaster-Tools (kann auf Domain-, Sub-Domain- oder Unterverzeichnis-Ebene erfolgen): Weitere Informationen zu diesem Thema findet ihr im entsprechenden Blogpost und in der Webmaster-Tools-Hilfe. Durch die Anzeige von Regions-Tags der geografischen Ausrichtung in den Suchergebissen vermittelt diese Methode den Usern ebenfalls ein starkes Signal. Es ist normalerweise nicht sinnvoll, ein geografisches Ziel festzulegen, wenn die gleichen Seiten eurer Website für mehr als ein Land – beispielsweise für alle deutschsprachigen Länder – gedacht sind. Schreibt daher nur in der entsprechenden Sprache und verwendet die geografische Ausrichtung nicht. (Weitere Informationen zum Schreiben in anderen Sprachen könnt ihr in Kürze im Blog erwarten.)


  2. Der Server-Standort (über die IP-Adresse des Servers) liegt häufig in der Nähe der User. Einige Websites verwenden jedoch verteilte Netzwerke für die Contentübermittlung (Content Delivery Networks – CDNs) oder werden in einem Land mit besserer Webserver-Infrastruktur gehostet. Daher versuchen wir, uns nicht allein auf den Server-Standort zu verlassen.


  3. Andere Signale, die uns Hinweise geben können. Dazu gehören lokale Adressen und Telefonnummern auf den Seiten, die Verwendung der lokalen Sprache und Währung, Links von anderen lokalen Websites bzw. die Verwendung des lokalen Branchencenters von Google (wo verfügbar).

Wir verwenden für die geografische Ausrichtung keine Standort-Meta-Tags wie "geo.position" oder "distribution" oder HTML-Attribute. Auch wenn sie in anderer Hinsicht nützlich sein können, sind sie unserer Erfahrung nach für die geografische Ausrichtung normalerweise nicht verlässlich genug.


URL-Strukturen

Die ersten drei für die geografische Ausrichtung verwendeten Elemente stehen in engem Zusammenhang mit dem verwendeten Server und den verwendeten URLs. Es ist schwierig, die geografische Ausrichtung für jede Seite einzeln zu bestimmen. Daher ist es sinnvoll, die Verwendung einer URL-Struktur in Betracht zu ziehen, mit der die Website für die geografische Ausrichtung leicht in einzelne Teile unterteilt werden kann. Im Folgenden sind einige der möglichen URL-Strukturen mit ihren Vor- und Nachteilen in Hinblick auf die geografische Ausrichtung dargestellt:


    • ccTLDs
      z. B: example.de, example.fr
      Vorteile (+)
      - eindeutige geografische Ausrichtung
      - der Server-Standort spielt keine Rolle
      - leichte Unterteilung von Websites
      - rechtliche Anforderungen (manchmal)
      Nachteile (-)
      - teuer (+ Verfügbarkeit)
      - mehr Infrastruktur
      - ccTLD-Anforderungen (manchmal)


    • Sub-Domains mit gTLDs
      z. B: de.site.com, fr.site.com
      Vorteile (+)
      - leichte Einrichtung
      - kann geografische Ausrichtung in Webmaster-Tools verwenden
      - lässt unterschiedliche Server-Standorte zu
      - leichte Unterteilung von Websites
      Nachteile (-)
      - Nutzer können die geografische Ausrichtung u. U. nicht allein von der URL erkennen (steht "de" für die Sprache oder das Land?)


    • Unterverzeichnisse mit gTLDs
      z. B: site.com/de/, site.com/fr/
      Vorteile (+)
      - leichte Einrichtung
      - kann geografische Ausrichtung in Webmaster-Tools verwenden
      - geringe Wartung (gleicher Host)
      Nachteile (-)
      - Nutzer können die geografische Ausrichtung u. U. nicht allein von der URL erkennen
      - ein einziger Server-Standort
      - Unterteilung von Websites schwieriger


    • URL-Parameter
      z. B.: site.com?loc=de, ?country=france
      Vorteile (+)
      keine (nicht empfohlen)
      Nachteile (-)
      - Segmentierung auf Basis der URL ist schwierig
      - Nutzer können die geografische Ausrichtung u. U. nicht allein von der URL erkennen
      - geografische Ausrichtung in Webmaster-Tools ist nicht möglich


    Die geografische Ausrichtung ist, wie ihr sehen könnt, keine exakte Wissenschaft (selbst Websites mit länderspezifischen Top-Level-Domain-Namen können generischer Natur sein). Daher ist es wichtig, dass ihr bei euren Planungen Nutzer vom "falschen" Standort berücksichtigt. Eine Möglichkeit dafür ist beispielsweise, dass ihr auf allen Seiten Links bereitstellt, mit denen die Nutzer ihre gewünschte Region und Sprache auswählen können. Andere mögliche Lösungen werden noch im Laufe dieser Blogpost-Serie behandelt werden.


    Umgang mit mehrfach vorhandenem Content auf globalen Websites

    Websites, die Content für unterschiedliche Regionen und in verschiedenen Sprachen bereitstellen, erzeugen manchmal Content, der zwar gleich oder ähnlich, jedoch auf unterschiedlichen URLs verfügbar ist. Gewöhnlich stellt dies kein Problem dar, solange der Content an unterschiedliche Nutzer in verschiedenen Ländern gerichtet ist. Wir empfehlen euch zwar dringend, für alle unterschiedlichen Nutzergruppen auch unterschiedlichen Content bereitzustellen, haben aber Verständnis dafür, das dies nicht immer von Beginn an für alle Seiten und Kombinationen möglich ist. Es ist im Allgemeinen nicht nötig, den mehrfach vorhandenen Content zu "verstecken", indem ihr das Crawlen von Seiten mithilfe einer robots.txt-Datei oder eines "noindex"-Robots-Meta-Tags verhindert. Wenn ihr jedoch denselben Content für dieselben User auf unterschiedlichen URLs bereitstellt (wenn beispielsweise sowohl "example.de/" als auch "example.com/de/" deutschsprachigen Content für Nutzer in Deutschland zeigen), wäre es sinnvoll, eine bevorzugte Version auszuwählen und eine entsprechende Weiterleitung bzw. das "rel=canonical"-Linkelement zu verwenden.

    Habt ihr bereits eine Website, die für mehrere Regionen gedacht ist, oder habt ihr Fragen zum Planungsprozess einer solchen Website? Kommt ins Hilfeforum und diskutiert mit anderen Webmastern. In den kommenden Posts der Serie geht es um Websites in mehreren Sprachen und einige besondere Situationen bei globalen Websites. Bis bald!

    Working with multi-regional websites (English version)

    Post von John Mueller, Webmaster Trends Analyst, Google Schweiz (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality Team)

    Freitag, 9. April 2010

    Google Grants Site Clinic: Content is King

    Die erfolgreichste Maßnahme zur Suchmaschinenoptimierung besteht darin, spannende Artikel, aussagekräftige Bilder oder interessante Grafiken für Nutzer zur Verfügung zu stellen. Um diese Inhalte ins richtige Licht zu rücken, haben wir im vorherigen Post aus dieser Serie die technische Struktur für unser Site-Clinic-Projekt www.kenia-hilfe.com analysiert und verbessert.

    Im heutigen Blogpost untersuchen wir die Darstellung der Inhalte der Website, damit diese von Besuchern und Suchmaschinen besser verstanden werden können.

    Wie immer versuchen wir uns bei der Analyse von www.kenia-hilfe.com als Beispielseite auf solche Ratschläge zu konzentrieren, die für alle Webmaster und Website-Betreiber nützlich sind.


    Bilder und Fotos

    Die Bilder und Grafiken auf www.kenia-hilfe.com konnten bisher von Suchmaschinen und Nutzern mit Textbrowsern nur schlecht erkannt werden, da die Website keinen Alt-Text verwendet hat. Alt-Attribute sind nicht nur für die Barrierefreiheit der Website von Nutzen, sie unterstützen auch die Crawlbarkeit. Darüber hinaus können durch Bilder mit Alt-Text weitere Besucher über die Google Bilder-Suche gewonnen werden. Ausdrucksstarke Dateinamen der Bilder, also zum Beispiel nicht „bild039.jpg“, sondern „Kindergartengruppe.jpg“ sind ebenfalls hilfreich. Diese Schritte zahlen sich unter Umständen auch für die universelle Suche von Google aus. Hier bettet Google Bilder, Videos, News und andere relevante Inhalte in die Suchergebnisse ein.

    Im Falle von www.kenia-hilfe.com hat sich der Webmaster dazu entschieden, die meisten Bilder der Website für die Suche zu blockieren, indem er die Anweisung Disallow: /sites/ in der robots.txt-Datei verwendet. Die meisten Bild-Dateien von www.kenia-hilfe.com sind in Unterverzeichnissen von www.kenia-hilfe.com/sites/ untergebracht und werden folglich in Zukunft nicht gecrawlt werden.

    Einige der Bilder werden trotzdem noch in der Bilder-Suche angezeigt, weil sie bereits indexiert waren, bevor die neue robots.txt-Datei erstellt wurde. Ihr könnt die gesamte robots.txt-Datei unter http://www.kenia-hilfe.com/robots.txt einsehen. Wenn ihr mehr Informationen über robots.txt haben wollt, werft doch einen Blick in unsere Webmaster-Zentrale!


    Nur eine Sprache pro Seite

    Die alte Fassung der Website mischte deutschen und englischen Text auf einzelnen Seiten. Das war sowohl für Besucher als auch für den Googlebot verwirrend. Der Webmaster entschied sich, das zu verbessern. Jetzt werden die sprachlich unterschiedlichen Inhalte durch Unterverzeichnisse klar voneinander getrennt. Deutsche Inhalte sollten unter http://www.kenia-hilfe.com/de, englischer Content unter http://www.kenia-hilfe.com/en erscheinen.

    Im Moment ist Content auf www.kenia-hilfe.com manchmal noch im Unterverzeichnis der jeweils anderen Sprache aufzufinden. In Zukunft wird die Unterteilung aber hoffentlich in allen Fällen eingehalten. Die Erstellung der Verzeichnisstruktur war ein erster wichtiger Schritt, um die Website in Zukunft weiter zu organisieren. Die Übersetzung aller Inhalte in beide Sprachen ist eine eigene Herausforderung.


    Verbesserung der internen Verlinkungen im Menü

    Die alte Fassung von www.kenia-hilfe.com verwendete ein relativ einfaches HTML-Fold-Out-Menü. Solche Menüs führen meist von der Homepage weg, wenn man ein Element des Fold-Out-Menüs anklickt, und laden eine komplett neue Seite, sobald man Unterpunkte des Navigationsmenüs öffnen möchte.

    Das ist weder für Nutzer noch Suchmaschinen optimal, insbesondere weil der Crawler der Homepage und deren interner Verlinkung spezielle Bedeutung zumisst. Das neue „Nested Menu“ (also ein verschachteltes Menü) macht die Untermenüpunkte und ihre Links für den Crawler einsehbar, ohne dass die Homepage verlassen werden muss. Die klarere Struktur vereinfacht Google das Auffinden der Seiten, die indexiert werden sollen.


    Die wichtigste Botschaft einer Seite als Überschrift darstellen

    Um die Inhalte einer jeden Seite für Nutzer und Suchmaschinen transparenter zu machen, wird das Alleinstellungsmerkmal (auch ”Unique Sellling Point” genannt) durch den "title"-Tag und die Überschriften hervorgehoben. Es ist ratsam, Überschriften durch die Benutzung von H-Tags (also <h1>, <h2>, etc.) auch als solche zu markieren.

    Nehmt zum Beispiel http://www.kenia-hilfe.com/de/kinder/lisa: der Header "Lisa - ein Neugeborenes kommt nach Nice View" fasst den Inhalt in wenigen Worten zusammen und ist so für jeden Leser hilfreich.

    Wenn ihr die gegenwärtige Homepage von www.kenia-hilfe.com anschaut, werdet ihr allerdings zum Schluss kommen, dass der momentane H1-Header “Startseite” noch aussagekräftiger sein könnte.

    Wie immer gibt es noch Platz für weitere Verbesserungen. Die eigene Website im Auge zu behalten und nach Möglichkeiten zu suchen, sie Schritt für Schritt weiter zu verbessern, ist eine Strategie, die auf jeden Fall hilfreich ist.

    Falls ihr Vorschläge oder Ideen habt, wie man die Website weiter verbessern könnte, oder Fragen zu eurer eigenen Website stellen wollt, hinterlasst doch einen Kommentar oder schaut im Webmaster-Forum vorbei! Die Community dort hilft immer gerne weiter.

    Und überseht nicht unseren abschließenden Blogpost zu www.kenia-hilfe.com: Webmaster haben häufig mit Problemen zu kämpfen, die auf Grund von Duplicate Content entstehen. Das nächste mal beschäftigen wir uns mit genau diesem Thema.

    Post von Michael Schwarz und Jörg Pacher, Search Quality Team

    Donnerstag, 1. April 2010

    Wie man unerwünschte Inhalte los wird, Teil 1: URLs & Verzeichnisse

    Heutzutage gibt es wirklich viel Content im Internet. Irgendwann kann es passieren, dass etwas online auftaucht, dass ihr da lieber nicht sehen würdet - das kann z. B. ein reißerischer Blogpost sein, den ihr jetzt bereut oder es kann sich um vertrauliche Daten handeln, die aus Versehen veröffentlicht wurden. In den meisten Fällen bewirkt das Löschen oder die Sperrung dieser Inhalte bereits, dass diese Sachen nach und nach aus den Suchergebnissen verschwinden. Falls ihr jedoch Inhalte, die von uns indexiert wurden, dringend entfernen möchtet und nicht darauf warten könnt, bis sie auf natürliche Weise verschwinden, dann könnt ihr unser Tool zum Entfernen von Webseiten verwenden um die Entfernung zu beschleunigen. Dazu müssen einige Voraussetzungen erfüllt sein, die wir nachfolgend besprechen.

    Wir haben eine Serie von Blogposts vorbereitet, die euch erklären, wir ihr eine Reihe unterschiedlicher Arten von Content erfolgreich entfernen könnt und welche gängigen Fehler ihr dabei vermeiden solltet. Im ersten Post geht es um einige einfache Fälle: Die Entfernung einer einzelnen URL, die Entfernung eines ganzen Verzeichnisses oder einer Website und wie man bereits entfernten Content wieder hinzufügen kann. Ich empfehle außerdem unseren vorigen Post über das Reputationsmanagement in den Suchergebnissen.

    Entfernung einer einzelnen URL

    Damit ein Antrag auf Entfernung erfolgreich sein kann, muss im Allgemeinen der Besitzer der URL(s), um die es geht - egal ob das ihr seid, oder jemand anderes - signalisieren, dass es OK ist, diese Inhalte zu entfernen. Bei einer einzelnen URL kann dies auf 3 Arten geschehen:
    Bevor ihr einen Antrag auf Entfernung abschickt, könnt ihr prüfen, ob die betreffende URL korrekt gesperrt ist:
    • robots.txt: Ihr könnt prüfen, ob die URL korrekt blockiert wird, indem ihr z. B. die “Abruf wie durch Googlebot”-Funktion oder das “robots.txt testen”-Feature in den Webmaster-Tools verwendet.
    • noindex-Meta-Tag: Ihr könnt “Abruf wie durch Googlebot” verwenden um sicherzustellen, dass das Meta-Tag irgendwo zwischen den <head> und </head>-Tags steht. Falls ihr eine Seite prüfen wollt, die ihr nicht in den Webmaster-Tools bestätigen könnt, dann könnt ihr die URL im Browser öffnen und dort den Seitenquelltext anzeigen, um sicherzustellen, dass das noindex-Meta-Tag zwischen <head> und </head> steht.
    • 404- oder 410-Status-Code: Ihr könnt die “Abruf wir durch Googlebot”-Funktion oder Tools wie z. B. LiveHTTPHeaders oder web-sniffer.net verwenden, um zu überprüfen, ob der richtige Status-Code zurückgeliefert wird. Manchmal steht auf “gelöschten” Seiten “404” oder “Not found”, im Header der Seite wird aber ein 200-Status-Code geliefert - es hilft hier also, ein richtiges Tool zum Prüfen der Statuscodes zu verwenden.

    Wenn unerwünschter Content von einer Seite entfernt wurde, diese Seite jedoch nicht durch eine der oben beschriebenen Arten blockiert wurde, dann wird es nicht möglich sein, diese URL komplett aus unseren Suchergebnissen zu löschen.
    Das passiert besonders dann häufig, wenn es sich nicht um eure eigene Website handelt. Wir behandeln in einem der folgenden Posts, was ihr in diesen Fällen tun könnt.

    Falls die betreffende URL eine der obigen Bedingungen erfüllt, dann könnt ihr sie entfernen, indem ihr auf http://www.google.com/webmasters/tools/removals die zu entfernende URL eingebt und die Option “Der Webmaster hat diese Seite bereits blockiert” wählt. Dabei ist es wichtig, genau die URL zu verwenden, wo sich der betreffende Content befindet und nicht die URL des Google-Suchergebnisses.
    Ihr solltet also z. B.
    http://www.example.com/peinliche-sachen.html verwenden
    und nicht
    http://www.google.de/search?q=peinliche+sachen
    Dieser Artikel liefert weitere Informationen, wie ihr sicherstellen könnt, auch tatsächlich die korrekte URL eingegeben zu haben. Bedenkt dabei allerdings: Falls ihr nicht die exakte URL angebt, die euch stört, werden wir nicht in der Lage sein, den entsprechenden Content zu entfernen.

    Ein ganzes Verzeichnis oder eine Website entfernen

    Damit die Entfernung eines Verzeichnisses oder einer Website funktionieren kann, muss das Verzeichnis oder die Site in der robots.txt-Datei vom Crawling ausgeschlossen sein. Um beispielsweise das Verzeichnis http://www.example.com/geheim/ zu entfernen, müßte die robots.txt-Datei folgendes enthalten:
    User-agent: *
    Disallow: /geheim/
    Es reicht dabei nicht, wenn die oberste Ebene des Verzeichnisses einen 404-Status-Code liefert, da es möglich ist, dass ein Verzeichnis einen 404 liefert, aber dennoch Dateien unterhalb im Verzeichnis bereitstellt. Indem ihr die robots.txt verwendet um ein Verzeichnis (oder eine gesamte Website) zu blockieren, stellt ihr sicher, dass alle URLs unterhalb des Verzeichnisses (oder der Site) ebenfalls blockiert sind. Ihr könnt testen, ob ein Verzeichnis korrekt blockiert wurde, indem ihr die “Abruf wir durch Googlebot”-Funktion oder die “robots.txt testen”-Funktion in den Webmaster-Tools verwendet.

    Nur Webmaster mit bestätigter Website können in den Webmaster-Tools die Entfernung einer gesamten Website oder eines Verzeichnisses beantragen. Um ein Verzeichnis oder eine Site zu entfernen, könnt ihr einfach die betreffende Website in den Webmaster-Tools anklicken, zu Website-Konfiguration > Crawler-Zugriff > URL entfernen navigieren und auf “Neuer Antrag auf Entfernung” klicken. Wenn ihr dort die Homepage (Root) eurer Website als URL angebt, werdet ihr nachfolgend dazu aufgefordert, die Entfernung der gesamten Website zu bestätigen. Wenn ihr ein Verzeichnis angebt, solltet ihr die Option “Verzeichnis entfernen” wählen.

    Inhalte wieder hinzufügen

    Ihr könnt Anträge auf Entfernung jederzeit abbrechen. Auch die, welche von anderen Leuten abgeschickt wurden. Damit ihr dies tun könnt, müsst ihr in den Webmaster-Tools bestätigter Besitzer der Website sein.
    Sobald eure Eigentümerschaft überprüft wurde, könnt ihr zu Website-Konfiguration > Crawler-Zugriff > URL entfernen > Entfernte URLs (oder > Anfragen von anderen) navigieren und auf “Abbrechen” bei den Anträgen klicken, die ihr stoppen wollt.

    Ihr habt weitere Fragen? Bleibt gespannt auf die restlichen Posts unserer Serie über die Entfernung von Inhalten aus den Google-Suchergebnissen. Falls ihr nicht warten könnt: In unserem Forum für Webmaster wurde zu individuellen Fällen der Entfernung von Inhalten schon einiges geschrieben. Falls ihr nach dem Lesen der Beiträge anderer User noch eigene Fragen habt, könnt ihr sie dort stellen. Bedenkt dabei, dass es in den meisten Fällen schwierig ist, konkrete Hinweise zu einem bestimmten Antrag auf Entfernung zu geben, wenn die Website oder URL nicht angegeben wird. Wir empfehlen euch daher, eure URL mitzuteilen, indem ihr einen Kurz-URL-Dienst nutzt, so dass ihr euch keine Sorgen darüber zu machen braucht, dass diese URL als Teil des Forumposts indexiert wird. Viele dieser Dienste ermöglichen es euch sogar, den gekürzten Link später zu deaktivieren, nachdem eure Frage beantwortet wurde.

    Hier findet ihr den zweiten Teil der Serie: Entfernen und Aktualisieren von Content aus dem Google-Cache

    URL removal explained, Part I: URLs & Directories (English version)

    Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Sven, Search Quality Team)