Posted:
"Diese Website kann Ihren Computer beschädigen"
Ihre habt diese Meldung vielleicht bereits in unseren Suchergebnissen gesehen - aber was genau verbirgt sich dahinter? Wenn ihr auf den entsprechenden Link klickt, werdet ihr zu einer zusätzlichen Hinweisseite anstatt zur Site aus dem Suchergebnis weitergeleitet. Falls ihr nur den Backblog eurer Großmutter anschauen wolltet, wirkt dies vielleicht etwas verwirrend. Zumal ihr es wohl für unwahrscheinlich haltet, dass sich eure Großmutter insgeheim Fähigkeiten zum Hacken von Computern angeeignet hat. Google muss also einen Fehler gemacht haben und mit der Site eurer Großmutter ist alles in Ordnung...

Ich arbeite in dem Team, das dabei hilft, diese Warnhinweise in unseren Suchergebnissen einzublenden und werde hier versuchen, diesen Sachverhalt etwas näher zu erläutern. Die gute Nachricht ist, dass eure Großmutter immer noch nett und freundlich ist - sie hat nicht vor, ein Botnet zu starten oder Kreditkartennummern zu klauen. Die schlechte Nachricht ist, dass ihre Website oder der Server, auf der die Site gehostet ist, wahrscheinlich eine Sicherheitslücke hat. Diese Sicherheitslücke wurde ausgenutzt, um bösartigen Code in die Site eurer Großmutter einzubauen. Wahrscheinlich handelt es sich dabei um ein unsichtbares Skript oder einen iFrame, der Content einer anderen Site einbindet und jeden Computer angreift, der diese Seite aufruft. Im Falle eines erfolgreichen Angriffs werden dann Viren, Spyware, Key-Logger oder anderes unangenehmes Zeug auf dem betreffenden Computer installiert.

Wenn ihr diesen Warnhinweis bei einer Site in unseren Suchergebnissen seht, ist es meist am besten, den Hinweis ernst zu nehmen. Google verfügt über automatische Scanner, die ständig nach derartigen Websites suchen. Ich helfe dabei, diese Scanner zu entwickeln und bin immer wieder überrascht, wie genau die erzielten Ergebnisse sind. Wenn der Hinweis erscheint, befindet sich mit sehr großer Wahrscheinlichkeit irgendwo auf der betreffenden Site ein Problem, selbst wenn es sich um die Site einer Person handelt, der ihr voll vertraut. Unsere automatischen Scanner treffen unvoreingenommene Einschätzungen, die auf dem bösartigen Content der Seiten basieren und nichts mit der Reputation des jeweiligen Webmasters zu tun haben.

Genau wie eure Computer zu Hause benötigen Server regelmäßig die neuesten Updates. Es gibt zahlreiche Tools, die euch das Erstellen von Websites erleichtern - aber mit jedem Tool steigt das Risiko einer Sicherheitslücke. Selbst wenn ihr immer aufmerksam bleibt und alle Komponenten eurer Site auf dem neuesten Stand haltet, muss dies nicht unbedingt auf euren Webhoster zutreffen. Der Hoster verwaltet den Server eurer Site und hat womöglich nicht die aktuellsten Betriebssystem-Updates installiert. Und solche Probleme treten nicht nur auf den Sites unschuldiger Großmütter auf - wir hatten bereits solche Warnhinweise auf Sites von Banken, Sportvereinen oder auch auf Sites von Firmen und staatlichen Einrichtungen.

Oh nein... Ich brauche Hilfe!
Nachdem ihr nun wisst, was die Warnhinweise in unseren Suchergebnissen zu bedeuten haben, bleibt die Frage, was ihr tun könnt, falls unsere Scanner Malware auf eurer Site gefunden haben.

Es gibt zahlreiche Informationen, die euch dabei helfen, die Dinge wieder in Ordnung zu bringen. Auf unserem Webmasterblog stellen wir einige Tipps zur Verfügung und halten eine Checkliste für Webmaster bereit.
Bei Stopbadware.org könnt ihr viele hilfreiche Informationen finden, ebenso wie in deren Forum, wo zahlreiche hilfsbereite Freiwillige gerne passende Auskünfte geben (manchmal trefft ihr mich dort auch an). Ihr könnt euch unsere "Safe Browsing"-Diagnoseseite anschauen (http://www.google.com/safebrowsing/diagnostic?site=<adresse-eurer-site>) , um genauere Informationen darüber zu erhalten, was unsere automatischen Scanner auf eurer Site gefunden haben. Falls etwas gefunden wurde, zeigen unsere Webmaster-Tools an, welche URLs gescannt wurden und welche als infiziert eingestuft worden sind.

Sobald ihr den bösartigen Code aus eurer Site entfernt habt, könnt ihr die Webmaster-Tools nutzen, um eine erneute Überprüfung zu beantragen. Unsere automatischen Systeme werden daraufhin eure Site erneut scannen und den Warnhinweis aus unseren Suchergebnissen entfernen, falls keine Malware mehr entdeckt wurde.

Rechtzeitige Warnung
Ich höre oft von Webmastern, die sich bei Google nach der Möglichkeit erkundigen, eine entsprechende Warnung zu bekommen, bevor der Malware-Warnhinweis in den Suchergebnissen eingeblendet wird. Wenn der Hinweis erscheint, senden wir normalerweise eine E-Mail an den Betreiber der Site und geben einen entsprechenden Hinweis im Webmaster-Tools-Konto des Seitenbetreibers. Es gibt aber keine Warnung im Vorfeld - bevor der Warnhinweis erscheint. Webmaster können demnach die Site nicht bereinigen, bevor der Warnhinweis in den Suchergebnissen erscheint.

Schauen wir uns die Sache jedoch einmal aus der Sicht einer Users an. Als User würde es mich ziemlich stören, wenn mich Google über ein Suchergebnis zu einer bösartigen Site leiten würde, obwohl diese bereits als bösartig identifiziert wurde. Selbst eine geringe Verzögerung zwischen Erkennung von Schadsoftware und Einblendung des Warnhinweises würde einige User einem unnötigen Risiko aussetzen - was eigentlich nicht gerechtfertigt erscheint. Ich weiß, dass es für Webmaster mitunter frustrierend ist, den Warnhinweis zu den Suchergebnissen ihrer Site eingeblendet zu sehen. Letztendlich bin ich jedoch der Meinung, dass der Schutz der User vor Malware das Internet sicherer macht, wovon schließlich sowohl User als auch Webmaster profitieren.

In unseren Webmaster-Tools haben wir neulich einen Test gestartet, um Webmaster zu informieren, falls wir festgestellt haben, dass ihre Serversoftware Sicherheitslücken aufweist. Wenn ihr auf einen derartigen Hinweis reagiert und eure Serversoftware aktualisiert, kann damit verhindert werden, dass Schadsoftware auf euren Server gelangt. Niemals Malware auf der eigenen Site zuzulassen ist der beste Weg, um unsere Warnhinweise zu vermeiden!

Überprüfungen
Ihr könnt eine erneute Überprüfung über die Webmaster-Tools beantragen und dort auch den Status des jeweiligen Antrags erkennen. Falls ihr glaubt, eine Überprüfung dauert zu lang, solltet ihr den jeweiligen Status in den Webmaster-Tools überprüfen. Die Überprüfung einer Site auf Malware ist nicht ganz einfach und die automatisierten Scanner sind deutlich genauer als eine Überprüfung durch Menschenhand. Die Scanner können demnach etwas entdeckt haben, das ihr bei eurer Prüfung übersehen habt, was z. B. der Grund dafür sein kann, dass eine erneute Überprüfung fehlgeschlagen ist. Falls bei eurer Site der Warnhinweis zu Malware angezeigt wird, könnt ihr in den Webmaster-Tools auch einige Beispiel-URLs finden, die wir als problematisch erkannt haben. Diese Liste beinhaltet nicht alle schadhaften URLs (da diese sonst oftmals sehr, sehr lang würde), aber sie sollte ein guter Ausgangspunkt für eure weiteren Schritte dienen.

Außerdem solltet ihr eine erneute Überprüfung bei Malware nicht mit einem Antrag auf Wiederaufnahme verwechseln. Wenn unsere automatisierten Scanner Malware auf eurer Site finden, wird die Site in der Regel nicht aus unseren Suchergebnissen entfernt. Für die Entfernung von Spam-Sites aus den Suchergebnissen sind andere Prozesse verantwortlich. Falls dies passiert sein sollte und ihr der Entfernung widersprecht, solltet ihr einen Antrag auf Wiederaufnahme stellen. Falls eure Site aber nur den Warnhinweis zu Malware in den Suchergebnissen anzeigt, wird euch ein Antrag auf Wiederaufnahme nicht weiterhelfen - in diesem Fall solltet ihr einen Antrag auf erneute Überprüfung einreichen, was ihr direkt von der Übersichtsseite der Webmaster-Tools aus tun könnt.


Wie lange wird die erneute Überprüfung dauern?
Als Webmaster wollt ihr natürlich den Warnhinweis zu Malware so schnell wie möglich aus den Suchergebnissen zu eurer Site entfernt sehen - deshalb bekommen wir viele Fragen zur Dauer dieses Prozesses. Sowohl der ursprüngliche Scanvorgang als auch das Scannen in Folge eines Antrags auf erneute Überprüfung laufen vollkommen automatisiert ab. Diese Systeme analysieren weite Teile des Internets - was bekanntermaßen ziemlich groß ist - weshalb die erneute Überprüfung ggf. nicht sofort stattfindet. Im Idealfall wird der Warnhinweis innerhalb einiger Stunden entfernt. In ungünstigen Fällen kann es auch mal einen Tag oder etwas länger dauern.

Malware? We don't need no stinking Malware! (English version)

Post von Oliver Fisher, Software Ingenieur, Anti-Malware Team (Übersetzung von Sven, Search Quality)

Posted:
Heute gehen wir mal wieder auf ein paar Grundlagen ein. Wir beantworten die Frage: Was ist eine Website?

... OK, nicht wirklich. Aber wir schauen uns an, was der Begriff "Website" im Zusammenhang mit den Webmaster-Tools bedeutet, welche Arten von Sites ihr eurem Webmaster-Tools Konto hinzufügen könnt und welche Daten ihr für die verschiedenen Arten von Sites ermitteln könnt.

Weshalb das wichtig für euch sein könnte? Dies sind alles Fragen, die wir in letzter Zeit von Webmastern erhalten haben:
  • "Ich weiß, dass meine Site viele eingehende Links hat - weshalb kann ich diese Links nicht in meinem Webmaster-Tools Konto sehen?"

  • "In den Google-Suchergebnissen sehe ich Sitelinks für meine Site, aber in den Webmaster-Tools wird die Meldung 'Google hat keine Sitelinks für Ihre Website generiert' angezeigt."

  • "Weshalb zeigt die Seite mit den häufigsten Suchanfragen immer noch 'Keine Daten verfügbar' an? Meine Site ist schon seit Monaten verifiziert."
In allen diesen Fällen ist die Antwort gleich: Die Daten waren vorhanden, aber die Webmaster haben sich die falsche "Version" ihrer Domain in den Webmaster-Tools angeschaut.

Zum Hintergrund

Die Mehrzahl der Tools und Einstellungen in den Webmaster-Tools arbeiten Site-basiert. Dies bedeutet, dass, wenn ihr z. B. die Seite "Die häufigsten Suchanfragen" aufruft, ihr nur die häufigsten Suchanfragen für eine bestimmte Site seht. Wenn ihr die häufigsten Suchanfragen für www.example.com anschaut, seht ihr etwas anderes als bei den häufigsten Suchanfragen für www. example.org. Erscheint sinnvoll, oder?

Nicht alle Websites besitzen jedoch URLs im Format von www.example.com. Eure Root-URL beinhaltet vielleicht nicht die www-Subdomain (example.com). Sie kann eine spezifische Subdomain beinhalten (rollergirl.example.com) oder eure Site kann sich in einem Unterverzeichnis befinden, wenn sie z. B. auf einem Freehost besteht (www.example.com/rollergirl/). Da wir Webmastern unabhängig davon, wie ihre Site gehostet ist, Zugang zu den Webmaster-Tools ermöglichen wollen, könnt ihr eine beliebige Kombination von Domain, Subdomain(s) und/oder Unterverzeichnissen als "Site" in eurem Webmaster-Tools Dashboard angeben. Sobald ihr verifiziert habt, dass ihr der Eigentümer seid, zeigen wir euch Informationen über diesen spezifischen Teil des Webs - unabhängig davon, wie groß oder klein dieser Teil ist. Wenn ihr eure Domain auf Root-Ebene überprüft habt, zeigen wir euch Daten über die gesamte Domain. Wenn ihr nur ein bestimmtes Unterverzeichnis oder eine Subdomain überprüft habt, zeigen wir ausschließlich Daten zu diesem Unterverzeichnis oder dieser Subdomain. Wenn wir z. B. Blogger als Beispiel verwenden: Jemand, der bei Blogger einen Blog betreibt, sollte ausschließlich Zugang zu Daten der eigenen Subdomain (z. B. googlewebmastercentral-de.blogspot.com) und nicht der gesamten Domain "blogspot.com" haben.

Was häufig übersehen wird: www ist tatsächlich eine Subdomain. Es ist zwar eine sehr, sehr häufig verwendete Subdomain und viele Sites zeigen den gleichen Content an, unabhängig davon, ob mit oder ohne www darauf zugegriffen wird - aber dennoch bleibt die Tatsache, dass example.com und www.example.com zwei unterschiedliche URLs sind und potentiell unterschiedlichen Content beinhalten können. Aus diesem Grund werden sie in den Webmaster-Tools auch als verschiedene Sites behandelt. Und da sie verschiedene Sites sind - genauso wie www.example.com und www.example.org - können sie verschiedene Daten liefern. Wenn ihr euch die Daten von www.example.com (mit der www-Subdomain) anschaut, werdet ihr nicht die Daten von example.com (ohne die www-Subdomain) sehen und umgekehrt.

Was kann ich tun, um sicher zu sein, dass ich alle relevanten Daten sehen kann?
  • Wenn ihr den Eindruck habt, nicht alle Daten zu sehen, solltet ihr sowohl die www-Version also auch die Version ohne www in eurem Webmaster-Tools-Konto hinzufügen. Schaut euch dann die Daten für beide Sites an.

  • Macht eine Site-Suche für eure Domain ohne den www-Zusatz (z. B. [site:example.com]). Dies sollte Seiten von eurer Domain sowie von euren indexierten Subdomains anzeigen (z. B. www.example.com, rollergirl.example.com, etc.). Aus diesen Resultaten solltet ihr ableiten können, ob eure Site überwiegend mit oder ohne www-Subdomain indexiert ist. Die Variante, die am häufigsten auftaucht, ist mit großer Wahrscheinlichkeit auch die Variante, die die meisten Daten im Webmaster-Tools Konto aufzeigt.

  • Ihr könnt uns mitteilent, ob ihr eure Site bevorzugt mit oder ohne www-Subdomain indexiert sehen möchtet, indem ihr die bevorzugte Domain festlegt.

  • Macht eure bevorzugte Version für jeden sichtbar, indem ihr auf eurer gesamten Site 301-Weiterleitungen zur bevorzugten Version einsetzt.
Obwohl example.com und www.example.com zwar den Eindruck erwecken, Zwillinge zu sein, werden euch echte Zwillinge sicher schnell darauf hinweisen, dass sie nicht dieselbe Person sind. :-) Jetzt, wo ihr darüber Bescheid wisst, solltet ihr sowohl eurer www-Version als auch eurer Version ohne www ein bisschen mehr Aufmerksamkeit in den Webmaster-Tools schenken - und wie immer könnt ihr eure Fragen gern in unserem Forum für Webmaster diskutieren.

Where's my data? (English version)

Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Sven, Search Quality)

Posted:
Während wir an unserem Ziel arbeiten, die Informationen der Welt zu organisieren und allgemein nutzbar und zugänglich zu machen, kommen wir oftmals in Situationen, wo wichtiger Content nicht öffentlich zugänglich ist. Um unseren Usern dabei zu helfen, Content zu finden, der möglicherweise eine Registrierung oder ein Abonnement erfordert, bietet Google eine Option für Web- und News-Anbieter: "First Click Free". First Click Free hat hauptsächlich zwei Ziele:
  1. Relevanten Content im Google-Suchindex anzubieten. Dies eröffnet Usern, denen die Existenz dieses Contents vorher nicht bekannt war, ein besseres Sucherlebnis.

  2. Anbietern von geschütztem Content die Möglichkeit zu geben, auf diesen Content aufmerksam zu machen.
First Click Free wurde so angelegt, dass der Content geschützt bleibt, aber gleichzeitig im Google-Index aufgenommen werden kann. Um First Click Free zu implementieren, müsst ihr es allen Usern, die eure Seite über die Google-Suche erreichen, ermöglichen, den gesamten Text des jeweiligen Dokuments zu sehen, so wie ihn der Crawler von Google erkannt hat - ohne dass eine Registrierung oder ein Abonnement erforderlich ist. Der erste Klick des Users zu eurem Content ist also kostenlos und erfordert keinerlei Login. Selbstverständlich könnt ihr dann, sobald der User versucht, einen anderen Teil eurer Site aufzurufen, diesen Zugriff blockieren und einen entsprechenden Zahlungs- oder Registrierungshinweis anzeigen.

Richtlinien
Webmaster, die First Click Free auf ihrer Site einsetzen möchten, sollten folgende Richtlinien beachten:
  • Alle User, die auf ein Ergebnis in der Google-Suche klicken und daraufhin auf eure Site gelangen, sollten die Möglichkeit haben, den gesamten Text des jeweiligen Contents zu lesen.

  • Die Seite, die über die Suche dorthin gelangten Usern angezeigt wird, muss identisch mit dem Content sein, den Googlebot sieht.

  • Wenn ein User auf einen Artikel gelangt, der mehrere Seiten umfasst, muss es möglich sein, den gesamten Artikel zu lesen. Um das zu erreichen, könnte der Content z. B. auf einer einzigen Seite dargestellt werden - dies müsste sowohl für Googlebot als auch eure Besucher erfolgen. Alternativ könntet ihr auch Cookies verwenden, um sicherzustellen, dass die User auf einen mehrseitigen Artikel Zugriff haben, ohne eine Zahlungsaufforderung oder einen Registrierungshinweis zu sehen.
Vorschläge zur Implementierung
Damit euer geschützter Content in der Google-Suche auftauchen kann, muss unser Crawler in der Lage sein, auf diesen Content zuzugreifen. Denkt daran, dass Googlebot Seiten hinter Registrierungs- oder Login-Formularen nicht erreichen kann. Ihr solltet eure Site so einrichten, dass der gesamte Content angezeigt wird, wenn zu erkennen ist, dass die Anfrage von Googlebot kam, was an den Informationen zum User-Agent und an der IP-Adresse erkennbar ist. Genauso wichtig ist, dass ihr Googlebot in eurer robots.txt-Datei den Zugriff auf die entsprechenden URLs gestattet.

Wenn User auf ein Ergebnis in der Google-Suche klicken, um auf euren Content zu gelangen, sollte euer Server den "Referer"-Wert im HTTP-Request-Header prüfen. Wenn sich die verweisende Seite auf einer Google-Domain wie z. B. www.google.com oder www.google.de befindet, solltet ihr den gesamten Inhalt der jeweiligen Seite anzeigen anstelle der eingeschränkten Version, die sonst gezeigt wird. Die meisten Webserver verfügen über Anweisungen, mit denen sich ein derartiges Verhalten problemlos einrichten läßt.

FAQ
Frage: Kann ich es so einrichten, dass Googlebot nur auf einen Teil meines geschützten Contents zugreifen darf?
Antwort: Ja.

Frage: Kann ich die Anzahl der Seiten einschränken, die ein User im Rahmen von First Click Free sehen kann?
Antwort: Nein. Jedem User, der über die Google-Suche euren Content erreicht, sollte die vollständige Version der jeweiligen Seite angezeigt werden.

Frage: Können First Click Free URLs mittels einer Sitemap-Datei eingereicht werden?
Antwort: Ja. Ihr könnt eine Sitemap-Datei wie gewohnt erstellen und einreichen.

Frage: Wird First Click Free Content garantiert in den Google-Index aufgenommen?
Antwort: Nein. Wir garantieren keine Aufnahme in den Index.

Habt ihr weitere Fragen oder Kommentare? Besucht einfach unser Forum für Webmaster und nehmt an den Diskussionen teil!

First Click Free for Web Search (English version)

Post von John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Sven, Search Quality)

Posted:
In letzter Zeit konnten wir beobachten, dass immer mehr Sites aufgrund verschiedener Sicherheitsmängel gehackt worden sind. Wir werden in Kürze einen Test starten, bei dem wir einige Webmaster darauf hinweisen, falls ihr Content-Management-System (CMS) oder sonstiges Publishing-System Sicherheitslücken aufweist oder anfällig für Hacking-Angriffe erscheint. Da dies noch ein Test ist, werden wir zunächst etwa fünf- bis sechstausend Webmaster entsprechend benachrichtigen. Besitzer potentiell gefährdeter Sites werden dann eine Nachricht im Nachrichten-Center, einem kostenlosen Service der Webmaster-Tools, finden.
Falls ihr eine Website betreibt, aber noch nicht bei den Webmaster-Tools angemeldet seid, ist dies kein Problem. Die Nachrichten werden gespeichert, so dass ihr euch alle Nachrichten anschauen könnt, die bezüglich eurer Site hinterlassen worden sind, falls ihr ein Webmaster-Tools-Konto erstellt.

Da eine der beliebtesten Anwendungen im Web die Software WordPress ist, werden wir unseren Test mit einer bestimmten WordPress-Version, die für ihre Sicherheitslücken bekannt ist, starten (2.1.1). Wenn dieser Test erfolgreich verläuft, werden wir die Benachrichtigungen ggf. auf weitere beliebte Web-Anwendungen ausdehnen. Die Benachrichtigung im Nachrichten-Center sieht bei einer erkannten WordPress 2.1.1-Version folgendermaßen aus:

Hier noch ein Hinweis von Matt: Es ist generell ratsam, die Software eures Webservers auf dem neuesten Stand zu halten. Bei WordPress ist z. B. die Version 2.6.2 die gerade aktuellste - diese Version ist nicht nur sicherer als die vorigen, bei dieser Version werdet ihr auch automatisch auf neue Updates hingewiesen. Falls ihr noch eine ältere WordPress-Version verwendet, kann ich nur empfehlen, auf die neueste Version umzusteigen.

Post von Patrick Chapman, Search Quality Team und Matt Cutts, Software-Ingenieur (Übersetzung von Sven, Search Quality)

Posted:
Wenn Webmaster ihren Content im Web veröffentlichen, dann kann er von der ganzen Welt gesehen werden. Leider ist der meiste Content im Web nur in einer einzelnen Sprache veröffentlicht und kann damit nur von einem Teil der Weltbevölkerung verstanden werden.

Unserem Ziel folgend, die Informationen der Welt überall zugänglich zu machen, hält Google Übersetzen eine Reihe von Tools für euch bereit, die es euch ermöglichen, euren Content automatisch übersetzt in anderen Sprachen anzubieten.


Manche User übersetzen vielleicht eure Seite bereits mit Google Übersetzen, aber ihr könnt dies noch einfacher machen, indem ihr unser "Translate My Page"-Gadget verwendet, das auf http://translate.google.de/translate_tools zur Verfügung steht.

Das Gadget wird in der jeweiligen Sprache des Users angezeigt. Auf diese Weise können sie das Gadget auf jeden Fall lesen, auch wenn sie den Rest der Seite nicht verstehen, und eure Seite in ihre Sprache übersetzen.

Es kann natürlich vorkommen, dass es Content auf eurer Seite gibt, von dem ihr nicht wollt, dass er von uns übersetzt wird. Ihr könnt jetzt das Attribut class=notranslate zu jedem beliebigen HTML-Element hinzufügen, um zu verhindern, dass dieses Element übersetzt wird. Ein Beispiel dafür wäre:
Email us at <span class="notranslate">sales at mydomain dot com
Und falls ihr eine ganze Seite habt, die nicht übersetzt werden soll, dann könnt ihr
<meta name="google" value="notranslate">
in den <head> eurer Seite einfügen, und wir werden keinerlei Content von dieser Seite übersetzen.

Wenn ihr schließlich eine fortgeschrittenere automatische Übersetzung direkt in eure Seite integrieren möchtet, dann werft eine Blick auf die AJAX Language API, die wir im März gelauncht haben.

Wir hoffen, dass ihr mit diesen Tools euren Content leichter in allen von uns unterstützten Sprachen veröffentlichen könnt, wie z. B. Arabisch, Bulgarisch, Katalanisch, Chinesisch, Kroatisch, Tschechisch, Dänisch, Niederländisch, Englisch, Philippinisch (Tagalog), Finnisch, Französisch, Griechisch, Hebräisch, Hindi, Indonesisch, Italienisch, Japanisch, Koreanisch, Lettisch, Litauisch, Norwegisch, Polnisch, Portugiesisch, Rumänisch, Russisch, Serbisch, Slovakisch, Slovenisch, Spanisch, Schwedisch, Ukrainisch und Vietnamesisch.

Helping you break the language barrier (English version)

Post von Josh Estelle, Google Translate (Übersetzung von Claudia, Search Quality)

Posted:
Die GData-API der Webmaster-Tools wurde dahingehend verbessert, dass euch nun noch mehr Einstellungen in den Webmaster-Tools zur Verfügung stehen, wie etwa die Bestimmung eines geografischen Standortes oder eure bevorzugte Domain. Für diejenigen unter euch, die nicht mit GData vertraut sind: es handelt sich um ein Protokoll, mit dem ihr Daten im Web lesen und schreiben könnt. GData erleichtert die Kommunikation mit vielen Google-Services wie den Webmaster-Tools. Die GData-API der Webmaster-Tools erlaubt es euch bereits, eure Sitemap zu eurem Konto hinzuzufügen und zu verifizieren, sowie Sitemaps programmatisch einzureichen. Jetzt könnt ihr auch auf Site-spezifische Informationen zugreifen und diese anpassen. Dies ist besonders dann nützlich, wenn ihr eine größere Anzahl von Sites besitzt. Mit der API der Webmaster-Tools könnt ihr hunderte von Operationen in derselben Zeit ausführen, die ihr normalerweise benötigen würdet, um eine einzige Site über die Web-Interface hinzuzufügen und zu verifizieren.

Welche Einstellungen kann ich vornehmen?

Wir haben vier neue Features in die API aufgenommen, die ihr für jede Site, die ihr verifiziert habt, sehen und anpassen könnt. Die Features sind:

  • Crawling-Geschwindigkeit: Ihr könnt bestimmen, ob Googlebot eure Site schneller oder langsamer crawlt (diese Details könnt ihr in unserem Artikel über die Anpassung der Crawling-Geschwindigkeit in der Webmaster-Hilfe lesen). Falls viele eurer Sites auf demselben Server gehostet sind und ihr die Kapazitäten eures Servers kennt, dann könnt ihr nun die Crawling-Geschwindigkeit für alle Sites mit einem Schlag anpassen. Dies wäre ein einfaches Beispiel dafür, wie ihr die GData-API der Webmaster-Tools verwenden könnt.

  • Geografischer Standort: Wenn eure Site auf einen bestimmten geografischen Standort angepasst ist, eure Domain dies aber nicht wiederspiegelt (wie beispielsweise bei einer .com-Domain), dann könnt ihr diese Informationen zur Verfügung stellen, die uns dabei helfen zu bestimmen, wo sich eure User-Zielgruppe befindet.

  • Bevorzugte Domain: Ihr könnt die Domain angeben, die für die Indexierung eurer Sites maßgeblich sein soll. Falls ihr beispielsweise die Site www.example.com habt, dann könnt ihr entweder example.com oder www.example.com als bevorzugte Domain verwenden. Dadurch verhindert ihr das Risiko, dass beide Sites unterschiedlich behandelt werden.

  • Erweiterte Bildsuche: Tools wie der Google Image Labeler erlauben Usern, ihre Bilder zu taggen, um ihre Ergebnisse in der Bildsuche zu verbessern. Die Webmaster-Tools-API ermöglicht es euch, dieses Feature in einem Schritt für alle eure Sites zu aktivieren oder zu deaktivieren.
Wie gehe ich vor?

Wir bieten euch Java-Code-Samples für alle aktuellen API-Funkionalitäten der Webmaster-Tools an. Hier ist ein Auszug aus einem Codeschnipsel, der eine Liste von Sites erfasst und für alle den geografischen Standort anpasst:

// Authenticate against the Webmaster Tools service
WebmasterToolsService service;
try {
service = new WebmasterToolsService("exampleCo-exampleApp-1");
service.setUserCredentials(USERNAME, PASSWORD);
} catch (AuthenticationException e) {
System.out.println("Error while authenticating.");
return;
}

// Read sites and geolocations from your database
readSitesAndGeolocations(sitesList, geolocationsList);

// Update all sites
Iterator
sites = sitesList.iterator();
Iterator
geolocations = geolocationsList.iterator();
while (sites.hasNext() && geolocations.hasNext()) {
// Create a blank entry and add the updated information
SitesEntry updateEntry = new SitesEntry();
updateEntry.setGeolocation(geolocations.next());

// Get the URL to update the site
String encodedSiteId = URLEncoder.encode(sites.next(),
"UTF-8");
URL siteUrl = new URL(
"http://www.google.com/webmasters/tools/feeds/sites/"
+ encodedSiteId);

// Update the site
service.update(siteUrl, updateEntry);
}


Wo gibt's die API?

Auf der Hauptseite für die GData-API der Webmaster-Tools werden alle Details der API erklärt. Sie enthält neben einem ausführlichen Leitfaden auch viele Codeschnipsel, die erklären, wie ihr die Java-Client-Bibliothek verwendet, die dort zum Download bereit steht. Weitere Details über GData und die verschiedenen Google-APIs könnt ihr auf der Homepage der Google-Data-APIs finden.

Webmaster Tools API updated with Site Settings (English version)

Post von Javier Tordable, Software Engineer (Übersetzung von Claudia, Search Quality)

Posted:
Eingehende Links sind Links von externen Sites, die auf eure Site verweisen. Eingehende Links können neue User zu eurer Site bringen, und sofern diese Links ehrlich verdient und aufgrund einer redaktionellen Auswahl freiwillig gesetzt wurden, sind sie für Google auch eines der positiven Signale in Bezug auf die Bedeutung eurer Site. Andere Signale dafür basieren etwa auf unserer Analyse des Contents eurer Site, der Relevanz für einen bestimmten Ort etc. Wie viele von euch wissen, können relevante und qualitativ gute eingehende Links einen Einfluss auf euren PageRank haben (einer von vielen Faktoren unseres Ranking-Algorithmus). Und qualitativ gute Links werden ganz von selbst auf solche Sites gesetzt, die hochwertigen Content oder einen einzigartigen Service anbieten.

Wie fließen diese Signale in das Ranking ein?

Angenommen, ihr besitzt die Site example.com, die Usern eine Vielzahl an individuellen Website-Templates und Design-Tipps anbietet. Einer der stärksten Ranking-Faktoren ist die Qualität des Contents. Zusätzlich ist meine Site auch noch von drei anderen Quellen verlinkt - einer der eingehenden Links kommt jedoch von einer Spam-Site. Was Google anbelangt, so lassen wir lediglich die beiden guten eingehenden Links als Signal für den PageRank in unser Ranking einfließen.

Abhängig von der Suchanfrage des Users werden über 200 Signale (einschließlich der Content der Site, sowie eingehende Links, wie oben bereits erwähnt) ausgewertet, um den Usern das relevanteste Suchergebnis zu liefern.


Wie könnt ihr mehr User gewinnen und eventuell die Anzahl eurer eingehenden Links verdientermaßen erhöhen?

Viele Webmaster haben darüber berichtet, wie sie ihr Publikum erfolgreich erweitert haben. Wir haben verschiedene Ideen und Informationsquellen zusammengestellt, die dabei helfen können, das Web für alle User zu verbessern.
Erstellt einzigartigen und guten Content auf eurer Site und überhaupt im Web
  • Fangt an zu bloggen: macht Videos, betreibt originelle Recherche und postet regelmäßig interessanten Content. Wenn ihr euch sehr für das Thema eurer Site begeistert, dann öffnet dies viele Möglichkeiten, um stärker in Kontakt mit euren Usern zu treten.

    Wenn ihr euch fürs Bloggen interessiert, dann lest in unserer Hilfe für Webmaster die speziellen Tipps für Blogger.

  • Zeigt euren Leser neue Dinge, deckt Neuigkeiten auf, seid unterhaltsam oder lehrreich, zeigt euer Fachwissen, interviewt verschiedene Leute, die in eurem Themengebiet eine Rolle spielen und stellt deren interessante Seiten vor. Macht eure Site wertvoll.

  • Tragt Wissenswertes zu Blogs und User-Reviews bei, die mit dem Thema, für das ihr euch interessiert, verwandt sind. Teilt eure sachkundigen Einsichten mit der Community.

  • Bietet ein nützliches Produkt oder einen guten Service an. Wenn Besucher eurer Site einen Nutzen aus eurem Angebot ziehen können, dann ist es wahrscheinlicher, dass sie einen Link auf eure Site setzen.

Weitere konkrete Ideen dazu und gute Tipps, die dabei helfen können, euren Traffic zu erhöhen, könnt ihr in einem meiner Lieblingsinterviews mit Matt Cutts lesen. Es bietet Webmaster einen sehr guten ersten Überblick (ich selbst habe die URL noch vor dem Verfassen dieses Posts an viele meiner Freunde weitergeleitet :)).
Nehmt Möglichkeiten zur Geschäftsentwicklung wahr
  • In den Webmaster-Tools könnt ihr in dem Abschnitt "Links > Seiten mit externen Links" einen Überblick über andere User erhalten, die sich für eure Site interessieren. Erweitert die Web-Community, indem ihr versteht, wer zu wem linkt und auf welche Art und Weise. Vielleicht stellt ihr fest, dass sich Publikums- oder Altersgruppen für euer Thema interessieren, von denen ihr es gar nicht erwartet hättet. Wenn beispielsweise die Webmaster von example.com eingehende Links von Kunstakademien bemerken würden, dann wäre es eine Überlegung wert, stärker in Verbindung mit der Kunstszene zu treten, deren Feedback zu erhalten und ihre Site und Ideen in diesem Kreis bekannter zu machen.

  • Ihr solltet natürlich bedacht vorgehen, wenn ihr neue Möglichkeiten in diesem Bereich verfolgt. Es ist nicht ratsam, in allgemeine Link-Bettelei zu verfallen, denn niemand ist ein Fan von Serienbriefen, und die wenigsten Webmaster von guten Sites werden wohl auf solche Bitten reagieren. Grundsätzlich sind viele der Methoden, um erfolgreiche, zwischenmenschliche Geschäftsbeziehungen zu knüpfen, auch online gültig.
Jetzt, nachdem ihr alles zum Thema interne Links, ausgehende Links und eingehende Links (siehe heutiger Post:)) gelesen habt, sehen wir euch hoffentlich in den Blog-Kommentaren! Danke, dass ihr die Linkwoche mitverfolgt habt!

Good times with inbound links (English version)

Post von Maile Ohye, Developer Programs Tech Lead (Übersetzung von Claudia, Search Quality)

Posted:
Das heutige Thema der Link-Woche dreht sich um die Erstellung von ausgehenden Links auf eurer Site. Ausgehende Links entstehen in der Regel ganz natürlich und die meisten Webmaster müssen sich darüber auch keine großen Gedanken machen. Falls ihr jedoch trotzdem an diesem einfachen, jedoch für das Web so fundamentalen Thema interessiert seid, dann stellen wir euch hier die guten und schlechten Methoden vor, und geben euch auch Antworten auf fortgeschrittenere Fragen, die eure Webmaster-Kollegen gestellt haben. Lasst uns mit guten ausgehenden Links beginnen.

Relevante ausgehende Links können euren Besuchern helfen
  • Sie liefern euren Lesern eingehendere Informationen zu verwandten Themen
  • Sie liefern Lesern eure individuellen Verweise auf bestehende Quellen
Sinnvolle ausgehende Links können eure Glaubwürdigkeit erhöhen
  • Sie zeigen, dass ihr Recherche betrieben habt und Fachwissen auf dem Gebiet besitzt
  • Besucher kehren eher zurück, um sich über zukünftige Themen zu informieren
  • Ihr baut dadurch Beziehungen zu anderen erfahrenen Webmastern auf (Besucher zu referieren kann euch beispielsweise die Aufmerksamkeit erfolgreicher Blogger sichern und eventuell Geschäftsbeziehungen ermöglichen)
Wenn es um die weniger idealen Methoden in Bezug auf ausgehende Links geht, gibt es wenige Neuigkeiten - um jedoch Unstimmigkeiten zu vermeiden, wollen wir hier noch einmal darauf eingehen.

Schlechte Praxis: Nicht überwachte (besonders von Usern generierte) Links und bezahlte ausgehende Werbelinks, die nicht als solche gekennzeichnet sind, können die Glaubwürdigkeit eurer Site vermindern
  • Zu viele Links auf einer Seite verwirren eure Besucher (gewöhnlich raten wir Webmastern, nicht mehr als 100 Links auf einer Seite einzubinden).
  • Dies schadet eurer Glaubwürdigkeit - zu viele Links irritieren erfahrene User und mindern die Autorität eurer Site in Suchmaschinen. Falls ihr Geld für ausgehende Links erhaltet, dann ist es das beste, diese mit rel="nofollow" zu versehen oder anderweitig sicherzustellen, dass sie keinen PageRank weitergeben. (Um einer Site mein Vertrauen zu schenken, ziehe ich als User es vor, wenn alle Links eindeutig gekennzeichnet sind.)
  • Dies ermöglicht Kommentar-Spam, der wenig Nutzen für den User hat. Zudem kann Kommentar-Spam eure Site aus der Sicht von Suchmaschinen mit Bad Neighbourhoods anstelle von seriösen Quellen in Verbindung bringen. Webmaster fügen daher zu Links, die durch User generiert wurden, oft das nofollow-Attribut (<rel="nofollow">) hinzu. Ein typisches Beispiel dafür sind Blogkommentare, die leicht gespammt werden können - es sei denn, ihr pflegt eure Kommentare regelmäßig, und sie enthalten daher nur Links, die ihr auch billigt.

    Lest zu diesem Thema auch Jason Morrisons Blogpost "Wie ihr Kommentar-Spam loswerdet", um Spam von vornherein auszuschliessen.
Antworten auf fortgeschrittenere Fragen zu ausgehenden Links

Verliere ich Besucher für immer, wenn sie meinen ausgehenden Links folgen?
Hmmm... eure Besucher verlassen eure Site vielleicht zunächst, um relevante Informationen zu verfolgen. Vielleicht erinnert ihr euch jedoch an euer Verhalten in Bezug auf Sites, die zu guten Artikeln außerhalb ihrer Domain verlinken? Ich persönlich kehre immer zu Sites zurück, von denen ich den Eindruck habe, dass sie mir sinnvolle Erläuterungen und zusätzliche Informationsquellen anbieten. Mitunter bleibe ich auf der Originalsite und öffne den interessanten Link in einem anderen Tab. Wahrscheinlich gewinnt ihr durch relevante ausgehende Links eher Stammbesucher, anstatt eure Besucher für immer zu verlieren.
Im gestrigen Post wurde erwähnt, dass beschreibender Anchor-Text bei internen Links hilfreich sein kann. Gilt das auch für ausgehende Links?
Aussagekräftiger Anchor-Text (der sichtbare Text in einem Hyperlink) hilft dabei, sinnvolle Verknüpfungen im Web herzustellen. Dadurch erhalten sowohl User als auch Googlebot eine bessere Vorstellung davon, auf was für eine Seite sie stoßen werden, wenn sie einem Link folgen. Versucht also soweit wie möglich, euren Anchor-Text aussagekräftig zu machen.
Sollte ich mir darüber Gedanken machen, auf welche Sites ich verlinke? Was, wenn diese Sites einen geringeren PageRank als meine Site haben?
Falls ihr Links erstellt, von denen ihr annehmt, dass sie euren Usern nutzen, dann macht euch keine Gedanken darüber, welchen PageRank die verlinkten Sites haben. Als Webmaster solltet ihr in Bezug auf ausgehende Links vor allem die Punkte beachten, die oben aufgeführt sind, wie etwa der Verlust von Glaubwürdigkeit durch das Verlinken von Spam-Sites. Abgesehen davon gilt die einfache Formel: Betrachtet ausgehende Links einfach als eine sinnvolle Methode, um euren Usern Mehrwert zu bieten.
Linking out: Often it's just applying common sense (English version)

Post von Maile Ohye, Developer Programs Tech Lead (Übersetzung von Claudia, Search Quality)

Posted:
Am zweiten Tag dieser Linkwoche möchten wir über die Wichtigkeit der Linkarchitektur sprechen und weiterführende Fragen zu diesem Thema beantworten. Die Linkarchitektur - die interne Verlinkung auf eurer Site - ist ein entscheidender Schritt im Design eurer Site, falls diese von Suchmaschinen indexiert werden soll. Sie ist ein wichtiger Faktor dafür, dass Googlebot die Seiten eurer Site finden kann, und mithilfe der internen Links können eure Besucher durch eure Site navigieren und Freude an ihr haben.

Stellt sicher, dass wichtige Seiten mittels weniger Klicks von der Homepage aus erreichbar sind

Ihr seid vielleicht davon überzeugt, dass User ein Suchfeld auf eurer Site einer kategorisierten Navigation vorziehen, jedoch ist es für Suchmaschinen-Crawler ungewöhnlich, etwas in Suchfelder einzugeben oder anhand von Pull-Down-Menüs zu navigieren. Sorgt also dafür, dass eure wichtigen Seiten von der Homepage aus anklickbar sind und auf der ganzen Site einfach von Googlebot gefunden werden können. Am besten legt ihr eine Linkarchitektur an, die für User intuitiv zu handhaben und für Suchmaschinen crawlbar ist. Hier sind einige Ideen dazu:

Eine intuitive Navigation für User

Erstellt typische Szenarien, schlüpft in die Rolle des Users und probiert, euch durch eure Site zu arbeiten. Wenn eure Site beispielsweise Basketball zum Thema hat, dann stellt euch vor, ihr wärt ein Besucher, der nach der besten Dribbeltechnik Ausschau hält.
  • Beginnend mit der Homepage, wenn eure User nicht das Suchfeld oder das Pull-Down-Menü eurer Site benutzen, können sie die gewünschten Informationen (Ballbehandlung Marke Superstar) mithilfe der Navigationslinks leicht finden?

  • Angenommen, ein User hat eure Site durch einen externen Link gefunden, ist jedoch nicht auf der Homepage gelandet. Stellt - beginnend mit jeder beliebigen Unterseite - sicher, dass User auf einfachem Weg zur Homepage und/oder zu anderen relevanten Teilen der Site gelangen können. Stellt mit anderen Worten sicher, dass User auf eurer Site nicht in eine Sackgasse geraten oder nicht mehr weiter wissen. War die "beste Dribbeltechnik" für euren imaginären User leicht zu finden? Breadcrumb-Navigationen wie z. B. ""Home > Techniken > Dribbeln" helfen Usern oft dabei zu erkennen, wo sie sind.
Crawlbare Links für Suchmaschinen
  • Textlinks werden von Suchmaschinen gut erkannt und sind meist am sichersten, wenn es eure Priorität ist, dass euer Content gecrawlt wird. Ihr könnt die neuesten Technologien natürlich ausprobieren, doch behaltet im Hinterkopf, dass, wenn es textbasierte Links gibt, die für User zugänglich und einfach zu navigieren sind, die Wahrscheinlichkeit groß ist, dass Suchmachinen eure Site ebenfalls crawlen können.

    Dieser <a href="neue-seite.html">Textlink</a> ist für Suchmaschinen einfach zu finden.

  • Das Einreichen einer Sitemap ist ebenfalls hilfreich für große Suchmaschinen, es sollte jedoch kein Ersatz für eine crawlbare Linkarchitektur sein. Falls ihr neuere Techniken wie beispielsweise AJAX auf eurer Site verwendet, dann lest auch den Abschnitt "Überprüft, ob Googlebot eure internen Links findet" weiter unten.
Verwendet beschreibenden Anchor-Text

Anschaulicher Anchor-Text - die klickbaren Worten in einem Link - ist ein nützliches Signal, um sowohl Usern als auch Suchmaschinen zu helfen, euren Content besser zu verstehen. Je mehr wir über eure Site wissen - durch Content, Seitentitel, Anchor-Text etc. -, desto relevantere Ergebnisse können wir unseren Usern (und euren potentiellen Suchmaschinenbesuchern) liefern. Um bei dem Basketballbeispiel zu bleiben: Angenommen, ihr habt Videos, die den Text-Content ergänzen, so wäre es nicht sehr optimal, sie folgendermaßen zu verlinken:

Um alle Basketballvideos zu sehen,<a href="videos.html">klickt hier</a> für die Übersicht.

Anstelle des generischen "klickt hier" könntet ihr den Anchor-Text umschreiben, so dass er beschreibender ist:

Ihr könnt gerne in unseren <a href="videos.html">Basketballvideos</a> stöbern.

Überprüft, ob Googlebot eure internen Links findet

Webmastern, die ihre Site in den Webmaster-Tools verifiziert haben, steht das Feature "Links > Seiten mit internen Links" zur Verfügung. Dieses Feature ist sehr hilfreich, um zu überblicken, ob Googlebot die meisten der Links findet, die er eurer Meinung nach finden sollte. Das ist besonders nützlich, wenn ihr für die Navigation auf eurer Site JavaScript verwendet (das von Googlebot nicht immer ausgeführt wird) -- in diesem Fall wollt ihr euch wahrscheinlich vergewissern, ob Googlebot andere interne Links wie erwartet findet.

Hier ist ein Ausschnitt des Snapshots von den internen Links zu dem Einführungspost unserer 404-Woche. Unsere internen Links wurden entdeckt, wie wir es uns vorgestellt hatten.


Mehr Fragen zu internen Links sind jederzeit willkommen!
Für den Anfang haben wir hier ein paar aufgelistet...

F: Wie sieht es mit rel="nofollow" aus, um den Fluss von PageRank innerhalb meiner Linkarchitektur zu maximieren (beispielsweise "PageRank Sculpting" oder "PageRank Siloing")?
A: Das ist nichts, worauf wir als Webmaster und Googler wirklich Zeit oder Energie verwenden würden. Anders gesagt, wenn eure Site bereits über eine starke Linkarchitektur verfügt, dann ist es weitaus produktiver, daran zu arbeiten, euren Besuchern neuen und guten Content anzubieten, als sich über PageRank Sculpting den Kopf zu zerbrechen.

Matt Cutts hat mehr Fragen zur Verwendung von Nofollow in unserem englischen Diskussionsforum für Webmaster beantwortet.
F: Nehmen wir an, meine Website dreht sich um meine Lieblingshobbys: Radfahren und Campen. Sollte ich meine interne Linkarchitektur "thematisch" gestalten und keine Crosslinks (aufeinander verweisende Links zwischen diesen beiden Teilen) setzen?
A: Uns ist kein Fall bekannt, in dem Webmaster davon profitiert hätten, ihre Linkarchitektur absichtlich für Suchmaschinen "thematisch" auszurichten. Ihr solltet auch bedenken, dass, falls Besucher nicht so einfach von einem Teil eurer Site zu einem anderen gelangen können, dies auch ein Problem für Suchmaschinen darstellen kann.
Vielleicht ist dies ein Klischee, aber schlussendlich, und als Schlusspunkt zu diesem Post :), ist es am besten, eine solide Linkarchitektur zu erstellen (intuitiv navigierbar für User und crawlbar für Suchmaschinen) und das zu implementieren, was für eure User und die User-Erfahrung eurer Site sinnvoll ist.

Danke für eure heutige Aufmerksamkeit! Morgen ist der dritte Tag der Linkwoche; wir werden uns mit ausgehenden Links befassen. Falls ihr hilfreiche Tipps zu eingehenden Links oder Fragen an unser Team habt, dann hinterlasst uns doch unten einen Kommentar.

Importance of link architecture (English version)

Post von Maile Ohye, Developer Programs Tech Lead (Übersetzung von Johanna, Search Quality)

Posted:
Wir hoffen, dass ihr euch darauf konzentrieren könnt, Usern guten Content oder einen tollen Service auf eurer Site anzubieten (und dabei das Web zu bereichern). Nebenbei habt ihr vielleicht auch einige der (oft widersprüchlichen) Diskussionen über Links gelesen, die im Web ihre Kreise ziehen. Falls ihr euch fragt: "Wie steige ich da durch - was sollte ich über Links wissen?", dann willkommen zur Linkwoche!

Tag 2: Interne Links (Links innerhalb eurer Site)
Interne Links sind beispielsweise der Link von eurer Homepage zum Impressum oder der Link von der Impressum-Seite zur "Über mich"-Seite. Die interne Verlinkung (auch Linkarchitektur genannt) ist einer der wichtigsten Faktoren dafür, dass sich Besucher gut durch eure Site navigieren können. Interne Links tragen außerdem zur Crawlbarkeit eurer Site bei, d. h. wie gut ein Bot eure Seiten erreichen kann. Mehr dazu am zweiten Tag unserer Linkwoche.


Tag 3: Ausgehende Links (Sites, die ihr verlinkt)
Ausgehende Links sind Links, die ihr auf externe Sites setzt. www.google.de/webmasters linkt beispielsweise zu der Domain googlewebmastercentral-de.blogspot.com (unser schöner Blog!). Ausgehende Links ermöglichen es uns, durch das Web zu surfen -- sie sind ein ausschlaggebender Grund dafür, warum das Web so aufregend und kollaborativ ist. Ohne ausgehende Links kann eure Site von der Community isoliert wirken. Die meisten Sites haben naturgemäß ausgehende Links, dieses Thema sollte also kein Kopfzerbrechen bereiten. Falls ihr noch Fragen habt - wir werden am Tag drei detaillierter auf ausgehende Links eingehen.
Tag 4: Eingehende Links (Sites, die auf euch linken)
Eingehende Links sind Links, die ihr von externen Sites erhaltet. Es gibt viele Webmaster, die sich (mit Recht) nicht übermäßig mit dem Thema der eingehenden Links beschäftigen. Warum sorgen sich also andere Webmaster so darum? Wahrscheinlich deshalb, weil eingehende Links als ein schneller Weg erscheinen, um ein besseres Ranking und mehr Traffic zu erzielen. Tag vier gibt Antworten auf Fragen wie: "Gibt es kostenlose Methoden, wie ich meine verdient gesetzten eingehenden Links vermehren kann?"
Links information straight from the source (English Version)

Post von Maile Ohye, Developer Programs Tech Lead (Übersetzung von Johanna, Search Quality)

Posted:
Es kann ganz schön kompliziert sein, eine Website zu betreiben. Gut, dass es die Google Webmaster-Tools gibt. Sie bieten Unterstützung dabei an, potentielle Probleme zu erkennen, bevor sie zu einer echten Gefahr werden. Einige der aufzufindenden Probleme mögen ziemlich klein sein - beispielsweise doppelt vorhandene Titel und Beschreibungen - andere dagegen können als schwerwiegend gelten (etwa wenn die Website nicht erreichbar ist). Zwar können euch die Google Webmaster-Tools nicht genau erklären, was geändert werden muss, sie sind aber auf jeden Fall dabei behilflich, festzustellen, ob es ein Problem gibt, dem man sich widmen sollte.

Schauen wir uns einige Beispiele aus dem Google Diskussionsforum für Webmaster an:

Behandelt euer Server den Googlebot wie einen gewöhnlichen Besucher?

Obwohl der Googlebot versucht, sich wie ein gewöhnlicher Benutzer einer Site zu verhalten, werden manche Server verwirrt. Beispielsweise könnte euer Server einen Großteil der Zeit problemlos laufen, aber - wie im Falle einiger IIS-Server - mit einem Serverfehler (oder einer anderen Reaktion, die mit einem Serverfehler zusammenhängt) reagieren, sobald er von einem Benutzer mit dem Googlebot User-Agent betreten wird. Im Diskussionsforum für Webmaster haben wir IIS-Server in der Web-Crawl-Diagnose-Sektion mit Statuscode 500 (Serverfehler) und Statuscode 404 (Datei nicht gefunden) antworten sehen, sowie mit Statuscode 302 beim Senden des Sitemap-Files. Falls euer Server zu einer Fehlerseite weiterleitet, solltet ihr sicherstellen, dass wir diese Fehlerseite crawlen können und dass sie die entsprechenden Statuscodes liefert. Sobald ihr das gemacht habt, können wir entsprechende Fehler ebenfalls in den Webmaster-Tools anzeigen. Schaut euch doch http://todotnet.com/archive/0001/01/01/7472.aspx und http://www.kowitz.net/archive/2006/12/11/asp.net-2.0-mozilla-browser-detection-hole.aspx für weiterführende Informationen zu dieser Problematik und mögliche Lösungen an!

Falls die Website auf einem Microsoft-IIS-Server gehostet wird, solltet ihr auch beachten, dass bei URLs zwischen Groß- und Kleinschreibung unterschieden wird (und entsprechend behandeln wir sie auch). Das betrifft auch URLs in der robots.txt-Datei. Dabei solltet ihr vorsichtig sein, falls euer Server URLs benutzt, ohne auf Groß- bzw. Kleinschreibung zu achten. "disallow: /paris" beispielsweise blockt /paris aber nicht /Paris.

Enthält eure Website irgendwo Links, die systematisch nicht funktionieren?

Zeitgemäße Content-Management-Systeme (CMS) erzeugen mitunter Probleme, die eine große Anzahl von Seiten betreffen. Manchmal sind diese Probleme leicht erkennbar, wenn man einen Blick auf die Website wirft. In anderen Fällen wird es ein wenig schwieriger, das Problem selbstständig ausfindig zu machen. Falls ein solcher Problemfall jede Menge nicht funktionierender Links erzeugt, werden die normalerweise im Web-Crawl-Diagnose-Bereich in eurem Webmaster-Tools-Konto angezeigt. Erst kürzlich gab es einen Fall, wo ein kleines Coding-Problem in Bezug auf den RSS-Feed mehr als 60 000 nichtexistente URLs vortäuschte/erzeugte und im Webmaster-Tools-Konto anzeigte. Wie ihr euch vorstellen könnt, verwenden wir Zeit lieber dafür, Content zu crawlen, als 404-Errors. :)

Leitet eure Website manche User weiter?

Für manche Websites ist es vorteilhaft, sich auf User aus einer bestimmten Region zu konzentrieren. Eine Art, auf die man das erzielen kann, besteht darin, User, die von woanders kommen, zu einer anderen Seite weiterzuleiten. Bedenkt aber bitte, dass der Googlebot nicht unbedingt von innerhalb der Zielregion crawlt und ebenfalls weitergeleitet werden könnte. Dies könnte dazu führen, dass der Googlebot eure Homepage nicht erreichen kann. Falls das passieren sollte, ist es wahrscheinlich, dass die Webmaster-Tools Probleme damit haben, den Überprüfungscode auf eurer Site zu bestätigen, was dazu führt, dass eure Site den Überprüft-Status verliert. Das ist nicht der einzige Grund, warum eine Site den Überprüft-Status verlieren kann, aber falls ihr dieses Verhalten regelmäßig beobachtet, wäre es auf jeden Fall einen zweiten Blick wert. Stellt außerdem sicher, dass der Googlebot genauso wie ein gewöhnlicher Benutzer dieser Region behandelt wird, ansonsten könnte man das als Cloaking interpretieren.

Ist euer Server nicht erreichbar, wenn er gecrawlt werden soll?

Das kann den besten Sites passieren: Server können sich abschalten oder eine Firewall mag dichter sein als erwartet. Falls das passiert, während der Googlebot Zutritt sucht, können wir die Site nicht crawlen und ihr kriegt eventuell gar nichts davon mit, dass wir es versucht haben. Zum Glück zeichnen wir ein solches Problem auf und ihr könnt "Netzwerk nicht erreichbar"- und "robots.txt nicht erreichbar"-Fehler in eurem Webmaster-Tools-Konto sehen.

Wurde eure Site gehackt?

Hacker bauen mitunter seltsamen Content ohne thematischen Bezug und Links zu fragwürdigen Webseiten in eure Site ein. Für den Fall, dass diese Elemente versteckt wurden, bemerkt ihr sie eventuell nicht einmal sofort. Nichtsdestotrotz können sie ein großes Problem darstellen. Das Nachrichten-Center zeigt euch zwar eventuell Warnungen in Bezug auf manche Arten von verborgenem Text an, aber trotzdem ist es vorteilhaft, selbst die Augen offen zu halten. Die Google Webmaster-Tools zeigen euch Keywords eurer Site in der "Was Googlebot sieht"-Sektion an. So kann man einen Hack schnell aufspüren. Für den Fall, dass ihr vollkommen irrelevante Keywords vorfindet, wäre es sinnvoll nachzuforschen, was los ist. Sollte die Site tasächlich gehackt worden sein, empfehle ich euch den Blogpost "Meine Site wurde gehackt - was jetzt?".

Viele Probleme können von den Webmaster-Tools erkannt werden. Dies waren nur einige der häufigsten aus der letzten Zeit. Da es wirklich schwierig sein kann, manche dieser Probleme zu erkennen, ist es sinnvoll, das Webmaster-Tools-Konto zu Rate zu ziehen, um potentielle Gefahren zu bemerken, bevor sie zu ernsthaften Problemen werden. Und falls ihr irgendwas entdeckt, das ihr nicht eindeutig zuordnen könnt, postet doch im Diskussionsforum für Webmaster und fragt die Experten dort um Hilfe!

Habt ihr eure Site in letzter Zeit überprüft?

Advanced website diagnostics with Google Webmaster Tools (English version)

Post von John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Jörg, Search Quality)