Update zu den Penalty E-Mails

Zunächst mal ein zusammenfassender Rückblick: Ende 2005 begannen wir damit,
Webmaster über E-Mail zu kontaktieren , um ihnen mitzuteilen, dass ihre Website unsere Richtlinien für Webmaster verletzt und wir vorübergehend einige ihrer Seiten aus dem Index entfernt haben. Vor einigen Monaten haben wir diese E-Mails eingestellt, da einige falsche Nachrichten in Umlauf waren, die nicht von Google kamen und vornehmlich an deutsche Webmaster geschickt wurden. Mitte Juli veröffentlichten wir dann das Nachrichten-Center in unserer Webmaster-Konsole, welches uns ermöglicht, Nachrichten an dort verifizierte Webmaster zu schicken.

Das Nachrichten-Center ist zwar sehr praktisch für Webmaster, die ihre Website dort verifiziert haben, jedoch erlaubt es uns nicht, mit all den anderen Webmastern in Kontakt zu treten, die nicht in Googles Webmaster-Tools registriert sind. Aus diesem Grund haben wir vor, die Benachrichtigungen über E-Mail zusätzlich zu denen im Nachrichten-Center wieder aufzunehmen. Beachtet bitte, dass unsere E-Mails nach wie vor keine Attachments enthalten. Im Moment werden im Nachrichten-Center keine Benachrichtigungen gespeichert, falls ihr dort nicht schon angmeldet seid. Wir hoffen jedoch, dieses Feature in den nächsten Monaten einzubauen. Wir werden euch über alle Neuerungen auf dem Laufenden halten.

Original

Post von Ben D'Angelo (Übersetzung von Claudia, Search Quality)

Freitag, 31. August 2007 um 10:34

Internationale Domain-Namen in den Webmaster-Tools registrieren

Es freut mich, euch mitteilen zu können, dass die Webmaster-Tools nun eine verbesserte Funktionalität für Webmaster aus nicht-englischsprachigen Ländern bieten, da jetzt der sogenannte IDNA-Standard (Internationalizing Domain Names in Applications) unterstützt wird. Dies wird im deutschsprachigen Raum häufig als "Umlautdomain" bezeichnet. IDNA ermöglicht Seitenbetreibern die Verwendung von Domains, die Buchstaben und Zeichen enthalten, welche nicht im Englischen vorhanden sind. Vor der Einführung von IDNA konnten Internet-Host-Namen ausschließlich aus den 26 Buchstaben des englischen Alphabets, den Ziffern 0-9 und einem Bindestrich bestehen. Mit Hilfe von IDNA seid ihr nun in der Lage, auch Sites anzumelden, die andere Zeichensätze verwenden. Diese könnt ihr in den Webmaster-Tools wie gewohnt verwalten.

Angenommen, ihr wolltet vor der Unterstützung von IDNA die Site der Universität Peking, http://北京大学.cn/, in eurem Webmaster-Tools Konto hinzufügen. Bei einer derartigen Eingabe im Textfeld vor dem "Website hinzufügen"-Button hättet ihr folgende Fehlermeldung erhalten:












Einige Webmaster hatten bereits eine Möglichkeit entdeckt, das Problem zu umgehen, da IDNA eine Domain wie z.B. http://北京大学.cn/ intern in ein anderes Format umwandelt, was als Punycode bezeichnet wird. Der umgewandelte Domain-Name würde für unser Beispiel dann so aussehen: http://xn--1lq90ic7fzpc.cn/. Der Einsatz von Punycode ermöglichte es also, die Domain in den Webmaster-Tools zu verwenden, was aufgrund der kryptischen Zeichenfolge aber nicht besonders benutzerfreundlich war, vor allem wenn mehrere Domains auf diese Weise verwaltet wurden.












Da wir jetzt auch in den gesamten Webmaster-Tools den IDNA-Standard unterstützen, könnt ihr einfach den Domain-Namen inklusive der landestypischen Sonderzeichen eingeben, und wir fügen diesen dann korrekt in euer Konto ein. Hier seht ihr, wie der Bildschirm aussieht, wenn wir wieder die URL aus dem obigen Beispiel verwenden (http://北京大学.cn/):












Falls ihr bereits den erwähnten Workaround mittels Punycode verwendet habt (d. h. ihr seht in eurem Konto eine URL ähnlich wie diese: http://xn--1lq90ic7fzpc.cn/), werden diese Domain-Namen jetzt automatisch korrekt angezeigt.

Wir freuen uns über eure Fragen und euer Feedback zu diesem neuen Feature. Ihr könnt hier eure Kommentare hinterlassen oder das Thema in der Rubrik "Google Webmaster-Tools" unseres Diskussionsforums besprechen. Für weitere Vorschläge und Hinweise, wie wir unseren internationalen Support verbessern können, sind wir jederzeit dankbar.

Original


Post von (Übersetzung von Sven, Search Quality)

Mittwoch, 29. August 2007 um 16:11

Neues robots.txt-Feature und REP Meta-Tags

Wir haben unser robots.txt-Analyse-Tool in der Webmaster-Zentrale verbessert mit dessen Hilfe man Sitemapsangaben und relative Urls erkennen kann. Frühere Versionen berücksichtigten Sitemaps in keiner Weise und konnten nur absolute Urls interpretieren. Alles andere erzeugte die Meldung "Syntax nicht verstanden".

Diese Fehlermeldungen haben wir auch verbessert. Sofern mehrere Fehler existieren, bekommt ihr diese nun alle in einer Zeile angezeigt, im Gegensatz zu früheren Versionen, die jeweils nur den ersten Fehler ausgaben. Ebenso haben wir andere allgemeine Verbesserungen an der Analyse und der Validierung vorgenommen.

Stellt euch vor, ihr seid für die Domain www.example.com verantwortlich, und ihr möchtet, dass die Suchmaschine eure gesamte Website mit Ausnahme des Ordners /images indexiert. Zudem wollt ihr sicherstellen, dass eure Sitemap berücksichtigt wird und gebt dementsprechend Folgendes in eurer robots.txt-Datei an:

disalow images


user-agent: *
Disallow:


sitemap: http://www.example.com/sitemap.xml

Ihr geht zur Webmaster-Zentrale, um eure Website gegen das robots.txt-Analyse-Tool zu testen, wobei ihr diese beiden Urls benutzt:

http://www.example.com
/archives


Ältere Versionen dieses Tools hätten folgende Meldung ausgegeben:








Die verbesserte Version gibt mehr Informationen über die robots.txt-Datei:









Probiert es selbst in den Webmaster-Tools.

Ebenso wollen wir sicherstellen, dass ihr von dem neuen unavailable_after Meta-Tag gehört habt, den Dan Crow vor einigen Wochen im
Official Google Blog vorgestellt hat. Dieser Tag erlaubt eine dynamischere Beziehung zwischen eurer Website und dem Googlebot. Das bedeutet, wenn ihr zum Beispiel auf www.example.com eine nur vorübergehend veröffentlichte Nachricht habt oder eine Seite mit nur begrenzt erhältlichen Angeboten oder Promotions, dann könnt ihr jetzt exakt das Datum und die Zeit festlegen, wann der Googlebot bestimmte Seiten von euch crawlen und indexieren soll.

Angenommen, ihr habt eine Promotion laufen, die Ende 2007 zu Ende ist. Im Header der Seite www.example.com/2007promotion.html würdet ihr dann Folgendes festlegen:

<META NAME="GOOGLEBOT"
CONTENT="unavailable_after: 31-Dec-2007 23:59:59 EST">


Die zweite interessante Neuigkeit: Eine neue robots.txt-Richtlinie, die beinhaltet, dass nun das Robots Exclusion Protocol (REP) Meta-Tag auch für Nicht-HTML-Seiten unterstützt wird! Damit könnt ihr nun eure Videos, Spreadsheets und andere indexierte Dateitypen in derselben Weise kontrollieren. Um auf das oben genannte Beispiel zurückzukommen, lasst uns annehmen, eure Promotionsseite ist im PDF-Format. Für www.example.com/2007promotion.pdf würdet ihr Folgendes verwenden:

X-Robots-Tag: unavailable_after: 31 Dec
2007 23:59:59 EST


Denkt daran, dass REP META-Tags hilfreich beim Implementieren von noarchive, nosnippet and jetzt auch unavailable_after Tags sein können, um Anweisungen auf Seitenebene geben. Im Gegensatz dazu setzt das robots.txt an der Domainebene an. Diese Features haben wir auf Anfragen von Bloggern und Webmastern eingebaut - habt also Spaß damit. Sofern ihr andere Vorschläge habt: lasst es uns wissen! Noch Fragen? Bitte stellt diese in der
Google Diskussiongruppe für Webmaster.

Original

Post von John Blackburn, Webmaster Tools and Matt Dougherty, Search Quality
(Übersetzung von Claudia, Search Quality)

Freitag, 17. August 2007 um 15:49

Supplemental wird Mainstream

Als Google im Jahr 2003 die Supplemental Results (Zusätzliche Ergebnisse) einführte, waren in unserem Hauptindex Milliarden von Webseiten. Durch den Supplemental Index (Zusätzlichen Index) konnten wir noch mehr Webseiten indexieren und diesen Content, genauso wie in unserem Hautpindex, bei der Bereitstellung relevanter Suchergebnisse für unsere User zugänglich machen. Dies war besonders hilfreich für solche Suchanfragen, die im Hauptindex weniger Ergebnisse lieferten und bei denen wir durch den Supplemental Index in der Lage waren, noch mehr Webseiten bereitzustellen.

Je weniger Einschränkungen es für Seiten im Supplemental Index gibt, desto höher ist die Chance, dass Webseiten, die nicht im Hauptindex enthalten sind, im Supplemental Index erfasst werden. Dies sind oft Seiten mit einem niedrigeren PageRank oder einer komplizierteren URL. So gesehen dient der Supplemental Index einem wichtigen Zweck: nämlich so viel relevanten Content wie möglich zu crawlen. Mehr darüber könnt ihr hier lesen und hier einen Vortrag von Matt Cutts sehen.

Jegliche Veränderungen, die wir durchführen, müssen auf eine verbesserte Sucherfahrung abzielen. Seit 2006 haben wir unser System, welches die Supplemental Results crawlt und indexiert, vollständig überholt. Das momentane System gewährleistet eine umfassendere und kontinuierlichere Indexierung. Zudem indexieren wir URLs mit mehreren Parametern und legen weniger Beschränkungen an Sites an, die wir crawlen. Als Resultat ist unser Supplemental Index nun aktueller und transparenter als jemals zuvor. Ebenso arbeiten wir darauf hin zunehmend mehr Supplemental Results anzuzeigen, indem wir sicherstellen, dass jede Anfrage im Supplemental Index durchgeführt werden kann. Wir haben vor, diese Neuerungen im Laufe des Sommers zu implementieren.

Der Unterschied zwischen dem Hauptindex und dem Supplemental Index wird daher zunehmend geringer. In Anbetracht der bisherigen Fortschritte und im Hinblick auf zukünftige Verbesserungen haben wir uns entschieden, diese URLs zukünftig nicht mehr als „Supplemental Results“ zu kennzeichnen. Trotzdem werdet ihr natürlich weiterhin in den Genuss von Googles umfassenden und aktuellen Supplemental Results kommen.

Original


Post von Prashanth Koppula, Product Manager und Matt Cutts, Software Engineer (Übersetzung von Claudia, Search Quality)

Mittwoch, 1. August 2007 um 10:25

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.