Dienstag, 30. Juni 2009

Trafficeinbrüche und Fragen der Site-Architektur

Wir bekommen viele Fragen zum Thema Site-Architektur und Einbrüche im Traffic, und die SMX London Konferenz bot eine gute Gelegenheit, näher auf diese Fragen einzugehen. Ich möchte euch die wichtigsten Punkte meiner Präsentation hier vorstellen und dabei zunächst erläutern, was es mit Trafficeinbrüchen auf sich hat und anschließend über Fragen des Site-Designs und der Architektur sprechen.

Trafficeinbrüche verstehen lernen

Wie ihr sicher wisst, unterliegen die Suchergebnisse ständig gewissen Schwankungen - das Web entwickelt sich permanent weiter, genauso wie unser Index. Außerdem tragen Verbesserungen unseres Verständnisses der Interessen und Suchanfragen unserer User dazu bei, dass sich Veränderungen in unseren Algorithmen in Bezug auf die Auswahl und das Ranking von Seiten ergeben können. Uns ist jedoch bewusst, dass solche Veränderungen verwirrend sein können und manchmal auch zu Missverständnissen führen. Deshalb möchten wir hier einige dieser "Gerüchte" direkt ansprechen.

Gerücht Nummer 1: Duplicate Content führt zu Trafficeinbußen!
Webmaster fragen sich häufig, ob Duplikate auf ihrer Site einen negativen Einfluss auf den Traffic ihrer Site haben. Wie in unseren Richtlinien für Webmaster bereits erwähnt, ist der doppelt vorhandene Content kein Verstoß gegen die Richtlinien - es sei denn, dieser ist gezielt zur Manipulation von Google und/oder Usern erstellt worden. Der zweite Teil meiner Präsentation zeigt nochmal genauer, wie ihr Duplicate Content mittels kanonischer Versionen in den Griff kriegen könnt.

Gerücht Nummer 2: Affiliate-Programme bewirken einen Trafficeinbruch!
Einzigartiger und interessanter Content ist entscheidend für ein gutes Benutzererlebnis. Falls eure Website an Affiliate-Progammen teilnimmt, ist es wichtig zu überlegen, ob es den gleichen Content bereits an vielen Stellen im Web gibt. Affiliate-Sites, die kaum oder gar keinen einzigartigen und interessanten Content bieten, werden in der Regel nicht besonders gut in unseren Suchergebnissen gelistet sein. Wenn aber Affiliate-Links im Kontext von einzigartigem und interessantem Content auftauchen, dann ist das für sich genommen noch kein Grund, der zu Einbrüchen im Traffic führen könnte.

Nachdem wir uns jetzt ein paar der häufigsten Bedenken angeschaut haben, möchte ich zwei wichtige Teile der Präsentation hervorheben. Der erste Teil zeigt, wie böswillige Attacken - wie z. B. das Einschleusen von verstecktem Text und/oder versteckten Links - dazu führen kann, dass eure Site aus den Google Suchergebnissen entfernt wird. In diesem Teil der Präsentation wird dann auch angesprochen, wie ihr den Google-Cache und die Webmaster-Tools verwenden könnt, um solche Probleme zu erkennen. Außerdem hilfreich in diesem Zusammenhang: Falls wir einen Verstoß gegen unsere Richtlinien für Webmaster, wie z. B. die Verwendung von verborgenem Text oder auch Malware auf eurer Site entdeckt haben, dann werdet ihr in der Regel eine Nachricht dazu im Nachrichten-Center der Webmaster-Tools finden.
Manchmal könnt ihr auch einen Rückgang des Traffics eurer Site feststellen, wenn eure User zu einer anderen Site weitergeleitet werden - z. B. dadurch, dass ein Hacker eine serverseitige oder seitenbasierte Weiterleitung eingerichtet hat, die bei Besuchern von Suchmaschinen aktiv ist. Ein ähnliches Szenario - aber mit anderem Ergebnis - liegt vor, wenn ein Hacker eine Weiterleitung nur für Crawler eingeschleust hat. Obwohl dies keinen unmittelbaren Einbruch des Traffics zur Folge hat, da die User und ihre Besuche auf der Site unbeeinflusst bleiben, kann es dazu führen, dass im Lauf der Zeit immer weniger Seiten eurer Site indexiert werden.




Site-Design und Fragen der Architektur
Nachdem wir gesehen haben, wie böswillige Änderungen eure Site und ihren Traffic beeinflussen können, schauen wir uns mal ein paar Fragen des Site-Designs und der Architektur an. Ihr wollt wahrscheinlich die Crawlbarkeit und Indexierbarkeit eurer Site sicherstellen. Was solltet ihr dabei beachten?
  • Als Erstes: Prüft, ob eure robots.txt-Datei den korrekten Status-Code liefert, und nicht etwa eine Fehlermeldung.
  • Beachtet einige bewährte Vorgehensweisen beim Umzug auf eine neue Site und nutzt das neue "Adressänderung"-Feature, das es seit kurzem in den Webmaster-Tools gibt.
  • Schaut euch die Einstellungen in der robots.txt-Datei an und stellt sicher, dass keine Seiten unbeabsichtigt blockiert werden - besonders auch dynamische Seiten oder solche, die mittels einer Rewrite-Rule umgeschrieben werden.
  • Schließlich: Nutzt das rel="canonical" Attribut, um die Indexierung von Duplicate Content auf eurer Domain zu verringern. Das Beispiel in der Präsentation zeigt, wie die Verwendung dieses Attributs Google dabei unterstützt zu verstehen, wie ein Duplikat mit der kanonischen Version zusammengeführt werden kann, so dass das Original, also die kanonische Seite, indexiert wird.





Zusammengefasst solltet ihr daran denken, dass Fluktuationen bei den Suchergebnissen normal sind. Es gibt aber Schritte, die ihr anwenden könnt, um böswillige Attacken zu vermeiden und es gibt Faktoren des Designs und der Architektur, die bewirken können, dass eure Site aus den Suchergebnissen verschwindet oder unvorhersehbar schwankt. Es ist ein guter Anfang, mehr über Attacken durch Hacker und Spammer zu erfahren. Dann solltet ihr sicherstellen, dass in Bezug auf Crawlbarkeit und Indexierbarkeit alles ordnungsgemäß funktioniert, indem ihr euch die HTML-Vorschläge in den Webmaster-Tools anschaut. Schließlich solltet ihr noch eure robots.txt-Datei prüfen, um zu verhindern, dass ihr unbeabsichtigt Googlebot blockiert. Und werft auch einen Blick auf mögliche Fehler durch eine nicht erreichbare robots.txt!

Traffic drops and site architecture issues (English version)

Post von Luisella Mazza, Search Quality Senior Analyst (Übersetzung von Sven, Search Quality)

Montag, 29. Juni 2009

Besitzer von .yu-Domains aufgepasst!

Seid ihr Besitzer einer .yu-Domain? Dann habt ihr wahrscheinlich schon die Neuigkeit gehört: ab dem 30. September werden alle .yu-Domains unabhängig von ihrem Erneuerungsdatum abgeschafft. Das bedeutet, dass jeglicher Content, den ihr auf .yu-Domains hostet, nicht länger online sein wird. Für diejenigen unter euch, die ihre Site weiterhin gerne online behalten möchten, haben wir einige Tipps zusammengestellt, wie ihr dafür sorgen könnt, dass Google euren Content weiterhin entsprechend crawlt, indexiert und zur Verfügung stellt.
  • Überprüft eure Backlinks. Da es nicht mehr möglich sein wird, eine Weiterleitung von der alten auf eure neue .yu-Domain zu setzen, werden alle Links auf der .yu-Domain ins Leere weisen. Das bedeutet, dass es für Suchmaschinen zunehmend schwieriger sein wird, euren Content zu erfassen. Um herauszufinden, wer zu euch linkt, meldet euch bei den Google Webmaster-Tools an und überprüft die Links zu eurer Site (ihr könnt diese Liste als "comma separated value" .csv-Datei herunterladen). Anhand der Liste könnt ihr dann entscheiden, welche Links ihr als wichtig erachtet und Webmaster entsprechend kontaktieren, damit sie ihre Links zu eurer Website anpassen können.
  • Überprüft eure internen Links. Wenn ihr euch dafür entscheidet, euren gesamten Content auf einmal von der alten auf die neue Site zu verschieben, dann achtet darauf, dass ihr vorher die interne Navigation auch entsprechend angepasst habt. Falls ihr beispielsweise Seiten eurer Site von "www.example.yu/home.htm" in "www.example.com/home.htm" umbenennt, dann sorgt dafür, dass ihr auch eure interne Navigation umstellt, um fehlerhafte Links zu vermeiden.
  • Übertragt eure Site jetzt schon auf eure neue Domain: Es ist empfehlenswert, mit der Übertragung eurer Site zu beginnen, solange ihr noch Kontrolle über eure alte Domain habt - wartet also nicht lange! Wie bereits in unseren Best practices beim Umzug eurer Site erwähnt, empfehlen wir mit der Übertragung eines einzelnen Folders oder einer Subdomain zu beginnen und zunächst das Ergebnis abzuwarten, bevor ihr den gesamten Umzug vornehmt. Denkt daran, dass ihr nach dem 30. September auf eurer alten .yu-Domain keine 301-Weiterleitung mehr aufrecht erhalten könnt. Das Beste wäre also, rechtzeitig mit dem Testen zu beginnen.
Während ihr mit eurer Site umzieht, könnt ihr testen, wie Google eure neue Site crawlt und indexiert, indem ihr eine Sitemap in den Google Webmaster-Tools einreicht. Auch wenn wir vielleicht nicht alle in einer Sitemap gelisteten Seiten crawlen oder indexieren, so empfehlen wir dennoch, eine Sitemap einzureichen, da dies Google hilft, eure Site besser zu verstehen. Mehr zu diesem Thema könnt ihr in unseren Antworten zu den Sitemaps-FAQ lesen. Für alle weiteren Fragen oder Anliegen warten wir auch auf euch im Diskussionsforum für Webmaster.

Post von Luisella Mazza, Search Quality Senior Analyst (Übersetzung von Claudia Pfalzer, Search Quality)

Spam 2.0: Spam-Profile und gefakte Benutzerkonten

Ihr seid gute Webmaster oder Webdeveloper, und habt alles getan, damit eure Site nicht gehackt wird und eure Foren und Kommentare frei von Spam sind. Nun seid ihr die stolzen Besitzer einer gut besuchten Web 2.0-Community, speist das Netz mit usergeneriertem Content und erhaltet wahrscheinlich viele Besucher durch Google und andere Suchmaschinen.

Viele eurer Besucher legen User-Profile an, und einige verbringen Stunden damit, in Foren zu posten, Gruppen beizutreten, und liebevoll an ihrem Avatar zu basteln, was ja auch gut ist.

Andere dagegen legen Benutzerkonten an und füllen ihre Profile mit Kauderwelsch und sonstigem Quatsch. Schlimmer noch, sie fügen heimtückisch einen Link hinzu, ein bisschen JavaScript-Code oder ein gefaktes Video, und leiten eure Besucher so in die zwielichtigsten Ecken des Internets.

Willkommen in der Welt der Spam-Profile. Das Social Web wächst unglaublich schnell und Spammer betrachten jede Art von usergeneriertem Content als Gelegenheit, um Traffic abzugreifen. Ich habe mit etlichen erfahrenen Webmastern gesprochen, die überrascht davon waren, dass dies tatsächlich ein Problem darstellt. Daher möchte ich hier ein wenig über Spam-Profile posten und euch ein paar Tipps geben, wie ihr sie auf euren Sites finden und beseitigen könnt.

Warum ist das wichtig?

Stellt euch das folgende Szenario vor:

"Hallo, willkommen auf unserer neuen Web 2.0-Site. Mein neuer Freund heisst BuyMaleEnhancementRingtonesNow, und er würde dich gern kennenlernen! Schau dir doch mal sein Profil an! Er ist n/a Jahre alt und kommt aus Pharmadelphia, PA und hier ist seine Wahnsinnshomepage http://example.com/obviousflimflam. Check it out!

Kein Interesse? Wie wär's mit meiner Freundin PrettyGirlsWebCam1234, sie sagt sie kennt dich aus der Schule und hat aufregende Fotos und Videos, die du vielleicht sehen willst."
Ihr möchtet wahrscheinlich nicht, dass der erste Eindruck eurer Website unangebrachte Bilder oder betrügerische Angebote beinhaltet. Ihr werdet auf keinen Fall wollen, dass eure Besucher durch den Spam so genervt sind, dass sie nicht mehr wiederkommen. Spam-Content und Links zu schlechten Webseiten können außerdem dazu führen, dass auch Suchmaschinen das Vertrauen zu einer Site verlieren, die ansonsten in Ordnung ist.

Warum werden Spam-Profile angelegt?

Spammer erstellen Spam-Profile aus einer Reihe von perfiden Gründen. Manchmal bieten sich Spam-Profile einfach dazu an, die User einer Social-Networking-Site intern zu erreichen. Dies funktioniert ähnlich wie E-Mail-Spam - der Trick liegt darin, den Usern Nachrichten oder Einladungen "von einem Freund" zu schicken und sie mittels eines gefakten oder qualitativ minderwertigen Angebots dazu zu kriegen, einem Link zu folgen, etwas zu kaufen oder Malware herunterzuladen.

Spammer verwenden Spam-Profile außerdem als einen weiteren Weg, um Webspam auf ansonsten guten Domains zu generieren. Sie durchkämmen das Web nach Gelegenheiten, um ihre Links, Weiterleitungen und Malware an die User zu bringen. Sie verwenden eure Site, weil es sie nichts kostet und weil sie von eurer guten Reputation profitieren wollen.

Der letztere Fall ist mehr und mehr verbreitet. Einige Spam-Profile sind offensichtlich, beispielsweise jene mit gängigen Pharmazeutika als Profilname; wir sehen jedoch auch zunehmend schlauere Spammer, die versuchen, echt klingende Namen und realistische Daten zu verwenden, um ihre schlechten Links einzuschmuggeln. Um sicherzustellen, dass ihr taufrisches Profil in den Suchergebnissen auftaucht, werden sie auch Links auf gehackten Sites, Kommentar-Spam und andere Spam-Profile generieren. Das führt zu einer Menge schlechtem Content auf eurer Domain, ungewollten eingehenden Links von Spam-Sites, sowie verärgerten Usern.

Welche Sites werden missbraucht?

Ihr denkt vielleicht: "Meine Site ist aber kein riesiges soziales Netzwerk, ich brauche mir wahrscheinlich keine Sorgen zu machen." Leider sehen wir Spam-Profile überall, von den größten Social-Networking-Sites bis hin zu den kleinsten Foren und Bulletin-Boards. Viele bekannte Bulletin-Boards und Content-Management-Systeme (CMS) wie vBulletin, phpBB, Moodle, Joomla usw. generieren Member-Seiten für jeden Benutzer, der einen Account anlegt. CMS sind generell praktisch, da sie es euch einfach machen, Content und interaktive Funktionen auf eurer Site zu verwalten; autogenerierte Seiten können jedoch missbraucht werden, wenn ihr nicht aufpasst.

Die großen Social-Networking-Sites sind auch betroffen. Die Spammer wollen Zugriff auf die großen Gemeinschaften, und User neigen bei sozialen Netzwerken dazu, eingehenden Einladungen mehr Vertrauen engegenzubringen, was zu höheren Erfolgsraten führt.

Was könnt ihr tun?

Es ist kein einfaches Problem - Spammer attackieren eine große Reihe an Sites und scheinen in der Lage zu sein, ihre Skripte anzupassen, um Gegenmaßnahmen auszuweichen. Google ist fortlaufend Zielscheibe von Spammern, die versuchen, gefakte Benutzerkonten zu eröffnen und Spam-Profile auf unseren Sites anzulegen; trotz all unserer Bemühungen haben es einige geschafft, durch unser Netz zu schlüpfen. Hier sind einige Tipps, wie ihr Spammern das Leben erschweren und eure Site spam-frei halten könnt:
  • Stellt sicher, dass ihr die gängigen Sicherheitsvorkehrungen verwendet, darunter CAPTCHAs, damit es Spammer schwerer haben, Benutzerkonten en masse anzulegen. Habt ein Auge auf ungewöhnliches Verhalten - Tausende neuer Accounts, die von derselben IP-Adresse aus erstellt wurden, neue User, die Tausende von Einladungen verschicken, usw. Es gibt keine einfache Lösung für dieses Problem, aber mit einigen einfachen Checks kann man oft den schlimmsten Spam abfangen.

  • Verwendet eine Blacklist, um wiederholte Spam-Versuche zu vermeiden. Häufig linkt eine große Anzahl an Spam-Profilen von derselben unschuldigen Site auf ein- und dieselbe Domain. Wenn ihr also eins dieser Profile gefunden habt, dann sollte es einfach sein, alle zu entfernen.

  • Achtet auf für Cross-Site Scripting (XSS) anfällige Schwachstellen und andere Sicherheitslücken, die es Spammern erlauben, fragwürdigen Code in ihre Profilseiten einzufügen. Zu den Techniken zählen zum Beispiel die Verwendung von JavaScript, um User auf andere Sites weiterzuleiten, Iframes, durch die der User Malware erhalten soll, und CSS-Code, der darauf zugeschnitten ist, eure Seite mit Spam-Content zu füllen.

  • Zieht es in Betracht, die Links auf nicht vertrauenswürdigen Profilseiten mit "nofollow" zu versehen. Damit ist eure Site weniger attraktiv für Spammer, die PageRank zu ihrer Spam-Site weitergeben wollen. Spammer scheinen gern den Weg des geringsten Widerstands zu nehmen; die Maßnahme, neue Profile, die nicht sehr vertrauenswürdig sind, auf "nofollow" zu setzen, kann also viel zur Entschärfung des Problems beitragen. Andererseits könntet ihr auch in Erwägung ziehen, das "nofollow"-Attribut manuell oder automatisch für Links aufzuheben, die von Mitgliedern der Community gesetzt wurden, die mit hoher Wahrscheinlichkeit vertrauenswürdig sind, zum Beispiele diejenigen, die über längere Zeit schon einigen Content beigetragen haben.

  • Zieht es in Betracht, die Profilseiten von neuen, nicht vertrauenswürdigen Usern auf "noindex" zu setzen. Es kann sinnvoll sein, neue Profilseiten anfangs gar nicht öffentlich zu machen, vor allem wenn der Großteil des Contents eurer Site auf Blogs, Foren und dergleichen zu finden ist.

  • Fügt User-Profilen und Friend-Einladungen eine Funktion hinzu, mittels derer eure Besucher Spam melden können. Auf diese Weise können sie euch dabei helfen, das Problem anzugehen - ihnen liegt eure Community am Herzen, und sie ärgern sich auch über den Spam.

  • Haltet ein Auge auf Spam-Seiten auf euer Site. Eins der besten Tools dafür ist Google Alerts - macht eine site: Suche für eure Site mit kommerziellen oder pornographischen Keywords, die ihr normalerweise nicht auf eurer Site erwarten würdet. Dieses Tool eignet sich auch hervorragend zum Entdecken von gehackten Seiten. Ihr könnt auch unter "Keywords" in den Webmaster-Tools prüfen, ob dort auf einmal befremdliches Vokabular auftaucht.

  • Achtet auf einen plötzlichen Traffic-Anstieg aufgrund verdächtiger Suchanfragen. Ein Trend nach oben ist normalerweise toll, nicht aber, wenn dieser durch kommerzielle oder pornographische Suchanfragen ensteht, die nicht zum Content eurer Site passen. Wenn ein Spammer eure Site missbraucht hat, wird daraus entstehender Traffic kaum zu eurem Vorteil sein, beispielsweise wenn User eure Site kennenlernen als "da wo ich zu diesem Virus weitergeleitet wurde."
Habt ihr weitere Tipps? Ihr könnt gerne einen Kommentar hinterlassen. Wenn ihr Fragen habt, dann schaut doch in unserem Webmasterforum vorbei.

Spam2.0: Fake user accounts and spam profiles (English version)

Post von Jason Morrison, Search Quality Team (Übersetzung von Johanna, Search Quality)

Freitag, 19. Juni 2009

Indexierung von Flash-Content mit externen Ressourcen

Wir haben jetzt unsere Möglichkeiten der Flash-Indexierung ausgeweitet, indem wir das Laden von externen Ressourcen unterstützen. Dies bedeutet, dass wir bei SWF-Dateien, die Content aus einer anderen Datei hinzuladen - dies kann Text, HTML, XML, eine andere SWF-Datei, etc. sein -, diesen externen Content jetzt auch indexieren können. Dabei verknüpfen wir diesen Content mit der übergeordneten SWF-Datei und dem Dokument, wo sie eingebettet ist.

Diese neue Möglichkeit verbessert die Suchqualität, da jetzt relevanter Content aus externen Ressourcen als Antwort auf eine Suchanfrage des Users erscheinen kann. Beispielsweise erscheint momentan das folgende Ergebnis bei der Anfrage [2002 VW Transporter 888]:

Beispiel eines Suchergebnisses einer Flash-Datei mit extern hinzugeladenem Content Vor dem Launch unserer neuen Indexierungsmöglichkeit ist dieses Ergebnis nicht erschienen, weil der gesamte relevante Content in einer XML-Datei enthalten ist, die von der SWF-Datei geladen wird.

Aktuell haben wir bei SWF-Dateien folgende Möglichkeiten:
  • Indexierung von Text-Content, der angezeigt wird, wenn ein User mit einer Flash-Datei interagiert. Wir klicken auf Buttons und machen Texteingaben, wie es ein User tun würde.
  • Entdecken von Links innerhalb von Flash-Dateien.
  • Laden externer Ressourcen und Verknüpfung mit der übergeordneten Datei.
  • Unterstützung gängiger JavaScript-Techniken zur Einbindung von Flash (wie z. B. SWFObject und SWFObject2).
  • Indexierung von gescripteten Sites, die AS1 oder AS2 verwenden, auch wenn der ActionScript-Code verschleiert ist. Update: Wir indexieren auch Sites, die AS3 verwenden. Die verwendete ActionScript-Version ist nicht so wichtig für unseren Indexierungsprozess - wir unterstützen deshalb sowohl ältere ActionScript-Versionen als auch die neueste.
Falls ihr nicht möchtet, dass eure SWF-Datei oder jegliche dazugehörige externe Ressourcen von Suchmaschinen gecrawlt werden, solltet ihr eine passende robots.txt-Anweisung verwenden.

Flash indexing with external resource loading (English version)

Post von Janis Stipins, Software Engineer (Übersetzung von Sven, Search Quality)

Donnerstag, 18. Juni 2009

Antrag auf erneute Überprüfung: Jetzt mit Benachrichtigung

Falls ihr mittels der Webmaster-Tools einen Antrag auf erneute Überprüfung eingereicht habt, dann fragt ihr euch wahrscheinlich, was Google damit macht. Wir sind stets bemüht, so schnell wie möglich auf diese Anträge zu reagieren, aber bisher haben wir Webmaster nicht benachrichtigt, wenn wir ihre Anträge bearbeitet haben.

Seit letzter Woche bestätigen wir die Bearbeitung, indem wir eine Nachricht an euer Nachrichten-Center in den Webmaster-Tools schicken. (Wollt ihr lieber per E-Mail benachrichtigt werden? Das geht auch.) Wenn ihr eine Bestätigung erhalten habt, dass euer Antrag auf erneute Überprüfung bearbeitet wurde, dann schaut euch doch nach einiger Zeit mal die Performance eurer Site in den Suchergebnissen an. Wenn sie gut ist, dann bedeutet das, dass Google eure Site erneut überprüft hat und der Meinung ist, dass sie unseren Richtlinien für Webmaster entspricht. Falls das Ranking eurer Site immer noch eher schlecht ist, dann empfehlen wir, diese Richtlinien nochmals durchzusehen und dazu diese möglichen Gründe, warum eure Site in den Suchergebnissen wider Erwarten nicht so gut abschneidet, in Betracht zu ziehen.

Reconsideration requests: Now with notifications (English version)

Post von Ben D'Angelo, Software Engineer, Search Quality (Übersetzung von Johanna, Search Quality)

Montag, 15. Juni 2009

Update zu Sitemaps bei Google

Wusstet ihr schon, dass sich die Anzahl der Websites, die Sitemap-Dateien eingereicht haben seit dem letzten Jahr fast verdreifacht hat? Kein Wunder: Eine wissenschaftliche Studie hat vor kurzem herausgefunden, dass Sitemaps den Suchmaschinen dabei helfen, neuen und veränderten Content schneller zu finden. Wenn ihr Sitemaps verwendet, ist das zwar noch keine Garantie, dass eure Site gecrawlt und vollständig indexiert wird aber es hilft uns in jedem Fall dabei, eure Site besser zu verstehen.

Neben dem Design-Update der Webmaster-Tools haben wir auch an den Sitemaps gearbeitet:
  • Google und andere Suchmaschinen, die Mitglied von Sitemaps.org sind, unterstützen nun bis zu 50.000 untergeordnete Sitemaps in Sitemap-Index-Dateien (statt bisher 1000). Dies ermöglicht es jetzt großen Sites mittels einer einzelnen Sitemap-Index-URL theoretisch bis zu 2,5 Milliarden URLs einzureichen (und falls das nicht ausreicht, könnt ihr natürlich mehrere Sitemap-Index-Dateien einreichen).

  • Unser aktualisiertes Design der Webmaster-Tools zeigt euch jetzt alle Sitemap-Dateien an, die für eure verifizierte Site eingereicht wurden. Das ist besonders dann hilfreich, wenn ihr mehrere verifizierte Besitzer in den Webmaster-Tools habt oder falls ihr einige Sitemap-Dateien mittels HTTP-Ping oder die robots.txt-Datei einreicht.

  • Die Anzeige der indexierten URLs eurer Sitemap-Dateien in den Webmaster-Tools ist jetzt noch genauer.

  • Interessant für alle XML-Entwickler: Wir haben die XSD-Schemas aktualisiert um Sitemap-Erweiterungen zu ermöglichen. Das neue Schema hilft Webmastern dabei, bessere Sitemaps zu erstellen, indem eine größere Anzahl an Features überprüft wird. Falls ihr Sitemap-Dateien mittels des neuen Schemas validiert, könnt ihr noch sicherer sein, dass die Sitemap-Dateien korrekt sind.

  • Sitemap-Dateien werden jetzt schneller als je zuvor bearbeitet. Wir haben die Zeit, die durchschnittlich vom Einreichen der Sitemap bis zur Verarbeitung und Anzeige von Daten in den Webmaster-Tools vergeht, drastisch reduziert.

Weitere Informationen zur Verwendung von Sitemaps könnt ihr in unserem Blogpost Sitemap FAQs und in unserer Hilfe für Webmaster finden. Falls ihr darüber hinaus weitere Fragen habt, solltet ihr mal in unserem Forum für Webmaster suchen oder einen Thread in der Sitemaps-Rubrik starten.

Post von John Müller, Webmaster Trends Analyst, Google Schweiz (Übersetzung von Sven, Search Quality)

Donnerstag, 11. Juni 2009

Nachrichten weiterleiten

Um unser Nachrichten-Center noch nützlicher zu machen, haben wir jetzt eine Funktion hinzugefügt, durch die Nachrichten an eure persönliche E-Mail-Adresse weitergeleitet werden können. Wir nutzen das Nachrichten-Center, um euch vertrauliche Informationen zu euren verifizierten Sites mitzuteilen. Dabei kann es sich um alles Mögliche rund um eure Site handeln, von Details zu eventuell vorhandenen Konflikten mit unseren Richtlinien für Webmaster bis zu Bestätigungen zu vorgenommen Änderungen in eurem Webmaster-Tools-Konto (z. B. Änderungen der Einstellungen zu einer Site). Zur Aktivierung dieser Funktion könnt ihr einfach die Einstellungen auf der Webmaster-Tools Homepage aktualisieren:


Die Nachrichten können in einer unserer 40 unterstützten Sprachen an jede beliebige E-Mail-Adresse, die mit eurem Google-Konto verknüpft ist, verschickt werden. Um eine weitere E-Mail-Adresse zu eurem Google-Konto hinzuzufügen, könnt ihr einfach auf "Mein Konto" im oberen Bereich der Seite klicken und die neue E-Mail-Adresse verifizieren. Alle unsere E-Mails werden von <wmt-noreply@google.com> gesendet - ihr solltet ggf. eure Spam-Filter anpassen, um sicherzustellen, dass ihr diese Mails nicht verpasst.

Message Forwarding (English version)

Post von Tanya Gupta, Software Engineer (Übersetzung von Sven, Search Quality)

Webmaster-Tools in neuem Glanz

Vor einem Monat haben wir eine Preview zu unserem neuen Webmaster-Tools-Interface gestartet und seitdem jede Menge hilfreiches Feedback erhalten. Insgesamt ist das Update von Webmastern sehr positiv aufgenommen worden - besonders Features wie das One-Stop-Dashboard, die erweiterten Daten zu den Suchanfragen und die verbesserte Menüführung/Navigation.

Ihr habt aber auch einige konstruktive Verbesserungsvorschläge geliefert:
  • Ihr habt die Option vermisst, zwischen Auflistungen mit je 25, 50 oder 100 Zeilen zu wechseln - etwa bei den Links zu eurer Website. Wir haben zwar diese Auswahlmöglichkeit nicht wiedereingeführt, aber dafür den Defaultwert auf 100 gestellt.
  • Die Top-Suchanfragen-Information hat sich zwischen alter und neuer Version unterschieden. Das haben wir erwartet, weil wir viel am Code geändert haben, um das neue Backend hinsichtlich der Top-Suchanfragen zu verbessern. Wir haben uns viele der Probleme, die in unseren Foren gepostet wurden, angesehen und überprüft, dass das neue Backend viel genauer und zuverlässiger ist.
  • Anfangs haben sich die Zahlen der heruntergeladenen Sitemaps und der indexierten URLs in den beiden Versionen unterschieden. Wir haben dieses Problem gelöst.
  • Die Anzahl der angezeigten Backlinks kann zwischen dem alten und dem neuen User Interface variieren, weil unsere neue Benutzeroberfläche die tatsächliche URL auf eurer Website anzeigt, auf die von der anderen Website verwiesen wird - ohne Redirects zu folgen. Zum Beispiel leitet google.com über einen permanenten 301-Redirect zu www.google.com weiter und example.com verlinkt zu google.com.
    • Im neuen User Interface könnten nur verifizierte Besitzer von google.com den Backlink von example.com sehen (weil wir nur den Originallink vor eventuellen Weiterleitungen zeigen).
    • Im alten User Interface konnten verifizierte Besitzer von www.google.com den Backlink von example.com sehen.
  • Der neue Site Switcher zeigt nur fünf Websites an und Webmaster, die eine große Anzahl von Websites verwalten, empfinden das als einschränkend. Wir haben uns das Feedback zu Herzen genommen und arbeiten an der Entfernung dieser Einschränkung in einer zukünftigen Version.
Seit heute steht nur noch die neue Benutzeroberfläche zur Verfügung (http://google.com/webmasters/tools)! Ihr werdet feststellen, dass nicht nur an vielen der Probleme, die User meldeten, gearbeitet wurde, sondern dass wir auch Zeit gefunden haben, ein neues Feature einzuführen: Adressänderung. Damit könnt ihr Google melden, wenn ihr von einer Domain zu einer anderen umzieht. So können wir den Index schneller updaten und dadurch euren Benutzern hoffentlich einen sanfteren Wechsel ermöglichen.

Vielen Dank an alle, die sich Zeit genommen haben, uns Feedback zum neuen Interface zu geben. Allen, die es heute das erste Mal verwenden, wünschen wir einen guten Einstieg! Wie immer freuen wir uns über Feedback.

Out with the old, in with the new (English version)

Post von Sagar Kamdar, Product Manager, Webmaster Tools Team (Übersetzung von Jörg, Search Quality)

Freitag, 5. Juni 2009

Einführung in Suchmaschinenoptimierung jetzt in 40 Sprachen erhältlich

Seit der Veröffentlichung unserer Einführung in Suchmaschinenoptimierung im November letzten Jahres haben wir immer weitere Übersetzungen für User in aller Welt hinzugefügt. Wir freuen uns darüber, heute bekanntgeben zu können, dass diese Einführung ab sofort in 40 Sprachen erhältlich ist und somit 98% der weltweiten Internet-User erreichen kann. Wir hoffen, dass Webmaster diesen SEO-Guide weltweit verwenden können, um ihre Websites besser crawl- und indexierbar zu machen.

Wir möchten uns auch bei allen bedanken, die die Einführung mit ihrem fortwährendem Feedback unterstützen. Wir verfolgen genau, was euch gefällt und wo wir eurer Meinung nach bei künftigen Updates noch etwas hinzufügen können. Außerdem denken wir über eine Version für fortgeschrittene User nach.

Hier findet ihr eine Übersicht über die verfügbaren Sprachen:
Post von Brandon Falls, Search Quality Team (Übersetzung von Jörg, Search Quality)

Neu: Page Speed

Wir bei Google achten ständig auf Geschwindigkeit, da wir der Meinung sind, dass schnellere Lade- und Anzeigezeiten unserer Sites unsere Produkte verbessern und euch dabei helfen, noch produktiver zu sein. Heute wollen wir einige bewährte Vorgehensweisen aus unserer jahrelangen Erfahrung mit der Web-Community teilen, indem wir Page Speed als Open Source bereitstellen.

Page Speed, ein Firefox Add-on, das mit Firebug zusammenarbeitet, ist ein Tool, das wir intern zur Verbesserung der Performance unserer Websites verwenden. Wenn ihr Page Speed ausführt, bekommt ihr direkt Vorschläge, was ihr an euren Seiten ändern könnt, um ihre Geschwindigkeit zu verbessern. Beispielsweise optimiert Page Speed automatisch Bilder, indem ein komprimiertes Bild bereitgestellt wird, das ihr direkt auf eurer Website verwenden könnt. Das Tool hilft außerdem dabei, JavaScript oder CSS zu erkennen, was zwar von eurer Seite geladen, aber gar nicht benötigt wird - dies kann die Wartezeit bis zur vollständigen Anzeige der Seite verkürzen.

Die Vorschläge von Page Speed basieren auf gemeinhin akzeptierten Best Practices, die wir und andere Sites anwenden. Damit ihr die Vorschläge von Page Speed besser interpretieren könnt, haben wir eine ausführliche Dokumentation bereitgestellt, um die Hintergründe der verwendeten Regeln zu beschreiben. Wir freuen uns auf weitere Beiträge und Feedback aus der Open Source Community: Ihr könnt euer Feedback auf unserem Forum für Webmaster hinterlassen.

Wir hoffen, ihr schaut euch Page Speed mal an!

Happy Coding :)

Introducing Page Speed (English version)

Post von Richard Rabbat und Bryan McQuade, Page Speed Team (Übersetzung von Sven, Search Quality)