Dienstag, 30. August 2011

Kann ich fremde Spamlinks zu meiner Website melden?

Die heutige Frage an Matt Cutts dreht sich um das Thema negative SEO und durch Dritte erstellte Spamlinks.



Heute habe ich eine Frage von Lawrence aus London. Sie lautet: "Kann der Inhaber einer Website Spamlinks kennzeichnen, die von Dritten, beispielsweise von einem Mitbewerber, zu seiner Website erstellt wurden? Wie kann man sich vor einer Penalty für fragwürdige Links schützen, die nicht vom Inhaber der Website erstellt wurden?"

Ich erkläre einmal kurz, worum es hier geht. In den Richtlinien für Webmaster gab es einmal einen Eintrag zu diesem Thema. Dieser besagte, dass Mitbewerber eurer Website keinen Schaden zufügen können. Nehmen wir als Beispiel die Seite sex.com. Es war durchaus möglich, sich per Fax für den Inhaber der Domain auszugeben, die Domain von jemand anderem zu erhalten und sie dann für die eigenen zwielichtigen Zwecke zu verwenden.

Mitbewerber können also durchaus so tun, als wären sie Mitbewerber. Daher steht in unseren Richtlinien nicht mehr, dass es für Mitbewerber unmöglich ist, anderen Mitbewerbern zu schaden. Stattdessen haben wir hinzugefügt, dass wir intensiv daran arbeiten, durch Mitbewerber verursachte Schäden zu vermeiden. Und das gilt noch immer.

Wenn wir einen Algorithmus schreiben, der eingehende Links überwacht, stellen wir uns immer folgende Frage: "Wollte vielleicht ein Mitbewerber jemand anderem damit schaden?" Daher versuchen wir einen Code einzubauen, der verhindert, dass jemand einem anderen leicht Schaden zufügen kann. Daher hielten wir es bisher nicht für notwendig, der Webmaster-Konsole von Webmaster-Tools eine Funktion hinzuzufügen, um zu sagen, dass zu eurer Website z.B. viele Links von Pornoseiten führen, oder Links, die von einem Mitbewerber erstellt wurden und die von geringer Qualität sind.

Wir haben keine Möglichkeit bereitgestellt, vor diesen Links zu warnen. Theoretisch könnten wir das. Vielleicht werden wir es in Zukunft tun. Ab und zu bekommen wir diese Anfrage. Also behalten wir es im Hinterkopf. Momentan wird diese Funktion jedoch nicht angeboten.

Veröffentlicht von Daniela Loesser, Search Quality Team

Mittwoch, 24. August 2011

Helft uns, die Google-Suche zu verbessern

Wir wollen die Google-Suche weiter verbessern und brauchen eure Unterstützung dazu. Allerdings geht es heute nicht um Spam-Reports. Wir freuen uns natürlich nach wie vor über hochwertige Spam-Reports von euch, heute jedoch möchten wir euch etwas anderes vorschlagen: Habt ihr Lust, euch unserem Team anzuschließen und selbst den Spam zu bekämpfen?

Klingt interessant? Wir suchen weltoffene Absolventen, die unser Team in Dublin verstärken könnten. Der Anblick von Quellcode sollte nichts Neues für euch sein. Ihr solltet unsere Begeisterung für das Internet und Suchmaschinen teilen. Ebenso wie unsere Abneigung gegenüber Webspam und unseren Willen, hochwertige Informationen für alle zugänglich zu machen. Tischfußball- und PlayStation-Talente sind ebenfalls gern gesehen.


Ein Blick in unser Büro in Dublin.


Weitere Einzelheiten zu den ausgeschriebenen Stellen könnt ihr hier abrufen. Vielversprechende Kandidaten werden bestimmt in der Lage sein, den richtigen Ansprechpartner direkt zu kontaktieren.

Autor: Kaspar Szymanski, Search Quality (Veröffentlicht von Daniela Loesser, Search Quality)

Dienstag, 23. August 2011

Verbesserte Steuerung von URLs mit Parametern

Wie ihr vielleicht bemerkt habt, wurde die Funktion "Parameterbehandlung" aus den Webmaster-Tools unter "Website-Konfiguration" > "Einstellungen" entfernt. Aber keine Sorge, es gibt sie noch, nur mit einem neuen Namen: "URL-Parameter". Außerdem haben wir die Funktion aktualisiert und verbessert. Wir hoffen, dass ihr sie so noch praktischer findet. URL-Parameterkonfigurationen, die in der alten Version der Funktion vorgenommen wurden, werden in der neuen Version automatisch angezeigt. Bevor wir euch gleich verraten, was ihr nun alles mit URL-Parametern machen könnt, gehen wir zur Erinnerung noch einmal auf den Zweck und die Anwendungsmöglichkeiten dieser Funktion ein.

Verwendungszweck
Anhand der URL-Parameter könnt ihr steuern, welche URLs eurer Website vom Googlebot gecrawlt werden sollen, je nachdem, welche Parameter in den URLs enthalten sind. So vermeidet ihr auf einfache Weise, dass doppelte Inhalte auf eurer Website gecrawlt werden. Eure Website wird effizienter gecrawlt; es wird weniger Bandbreite verbraucht und wahrscheinlich gelangen auch mehr eigenständige Inhalte eurer Website in unseren Index. Wenn ihr den Eindruck habt, dass die Inhalte auf eurer Website noch besser vom Googlebot erfasst werden könnten, ist die URL-Parameter-Funktion eine gute Wahl. Allerdings bedeuten Möglichkeiten wie immer auch Risiken! Ihr solltet diese Funktion nur verwenden, wenn ihr genau wisst, wie sich URL-Parameter auf eure Website auswirken. Sonst könntet ihr aus Versehen das Crawling bestimmter URLs verhindern, sodass der Googlebot nicht mehr auf die entsprechenden Inhalte zugreifen kann.


Mehr Möglichkeiten
Werfen wir nun einen Blick auf die neuen und verbesserten Funktionen. Ihr könnt nun nicht nur einzelnen Parametern eine Crawling-Aktion zuweisen, sondern auch das Verhalten der Parameter beschreiben. Zunächst legt ihr fest, ob sich durch den Parameter der Inhalt der Webseite ändert. Wenn der Parameter sich nicht auf den Inhalt der Webseite auswirkt, ist keine weitere Einstellung nötig; der Googlebot wählt einen stellvertretenden Wert für diesen Parameter aus und crawlt die URLs mit diesem Wert. Da sich der Inhalt nicht durch den Parameter ändert, ist es egal, welcher Wert ausgewählt wird. Falls sich dagegen der Inhalt einer Seite durch den Parameter ändert, könnt ihr nun eine von vier Methoden festlegen, mit der Google die URLs mit diesem Parameter crawlen soll:
  • Entscheidung dem Googlebot überlassen
  • Jede URL
  • Nur URLs mit Wert=x crawlen
  • Keine URLs
Mit der Option "Nur URLs mit Wert=x crawlen" könnt ihr nun auch euren eigenen gewünschten Wert angeben; ihr seid also nicht mehr an die von uns bereitgestellte Wertliste gebunden. Ihr könnt optional auch genau festlegen, was der Parameter bewirkt, ob Sortierung, Seitenauswahl, Inhaltsermittlung usw. Eine letzte Verbesserung ist, dass möglichst für jeden Parameter einige Beispiel-URLs aus eurer Website angezeigt werden, die den betreffenden Parameter enthalten und vom Googlebot gecrawlt wurden.

Von den vier oben genannten Crawling-Optionen verdient die neue Option "Keine URLs" besondere Aufmerksamkeit. Diese Option bewirkt die stärkste Beschränkung. Sie hat immer Vorrang vor allen anderen Einstellungen, welche die in einer URL enthaltenen Parameter betreffen. Wenn also eine URL einen Parameter enthält, für den die Option "Keine URLs" festgelegt wurde, wird diese URL nie gecrawlt, selbst wenn für andere Parameter in der URL "Jede URL" festgelegt wurde. Gehen Sie mit dieser Option vorsichtig um. Die am zweitstärksten beschränkende Einstellung ist "Nur URLs mit Wert=x".

Praktische Anwendung der Funktion
Doch genug der grauen Theorie – sehen wir uns ein praktisches Bespiel an!
---
Es war einmal ein Online-Shop, fairyclothes.example.com. In den URLs der Shop-Website wurden Parameter verwendet und dieselben Seiteninhalte konnten über mehrere URLs aufgerufen werden. Eines Tages bemerkte der Inhaber des Online-Shops, dass die Website möglicherweise aufgrund einer zu hohen Anzahl redundanter URLs nicht gründlich vom Googlebot gecrawlt wird. Also sandte er seinen neugierigen Lehrling zum großen Zauberer Webwizard. Er sollte sich darüber erkundigen, wie man mit der URL-Parameter-Funktion erreichen kann, dass der Googlebot weniger doppelte Inhalte crawlt. Der Zauberer Webwizard war berühmt für seine Weisheit. Er sah sich die URL-Parameter an und schlug die folgende Konfiguration vor:


Der Lehrling begann, wie es seine Art war, neugierige Fragen zu stellen:

Lehrling: Du hast den Googlebot angewiesen, eine stellvertretende URL für trackingId zu crawlen, wobei der Wert vom Googlebot ausgewählt wird. Könnte ich nicht auch die Option "Nur URLs mit Wert=x" verwenden und den Wert selbst auswählen?
Zauberer: Beim Web-Crawling hat der Googlebot die folgenden URLs gefunden, die mit deiner Website verknüpft sind:
  1. fairyclothes.example.com/skirts/?trackingId=aaa123
  2. fairyclothes.example.com/skirts/?trackingId=aaa124
  3. fairyclothes.example.com/trousers/?trackingId=aaa125
Stell dir vor, du würdest den Googlebot anweisen, nur URLs zu crawlen, bei denen "trackingId=aaa125" ist. In diesem Fall würden die URLs 1 und 2 nicht vom Googlebot gecrawlt, da keine von ihnen für "trackingId" den Wert "aaa125" aufweist. Der Inhalt dieser URLs würde weder gecrawlt, noch indexiert, und kein einziger deiner angebotenen Damenröcke würde in den Suchergebnissen von Google erscheinen. Daher ist in diesem Fall die Auswahl einer stellvertretenden URL die beste Variante. Warum? Weil dadurch festgelegt wird, dass der Googlebot, wenn er im Web auf zwei URLs stößt, die sich nur hinsichtlich dieses Parameters unterscheiden (so wie es bei den URLs 1 und 2 oben der Fall ist), nur eine dieser URLs zu crawlen braucht, egal welche. Alle Inhalte werden erfasst. Im Beispiel oben werden zwei URLs gecrawlt, entweder 1 und 3 oder 2 und 3. So geht keine Hose und kein Rock verloren.

Lehrling: Und warum hast du den sortOrder-Parameter so gewählt? Es ist mir nicht wichtig, ob die Artikel in auf- oder absteigender Reihenfolge aufgeführt sind. Warum soll Google nicht einfach einen stellvertretenden Wert auswählen?
Zauberer: Der Googlebot könnte beim Crawlen die folgenden URLs finden:
  1. fairyclothes.example.com/skirts/?page=1&sortBy=price&sortOrder='lowToHigh'
  2. fairyclothes.example.com/skirts/?page=1&sortBy=price&sortOrder='highToLow'
  3. fairyclothes.example.com/skirts/?page=2&sortBy=price&sortOrder='lowToHigh'
  4. fairyclothes.example.com/skirts/?page=2&sortBy=price&sortOrder=' highToLow'
Beachte, dass die beiden URL-Paare (1 und 2; 3 und 4) sich jeweils nur durch den Wert des sortOrder-Parameters unterscheiden. Allerdings geben die URLs 1 und 2 unterschiedliche Inhalte wieder: unter der ersten URL wird der günstigste Rock zuerst angezeigt, unter der zweiten URL kommt der teuerste zuerst. Dadurch wird schon deutlich, dass die Verwendung eines einzigen stellvertretenden Wertes in dem Fall keine gute Lösung ist. Wenn du den Googlebot eine einzige stellvertretende URL aus einer Gruppe von URLs auswählen lässt, die sich nur hinsichtlich des sortOrder-Parameters unterscheiden, kann es außerdem passieren, dass jedes Mal ein anderer Wert ausgewählt wird. Nehmen wir an, im Beispiel oben wird aus dem ersten URL-Paar die URL 1 ausgewählt (sortOrder='lowToHigh'). Vom zweiten URL-Paar könnte zum Beispiel die URL 4 ausgewählt werden (sortOrder=' highToLow'). Wenn das passiert, crawlt der Googlebot nur die günstigsten Röcke, und zwar zweimal:
  • fairyclothes.example.com/skirts/?page=1&sortBy=price&sortOrder='lowToHigh'
  • fairyclothes.example.com/skirts/?page=2&sortBy=price&sortOrder=' highToLow'
Die teuersten Röcke würden überhaupt nicht gecrawlt. Bei Sortierparametern ist Konsistenz sehr wichtig. Sortiere immer einheitlich.

Lehrling: Wie ist der sortBy-Wert zu erklären?
Zauberer: Bei diesem Wert gilt Ähnliches wie beim sortOrder-Attribut. Die gecrawlten URLs deines Eintrags sollten über alle Seiten hinweg konsistent sortiert sein, sonst könnten einige Artikel für den Googlebot verborgen bleiben. Wähle den Wert allerdings mit Bedacht aus. Wenn du in deinem Online-Shop sowohl Bücher als auch Schuhe anbietest, solltest du nicht den Wert 'title' auswählen, da URLs zu Schuhseiten nie 'sortBy=title' enthalten und diese Seiten daher nicht gecrawlt würden. Dagegen funktioniert die Einstellung 'sortBy=size' gut beim Crawlen von Schuhen, aber nicht von Büchern. Sei dir immer bewusst, dass die Konfiguration der Parameter sich auf die gesamte Website auswirkt.

Lehrling: Warum ist es nicht empfehlenswert, URLs mit dem Parameter 'filterByColor' zu crawlen?
Zauberer: Stell dir vor, du hast eine dreiseitige Liste mit Röcken. Einige davon sind blau, einige rot und andere grün.
  • fairyclothes.example.com/skirts/?page=1
  • fairyclothes.example.com/skirts/?page=2
  • fairyclothes.example.com/skirts/?page=3
Diese Liste kann gefiltert werden. Wenn ein Nutzer eine Farbe auswählt, werden zwei Seiten mit blauen Röcken angezeigt:
  • fairyclothes.example.com/skirts/?page=1&flterByColor=blue
  • fairyclothes.example.com/skirts/?page=2&flterByColor=blue
Sie sehen aus wie neue Seiten, denn die Zusammenstellung der Artikel unterscheidet sich von allen anderen Seiten. In Wirklichkeit sind aber auf den Seiten keine neuen Inhalte vorhanden, da alle blauen Röcke bereits auf den ursprünglichen drei Seiten enthalten waren. Es ist nicht nötig, URLs zu crawlen, die Inhalte nach Farbe eingrenzen, da die unter diesen URLs gehosteten Inhalte bereits gecrawlt wurden. Eines solltest du immer bedenken: Bevor du durch die Option "Keine URLs" das Crawling für einige URLs unterbindest, vergewissere dich, dass der Googlebot auf anderem Wege auf die Inhalte zugreifen kann. Auf unser Beispiel bezogen bedeutet das, dass der Googlebot die ersten drei Links auf deiner Website finden können sollte; keine Einstellung sollte das Crawling dieser drei Links verhindern.
---

Wenn bei eurer Website URL-Parameter verwendet werden, die potenziell Probleme mit doppelten Inhalten verursachen können, solltet ihr euch die neue URL-Parameter-Funktion in den Webmaster-Tools ansehen. Teilt uns eure Meinung dazu mit. Falls ihr Fragen habt, könnt ihr sie im Webmaster-Tools-Hilfeforum posten.

Autor: Kamila Primke, Softwareexpertin, Webmaster-Tools-Team (Veröffentlicht von Dominik Zins, Search Quality)

Freitag, 19. August 2011

Sollte man Banner-Anzeigen mit "nofollow" versehen?



Die heutige Frage kommt von Damian aus der Blogosphäre. Sie lautet: "Wenn jemand einen Textlink von meiner Website kauft, füge ich den "nofollow"-Tag hinzu, damit jeder weiß, dass es ein bezahlter Link ist. Muss ich das auch bei Banner-Images tun?"

Banner-Anzeigen werden in der Regel über Anzeigenbörsen oder Werbenetzwerke verkauft. Robots werden dort bereits blockiert, weil man nicht möchte, dass Banner-Anzeigen gecrawlt werden oder dass Robots z. B. Impressionen oder Klickzahlen beeinträchtigen. Wenn ihr also normale Banner-Anzeigen verwendet, wird man direkt auf Seiten weitergeleitet, die von robots.txt blockiert werden oder auf Seiten, die irgendwie nicht von Suchmaschinen gecrawlt werden können. In diesem Fall müsst ihr euch darüber keine Gedanken machen.

Wenn ihr selbst aber direkt einen Link verkauft, beispielsweise einen Bild- oder Textlink, dann würde ich dem Link "nofollow" hinzufügen, wenn jemand dafür gezahlt hat. Auch wenn es ein Bildlink ist.

In den meisten Fällen gibt es bei Google jedoch keine Probleme mit Banner-Anzeigen und dergleichen. Sie beinflussen den PageRank nicht und alles läuft ordnungsgemäß ab. Es gibt dann also keinen Grund, sich Sorgen zu machen.

Veröffentlicht von Daniela Loesser, Search Quality Team

Mittwoch, 17. August 2011

Page Speed-Dienst: Verbesserte Web-Leistung frei Haus

Vor zwei Jahren haben wir euch die Page-Speed-Erweiterung für Browser vorgestellt. Anfang dieses Jahres kam dann das Page Speed Online-API dazu, mit dem Entwickler spezifische Vorschläge zur Optimierung der Geschwindigkeit ihrer Websites erhalten. Letztes Jahr haben wir ein Apache-Modul, mod_pagespeed, veröffentlicht, das eure Websites automatisch umschreibt. Um Webmastern das Leben zu erleichtern und die Installation zu vereinfachen, haben wir nun das letzte Mitglied der Page Speed-Familie eingeführt: den Page Speed-Dienst.

Der Page Speed-Dienst ist ein Online-Dienst, der das Laden eurer Websites automatisch beschleunigt. Zur Verwendung dieses Dienstes meldet euch einfach bei Google an und weist mit dem DNS-Eintrag eurer Website auf Google hin. Der Page Speed-Dienst ruft Inhalte von euren Servern ab, schreibt die Seiten unter Berücksichtigung der bewährten Vorgehensweisen für eine optimierte Web-Leistung um und stellt sie Endnutzern auf der ganzen Welt über Google-Server bereit. Die Nutzer eurer Seite greifen wie gewohnt auf eure Websites zu, jedoch jetzt mit schnelleren Ladezeiten. Damit braucht ihr euch nicht mehr den Kopf über das Verketten von CSS, Komprimieren von Bildern, Caching, die gzip-Komprimierung oder andere bewährte Vorgehensweisen für eine optimierte Web-Leistung zu zerbrechen.

Unsere Tests haben gezeigt, dass die Geschwindigkeit verschiedener Seiten um etwa 25 % bis zu 60 % erhöht werden kann. Wir wissen natürlich, dass ihr an harten Fakten interessiert seid, also probiert einfach aus, wie stark Page Speed die Geschwindigkeit eurer Website erhöhen kann. Wenn euch die Ergebnisse überzeugt haben, dann meldet euch an. Sollte das nicht der Fall sein, schaut einfach später noch einmal vorbei. Wir arbeiten unablässig an der Verbesserung und Erweiterung unseres Dienstes.

Zurzeit ist der Page Speed-Dienst nur einer begrenzten Anzahl von Webmastern kostenlos zugänglich. Die Preise werden jedoch wettbewerbsfähig sein. Mehr Informationen dazu sind bald verfügbar. Anfragen zu diesem Dienst könnt ihr einfach über dieses Webformular stellen.

Post von Ram Ramani, Engineering Manager (Veröffentlicht von Dominik Zins, Search Quality)

Freitag, 12. August 2011

Neuer Algorithmus für hochqualitative Websites - jetzt in weiteren Sprachen

Seit vielen Monaten haben wir uns verstärkt darauf konzentriert, unseren Benutzern qualitativ hochwertige Websites als Ergebnis zu liefern. Anfang des Jahres haben wir das “Panda”-Update für alle weltweiten englischsprachigen Suchanfragen eingeführt. Heute führen wir diese Maßnahmen fort, indem wir unsere algorithmischen Verbesserungen der Suche in verschiedenen Sprachen einsetzen. Unsere Daten einer wissenschaftlichen Auswertung (Englisch) zeigen, dass diese Änderung die Suchqualität durchweg verbessert. Die bisherigen Rückmeldungen der Nutzer zu Panda waren sehr positiv.

Für die meisten Sprachen wird diese Änderung typischerweise 6-9% der Suchanfragen in einem Umfang betreffen, den die Nutzer bemerken können. Dies ist deutlich niedriger als bei unserem ersten Panda Rollout, der fast 12% aller englischen Suchanfragen in einem sichtbaren Umfang beeinflußte.

Wir führen dieses Update für alle Sprachen ein, mit Ausnahme von Chinesisch, Japanisch und Koreanisch, wo wir die Verbesserungen weiter testen.

Für Websites, die von dieser algorithmischen Aktualisierung betroffen sind, haben wir einen hilfreichen Blogpost: “Weitere Tipps zur Erstellung qualitativ hochwertiger Websites”. Außerdem bieten wir unsere Webmaster-Foren in zahlreichen Sprachen an. Dort können Webmaster weiteres Feedback geben oder Ratschläge bekommen. Wir stellen weiterhin unsere Nutzer in den Mittelpunkt und arbeiten kontinuierlich daran, ihnen die bestmöglichen Ergebnisse zu liefern.

Autor: Amit Singhal, Google Fellow (Veröffentlicht von Dominik Zins und Daniela Loesser, Search Quality)

Mittwoch, 10. August 2011

Schnelleres Einreichen von URLs mit "Abruf wie durch Googlebot"

Mit der Funktion "Abruf wie durch Googlebot" in den Webmaster-Tools könnt ihr jetzt neue und aktualisierte URLs bei Google einreichen. Viele Webmaster kennen die Situation: Man aktualisiert eine Seite auf der Website und wartet dann geduldig, bis der Googlebot vorbeischaut und die Seite erneut crawlt, damit der neue Inhalt in den Suchergebnissen angezeigt wird. Auch wenn ihr neue Seiten hinzufügt, kann es relativ lange dauern, bis diese Seiten gecrawlt und indexiert werden. Die neue Funktion, mit der ihr URLs bei Google über "Abruf wie durch Googlebot" einreichen könnt, schafft der Wartezeit Abhilfe.

Senden von URLs
Öffnet zuerst die Funktion "Abruf wie durch Googlebot", um die URL abzurufen, die ihr zu Google hinzufügen möchtet. Sobald die URL abgerufen wurde, wird ein neuer Link neben der URL angezeigt: "Beim Index einreichen".


Wenn ihr dann auf "Beim Index einreichen" klickt, wird ein Dialogfeld angezeigt. Dort könnt ihr entweder eine einzelne URL oder eine URL inklusive aller verknüpften Seiten auswählen.


Es können maximal 50 einzelne URLs pro Woche und 10 URLs inklusive aller verknüpften Seiten pro Monat eingereicht werden. Auf der Seite "Abruf wie durch Googlebot" wird angezeigt, wie viele URLs ihr noch einreichen könnt. Eingereichte URLs führen idealerweise nur zu Inhalten, die für die Google Websuche infrage kommen. Wenn es um Bilder oder Videos geht, verwendet am besten Sitemaps. Sobald die URL eingereicht wurde, crawlt Google eure Website. Somit werden die Angaben in "robots.txt" und die Robots-Meta-Tags berücksichtigt. Für URLs, die beim Index über das Tool "Abruf wie durch Googlebot" eingereicht wurden, kann Google keine Garantie geben, dass die Seiten in den Suchergebnissen angezeigt werden. Die meisten eingereichten Seiten werden jedoch in den Index aufgenommen.

Einreichen von URLs anderer Inhaber bei Google
Neben der Funktion "Abruf wie durch Googlebot" haben wir auch das öffentlich zugängliche Formular "URL zu Google hinzufügen" aktualisiert. für dieses Formular (auf Englisch) zum Crawlen von URLs gilt die gleiche maximale Anzahl der Seiten, die beim Index eingereicht werden können, wie bei der Funktion "Abruf wie durch Googlebot". Hier muss jedoch kein Inhaber angegeben werden. Somit könnt ihr jede beliebige URL eingeben, die gecrawlt und indexiert werden soll.


Wenn Google eine URL sofort crawlen und einen Index für sie erstellen soll, könnt ihr die URL über das Formular (auf Englisch) zum Crawlen von URLs oder die aktualisierte Funktion "Abruf wie durch Googlebot" in den Webmaster-Tools verwenden. Lasst uns eure Meinung wissen und sendet uns Kommentare zum Thema oder besucht das Webmaster-Hilfeforum, wenn ihr spezifische Fragen habt.

Autor: Jonathan Simon, Webmaster Trends Analyst (Veröffentlicht von Dominik Zins, Search Quality)

Donnerstag, 4. August 2011

Wie lang sollte man 301-Weiterleitungen aufrechterhalten?

Heute wieder ein Video von Matt Cutts. Diesmal beantwortet er eine Frage zum Domain-Umzug und der Verwendung von 301-Weiterleitungen.



Die heutige Frage kommt von Jacob aus Dänemark. Sie lautet: "Ich habe eine neue Domain und möchte eine 301-Weiterleitung von www.altedomain.com zu www.neuedomain.com verwenden. Wie lange muss die Weiterleitung aktiv sein, bis ich die alte Domain für andere Zwecke verwenden kann? Nur solange, bis sie einmal gecrawlt wurde?"

Diesbezüglich können Suchmaschinen ihre Richtlinien im Lauf der Zeit ändern, weil sich das Internet weiterentwickelt, oder weil Webmaster Probleme damit haben. Ich habe Erfahrungen damit, als ich von mattcutts.com zu dullest.com und dann wieder zurück zu mattcutts.com umgezogen bin. Dabei habe ich eine 301-Weiterleitung verwendet. Die Umstellung hat einige Wochen gedauert, denn 301-Weiterleitungen finden auf Seitenebene statt.

Wenn man eine 301 auf einer Seite der alten Domain sieht, bedeutet das nicht, dass die ganze Domain vollständig migriert wurde. Ich habe damals die Weiterleitung so eingerichtet, dass man auf jeder Seite von dullest.com auf mattcutts.com weitergeleitet wurde. Es fand also eine vollständige Umleitung statt. Ich habe dullest.com für einige Wochen oder Monate nicht überprüft. Als ich mir dann Google Analytics angeschaut habe, waren all meine Zugriffe von dullest.com auf mattcutts.com übergegangen. Es kann also durchaus einige Wochen oder Monate dauern, bis wir feststellen, dass eine Website vollständig umgezogen ist.

Schwieriger wird es, wenn manche Seiten den 200-Antwortcode und andere eine dauerhafte oder 301-Weiterleitung zurückgeben. Damit können wir recht wenig anfangen. Ich habe kürzlich Websites gesehen, die von altedomain.com in neuedomain.com geändert wurden. Dabei wurde jedoch eine Sub-Domain vergessen. Auf der alten Sub-Domain wurden demnach immer noch 200-Antwortcodes zurückgegeben. Man darf also nicht davon ausgehen, dass alles wie von selbst perfekt funktioniert.

In Google Webmaster-Tools gibt es ein Tool, durch das der Umzug eurer Website angegeben werden kann. Das könnt ihr verwenden und die 301-Weiterleitungen auf jeder Seitenebene festlegen. Ich würde aber nicht davon ausgehen, dass alles nur einmal gecrawlt werden muss. Der Googlebot und Google müssen davon ausgehen können,dass eine vollständige Migration von der alten zur neuen Website stattgefunden hat. Das kann etwas dauern. Aber nach einer Weile kriegen wir es mit.

Veröffentlicht von Daniela Loesser, Search Quality Team