Mittwoch, 30. November 2011

Die Evolution der Suche in sechs Minuten

Heute teilen wir einen Blogpost mit euch, den unsere Kollegen von "Inside Search" veröffentlicht haben. Er gibt einen schönen Überblick darüber, wie sich die Suche entwickelt hat und wohin ihr Weg geht.

Diesen Sommer haben wir ein Video gepostet (englisch), dass einen Blick hinter die Kulissen unserer Suche wirft. Es erklärt die Methode hinter dem Suchranking und der Evaluation. Mit dieser Methode nehmen wir rund 500 Verbesserungen im Jahr vor. Wie schon häufig zuvor besprochen, ist das eine ganze Menge an Änderungen und es ist manchmal schwer, alle zu verstehen.

Unser letztes Video aufgreifend, zeigen wir euch heute die Evolution der Suche in einer Kurzgeschichte. Wir heben ein paar Meilensteine der letzten Dekade hervor und geben einen Vorgeschmack auf die Zukunft. (Englisch, Zusammenfassung siehe unten)


Unser Ziel ist es, euch immer schneller und schneller Antworten zu liefern, um eine nahtlose Verbindung zwischen euren Fragen und den Informationen, die ihr sucht, herzustellen. Das bedeutet, dass ihr nicht über jedes unserer neuen Features informiert sein müsst, um in den Genuss zu kommen, es zu benutzen. Schreibt einfach wie immer in das Suchfeld und ihr erhaltet die Antworten, nach denen ihr sucht.

Das Video zeigt allerdings ein paar wichtige Trends für all jene unter euch, die genauer wissen wollen, wie sich die Suche entwickelt hat:

Universelle Ergebnisse: Mit der universellen Suche - welche Ergebnisse wie Bilder, Videos und News zusätzlich zu Webseiten wiedergibt - helfen wir euch unterschiedlichste Informationen an einer Stelle gebündelt zu erhalten. Wir haben damit weitergemacht, die Suche umfangreicher zu gestalten und es euch zu ermöglichen auch Produkte, Plätze, Patente, Bücher, Karten und mehr zu finden.

Schnelle Antworten: Heutzutage werdet ihr mehr auf Google finden, als nur eine Liste von Links zu Webseiten. Ihr findet schnelle Antworten zu einer großen Auswahl an Themen wie Flugzeiten, Sportergebnissen, Wetter und vielen mehr oben auf der Seite. Im Zuge der Verbesserung unserer Technologie fangen wir an, euch auch schwerere Fragen zu beantworten - direkt auf der Seite mit den Suchergebnissen.

Die Zukunft der Suche: Wir haben uns zudem darauf fokussiert schnellere Wege des Suchens zu entwickeln, die euch Zeit sparen. So haben wir einige Sekunden bei Suchen mit Google Instant eingespart oder helfen euch mit Google Voice Search auf eurem Smartphone zu suchen. Suchen sollte so einfach sein, wie zu denken, und die Zukunft sieht vielversprechend aus!

Für das Video haben wir auch noch eine Zeitleiste mit Features der Suche erstellt. Es ist nicht die erste Zeitleiste, die wir gemacht haben, aber wir denken, dass diese die verschiedenen universellen Ergebnisse und schnellen Antworten gut kategorisiert, die wir über die Jahre eingeführt haben:


Die Zeitleiste zeigt ungefähr die Zeitpunkte, an denen wir spezielle Verbesserungen der Such-Feature vorgenommen haben. Ihr könnt ein größeres Bild herunterladen, wenn ihr auf diesen Link klickt.

Es war spannend während der letzten Dekade ein Teil der Evolution der Suche zu sein und wir sind begeistert darüber, was als nächstes veröffentlicht wird. Wenn die Vergangenheit ein guter Indikator ist, wissen wir nicht wie die Suche 2020 aussehen wird, aber wir wären nicht überrascht, wenn sie ganz anders als heute aussieht.

Gepostet von Ben Gomes, Google Fellow (Übersetzung von Dominik Zins, Search Quality)

Mittwoch, 23. November 2011

Ist SEO Spam?

Heute räumt Matt Cutts mit dem Vorurteil auf, dass Google SEO durchweg als negativ ansieht, und zeigt eine Vielzahl wichtiger Betätigungsfelder für die Suchmaschinenoptimierung auf.



Hallo. Heute werde ich über Suchmaschinenoptimierung (SEO) und Spam berichten und die Frage beantworten, ob Google SEO als Spam betrachtet. Die Antwort lautet: Nein. Wir betrachten SEO nicht als Spam. Da einige sehr technisch orientierte Nutzer dieser Ansicht vielleicht widersprechen, will ich sie etwas ausführlicher erläutern.

SEO steht für Search Engine Optimization. Das bezeichnet nichts anderes als den Versuch, eure Seiten so gut wie möglich in Suchmaschinen darzustellen. So gibt es zahllose sinnvolle, qualitativ gute White-Hat-Verfahren für Suchmaschinenoptimierer. Ihr könnt zum Beispiel sicherstellen, dass eure Seiten gecrawlt werden können und zugänglich sind. So wie Nutzer eure Seite finden sollen, indem sie auf Links klicken, finden auch Suchmaschinen Seiten, indem sie auf Links klicken.

Suchbegriffe müssen auf die Anfragen der Nutzer abgestimmt sein. Wenn ihr Fachjargon oder Begrifflichkeiten verwendet, die nicht jeder kennt, hilft euch ein guter SEO, festzustellen, welche Suchbegriffe möglicherweise überarbeitet werden müssten. Im Rahmen der Nutzerfreundlichkeit liegt auch gutes Design der Website in eurem Interesse. Das hilft sowohl Nutzern als auch Suchmaschinen. Außerdem könnt ihr an der Geschwindigkeit eurer Website arbeiten. Einerseits ist die Geschwindigkeit einer von vielen Faktoren, die das Ranking einer Website bei Google beeinflussen. Andererseits fördert eine schnellere Website auch die Benutzerfreundlichkeit.

Es gibt also ein großes Betätigungsfeld für SEOs: Von der Unterstützung bei der Konzeption der Website-Architektur und grundlegenden Designüberlegungen über URL-Struktur, Vorlagen und weitere Vorkehrungen, die ermöglichen, dass die Website gecrawlt werden kann, bis hin zur ROI-Optimierung. Dazu kommen Kosten-Nutzen-Analysen, A/B-Tests und Überlegungen, mit welchem Text die beste Conversion erzielt werden kann, um nur einige Beispiele zu nennen. Diese White-Hat-Methoden sind allesamt vollkommen vertretbar.

Gibt es auch SEOs, deren Vorgehensweisen wir nicht zustimmen? Sicher. Gibt es nicht auch SEOs, die Black-Hat-Methoden anwenden, Websites hacken, überflüssige Keywords verwenden, mit Textwiederholungen täuschen oder Umleitungen missbrauchen? Auf jeden Fall. Unser Ziel besteht jedoch darin, die bestmöglichen Suchergebnisse zu liefern. SEOs können dazu entschieden beitragen, indem sie kooperieren und Suchmaschinen dabeiunterstützen, Seiten besser zu finden.

SEO ist nicht gleich Spam. SEO kann äußerst nützlich sein. SEO kann aber auch missbrauchtund übertrieben werden. Wir sind der Meinung, dass Nutzer sich in einer idealen Welt über derartige Probleme keine Sorgen machen müssten. Doch bisher sind Suchmaschinen nicht so klug wie Menschen. Wir arbeiten daran. Wir versuchen herauszufinden, was Nutzer ausdrücken wollen. Wir erforschen Synonyme, Vokabular und Wortstammfunktion, sodass Nutzer nicht ein bestimmtes Wort kennen müssen, um zu finden, was sie suchen. Bis wir das gelöst haben, bietet SEO einen vertretbaren Ansatz, Nutzer mittels Suchmaschinen zu dem zu führen, was sie suchen.

Unser Beitrag dazu sind die Richtlinien für Webmaster unter google.de/webmasters. Dort gibt es ein kostenloses Forum für Webmaster und die ebenfalls kostenlosen Webmaster-Tools. Außerdem gibt es reichlich HTML-Dokumentation. Speziell für den Einstieg in den Bereich SEO haben wir eine Einführung in die Suchmaschinenoptimierung verfasst.

Um es noch einmal zu betonen: Es gibt unzählige saubere Möglichkeiten, das Web mit SEO nutzerfreundlicher zu machen. Es ist schlicht falsch, wenn ihr hört, SEOs seien allesamt kriminell und schlüpfrige Geschäftemacher. Wenn ihr jemanden findet, dem ihr vertrauen könnt, jemand, der euch genau sagt, was und wie er es tut, jemand mit guten Referenzen oder jemand, dessen Arbeit ihr persönlich kennt und schätzt, jemand, der klar sagt, was er tut, kann das echte Vorteile für eure Website bringen.

Hoffentlich konnte ich eine einseitig negative Wahrnehmung von SEO korrigieren. Manch einer ist der Meinung, Google betrachtet SEO grundsätzlich als Spam. Das trifft absolut nicht zu. Es gibt eine Menge hervorragender SEOs. Und solch einen SEO wünsche ich euch für eure Website.

Veröffentlicht von Daniela Loesser, Search Quality Team

Montag, 21. November 2011

Wieso ist meine Website im Ranking gefallen?

Was tun, wenn die Website plötzlich im Ranking bei Google abgerutscht ist? Matt Cutts gibt im heutigen Video Tipps, welche Fragen man sich stellen sollte, welche Google-Tools man nutzen kann, um den möglichen Ursachen für den Ranking-Verlust auf den Grund zu gehen.



Die heutige Frage kommt aus Dearborn, Michigan. Ryan möchte wissen: "Mit welcher Methode lässt sich feststellen, warum sich bei meiner Website die Rankings und Zugriffszahlen von Google drastisch verschlechtert haben?"

Eure Zugriffszahlen haben sich also plötzlich drastisch verschlechtert. Als Erstes würde ich eine Suche über site:meinedomain.com durchführen, um herauszufinden, ob die Website bei Google überhaupt nicht angezeigt wird oder Teile davon noch in den Suchergebnissen auftauchen. So könnt ihr auch feststellen, ob eure Website teilweise indexiert wurde. Wenn ihr kein Snippet seht, gibt es vielleicht eine robots.txt-Datei, die das Crawlen blockiert hat. In diesem Fall haben wir eine Referenz zu dieser Seite gefunden und haben das ausgegeben, was uns über einen Link zu dieser Seite angezeigt wurde. Aber wir konnten nicht die Seite selbst sehen oder sie abrufen.

In den Suchergebnissen wird euch außerdem angezeigt, ob eure Website unserer Ansicht nach gehackt wurde oder Malware enthält. Dann erscheint dort eine Warnung .Das führt natürlich zu geringeren Zugriffszahlen, da Nutzer keine gehackte Website oder eine Website mit Malware besuchen möchten.

Als Nächstes würde ich in der Webmaster-Konsole (google.com/webmasters) nachschauen. Meldet euch an und weist nach, dass ihr der Inhaber oder Administrator der Website seid. Mittlerweile erstellen wir viel mehr Meldungen, die über verborgenen Text, geparkte Domains oder Brückenseiten hinausgehen. Wir veröffentlichen mittlerweile die unterschiedlichsten Meldungen, wenn wir denken, dass ein Verstoß gegen unsere Qualitätsrichtlinien vorliegt.

Wenn das Problem nicht angezeigt wird oder ihr keine Meldung seht, besucht unser Webmaster-Forum. Ihr findet einen Link dort hin auf google.com/webmasters. Am Forum beteiligen sich viele Personen, auch viele erfahrene Nutzer, die euch mit Ideen und Vorschlägen weiterhelfen können.

Dabei könnt ihr euch fragen, ob dieses Problem nur eure Website oder auch andere Websites betrifft. Wenn nur eure Website davon betroffen ist, dann verstößt sie möglicherweise unserer Einschätzung nach gegen unsere Richtlinien. Das Problem kann aber auch beim Server oder der Website selbst bestehen, also auf eurer Seite liegen.

Es kann aber auch auf einen veränderten Algorithmus zurückzuführen sein. Wenn mehrere Websites anderer Leute betroffen sind, ist wahrscheinlich ein Algorithmus dafür verantwortlich. Ihr könnt auch bei anderen Suchmaschinen testen, ob eure Website dort aufgeführt wird. Wenn nicht, liegt das Problem wahrscheinlich bei euch.

Möglicherweise habt ihr mit einem Test-Server gearbeitet, der eine robots.txt-Datei oder ein noindex-Tag enthielt, damit der Test-Server unsichtbar blieb, und ihr habt bei der Veröffentlichung das noindex nicht entfernt.

Eine weitere Möglichkeit ist "Abruf wie durch Googlebot". Das findet ihr auch in unserer Webmaster-Konsole. Damit könnt ihr den Googlebot losschicken, um eine Seite abzurufen und sie euch anzuzeigen. Da erlebt man manchmal echte Überraschungen. Manchmal wurde eine Website gehackt oder es gab ein noindex-Tag oder ein rel=canonical-Attribut, das auf eine Hacker-Seite verwiesen hat. Solche Sachen könnt ihr mit "Abruf wie durch Googlebot" herausfinden.

Es gab auch schon Fälle, in denen Leute Cloaking einsetzen wollten, was falsch verwendet wurde und dann total schiefgelaufen ist. Während den Nutzern normale Inhalte angezeigt wurden, erhielt der Googlebot nur leeren Inhalt. Auch in solchen Fällen hilft "Abruf wie durch Googlebot".

Wenn ihr Änderungen an eurer Website, eurem Hosting oder eurem Design vorgenommen habt, kann das auch Probleme verursachen. Überprüft einfach, ob ihr größere Änderungen an eurer Website etwa zur gleichen Zeit vorgenommen habt, beispielsweise am DNS oder Host-Namen. Dadurch können auch Probleme entstehen. Wenn ihr sehr anspruchsvolles Ajax eingesetzt habt, können Suchmaschinen eure Website vielleicht nicht ganz so einfach crawlen und verarbeiten.

Spätestens dann habt ihr hoffentlich herausgefunden, ob nur eure Website oder Teile davon betroffen sind, ob das Problem bei mehreren Suchmaschinen besteht oder ob mehrere Websites davon betroffen sind und es sich deshalb um einen veränderten Algorithmus handelt. Sobald das klar ist und ihr wisst, wo das Problem liegt, könnt ihr einen Antrag auf erneute Überprüfung in Betracht ziehen. Wenn ihr denkt, dass ihr einen Verstoß begangen habt und beispielsweise Cloaking eingesetzt oder eine leere Seite an Google ausgegeben habt, oder verborgener Text oder überflüssige Keywords von euch verwendet wurden, dann könnt ihr einen Antrag auf erneute Überprüfung stellen.

So stellt ihr fest, ob Google manuell gegen eure Website vorgegangen ist. Es ist gut, wenn das nicht der Fall ist. Denn selbst wenn euer Ranking nicht euren Vorstellungen entspricht, wisst ihr wenigstens, dass ein Algorithmus dafür verantwortlich ist. Ihr könnt also einschätzen, welche Probleme ihr noch auf den Algorithmus zurückführen könnt.

Sollten wir manuell vorgegangen sein, informieren wir euch so schnell wie möglich, ob wir eure Website neu eingestuft haben und das Problem bald behoben ist oder ob wir immer noch der Meinung sind, dass ein Problem besteht. So erhaltet ihr mehr Transparenz. Erst seit der letzten Runde mit Webmaster-Videos, also seit etwa einem halben Jahr, geben wir genauere Informationen, nicht nur in unseren Meldungen, sondern auch in unseren Antworten auf Anträge auf erneute Überprüfung. Auch das trägt zur Transparenz bei.

Auf diese Probleme solltet ihr also achten. Hoffentlich wisst ihr jetzt, welche Analyse-Tools ihr verwenden könnt. Und ich hoffe, dass ihr alle Probleme - egal bei welcher Website - beheben könnt. Denn wenn ihr tolle Inhalte bietet, möchten wir diese Inhalte, soweit möglich und soweit angemessen, in unseren Index aufnehmen, damit auch andere Nutzer sie finden können.

Veröffentlicht von Daniela Loesser, Search Quality Team

Freitag, 18. November 2011

Was sollte man beim Umzug auf eine neue Domain beachten?

Nachdem Matt Cutts in unserem letzten Video-Post Tipps für den Umzug auf einen neuen Webhost gegeben hat, erklärt er heute, was man alles beachten sollte, wenn man die Domain der Website wechseln will.



Hallo! Heute haben wir wieder eine Videoanleitung für euch. Es geht um ein Thema, das viele interessiert: Wie wechsle ich die Domain meiner Website und erhalte dabei möglichst gut die Rankings? Vielleicht wollt ihr gerade von einer alten zu einer neuen Domain wechseln. Wir besprechen, was ihr dabei bedenken solltet und wie ihr Probleme vermeiden könnt.

Fangen wir an. Wir haben hier eine Website, vielleicht mit einem Unterverzeichnis oder einer Subdomain. Genau genommen haben wir zwei oder drei Websites. Außerdem haben wir eine neue Domain. Im Moment ist es nur eine geparkte Domain. Dazu gebe ich euch gleich zu Beginn einen Rat: Wenn ihr vorhabt, zu einer neuen Domain zu wechseln, parkt die Domain nicht einfach, sondern stellt einige Inhalte unter der Domain bereit. Sei es auch nur eine kleine, abgespeckte Mini-Ausgabe eurer Website. Es reicht sogar schon, wenn ihr nur die Startseite eurer Website bereitstellt. Dadurch macht ihr deutlich, dass es sich nicht um eine von Millionen geparkter Domains handelt.

Also beginnt schon einmal mit der neuen Website. Sie muss nicht toll aussehen. Ihr braucht auch nicht viel CSS, JavaScript und Ähnliches zu verwenden. Es genügen einige Textabsätze, in denen ihr die geplante Website kurz vorstellt oder deren Inhalte beschreibt, nach dem Motto "Hier entsteht die neue Webpräsenz der Firma XY" oder Ähnliches. Der Grund ist: Unsere Algorithmen versuchen, geparkte Seiten zu erkennen und herauszufiltern. Wenn eine geparkte Domain plötzlich normal genutzt wird, versuchen wir zwar, den Wechsel schnellstmöglich zu erkennen. Aber wenn ihr uns für das Crawlen, Sichten und Verarbeiten der Seite etwas mehr Zeit gebt, können wir die Seite wahrscheinlich besser verarbeiten.

Okay. Wir ziehen also um: von einer alten Website - oder genauer gesagt von zwei oder drei alten Websites - zu einer konsolidierten neuen Website. Sicher wollt ihr dabei nicht gleich ins kalte Wasser springen, sondern zunächst einige Tests durchführen. Ihr könntet unter anderem prüfen, ob die neuen Inhalte vorhanden sind oder ob die Inhalte korrekt zur neuen Website verschoben wurden. Ihr könnt mit einem Unterverzeichnis oder mit einer Subdomain anfangen. Für diesen Teil der Website erstellt ihr eine 301-Weiterleitung zur neuen URL. Ich nehme an, dass der Wechsel für immer sein soll. In diesem Fall ist eine dauerhafte, sogenannte 301-Umleitung sinnvoll. Wenn der Wechse lnur vorübergehend sein soll, verwendet ihr eine 302-Umleitung beim Senden der HTTP-Statuscodes.

Okay. Ihr könnt also zunächst versuchen, diesen Teil der Website zum neuen Teil der neuen Website umzuleiten, und testen, ob das Ranking weiterhin in Ordnung ist. Wenn die 301-Umleitung aus irgendeinem Grund in ein 'schwarzes Loch' führt und kein gutes Ranking erzielt, zieht noch nicht mit allen Inhalten um. Findet erst die Ursache heraus. Vielleicht hat der vorherige Besitzer über diese Domain Spam verbreitet und ihr wollt einen Antrag auf erneute Überprüfung stellen oder etwas Ähnliches. Jedenfalls wechselt nicht mit allen Inhalten zur neuen Domain, ohne zuvor bei einem Teil der Website zu testen, ob es funktioniert.

Was ist, wenn ihr mehrere Websites habt, zum Beispiel drei Websites, die ihr alle zu einer Marke oder zu einer Website zusammenfassen möchtet? Das kommt häufig vor und ist gar kein Problem. Ihr könnt auch hierfür 301-Umleitungen verwenden. Beginnt mit der Domain mit den geringsten Besucherzahlen. Wenn ihr zum Beispiel diese drei Websites zusammenführen möchtet, beginnt mit derjenigen mit den geringsten Besucherzahlen. Erstellt eine 301-Umleitung und prüft, ob alles gut läuft und der Wechsel problemlos funktioniert. Dadurch schützt ihr eure Domain mit den höchsten Besucherzahlen vor einem Risiko. Wenn alles gut geklappt hat, richtet ihr die 301-Umleitung für die nächstgrößere Website ein. Zuletzt holt ihr die größte Website mit ins Boot.

Okay. Was ihr außerdem bedenken solltet: Wenn ihr der Eigentümer oder Verantwortliche für alle diese Websites seid, könnt ihr die Bestätigungscodes hinzufügen und eure Website in der Webmaster-Zentrale registrieren. Dann könnt ihr die Statistiken für alle Websites abrufen.

Als weiteren Punkt prüft ihr, wer Verknüpfungen zu eurer alten Domain erstellt hat. Ihr braucht auf keinen Fall jeder einzelnen Person zu schreiben, die jemals auf eure Domain verwiesen hat, und darum bitten, den Link für die neue Domain zu aktualisieren. Aber für die wichtigsten Verknüpfungen zu eurer alten Website könnte sich das lohnen. Wenn zum Beispiel die New York Times, das ZDF, die Süddeutsche Zeitung, Wikipedia oder eine andere große Website auf eure Website verweist, widmet diesen Anbietern etwas Aufmerksamkeit. Schreibt dem Eigentümer oder bearbeitet die Wikipedia-Seite mit dem Hinweis, dass eure Seite zu einer neuen URL umgezogen ist.

Die Suchmaschinen sollten zwar allen 301-Umleitungen folgen, aber so könnt ihr es noch einfacher machen, indem ihr das Problem früher abfangt. So können selbst neue Suchmaschinen, die den alten Link nicht kennen, den Link berücksichtigen. Das wirkt sich positiv auf das Ranking aus.

Was gibt es noch zu sagen? Wenn ihr plant, zu einer neuen Domain zu wechseln und gleichzeitig eure Website-Vorlage zu ändern, sodass sich die Benutzeroberfläche der Website ändert und so weiter, könnte es sinnvoll sein, diese beiden Prozesse zu trennen. Denn durch die Umleitung ändert sich ja bereits die URL eurer Website. Wenn ihr die Website gleichzeitig völlig umgestaltet und dann der Wechsel aus irgendeinem Grund nicht gut läuft, wäre das ungünstig.

Vielleicht habt ihr einiges mit AJAX oder JavaScript programmiert und die Seite enthält nur wenig indexierbaren Text. In dem Fall könnt ihr am Ende kaum feststellen, ob der Wechsel zur neuen Domain oder die Neugestaltung der Website die Ursache des Problems ist. Ihr solltet also solche Prozesse möglichst entkoppeln, indem ihr zunächst nur einen Teil der Website oder die Website mit den geringsten Besucherzahlen verlagert und prüft, ob alles funktioniert wie geplant.

Das waren also einige Faustregeln. Wenn möglich, ist es auch hilfreich, die alte Website noch eine Weile online zu lassen. Ich habe einen Test durchgeführt ,bei dem ich von mattcutts.com zur Domain dullest.com umgezogen bin. Ich habe die alte Website weitere 6 Monate online gelassen, also genug Zeit für die 301-Umleitungen und die gesamte Umstellung, sodass alles korrekt verarbeitet wird. Das hat sehr gut funktioniert. Wenn ihr solche Änderungen langsam, vorsichtig und überlegt durchführt, sollte alles gut ablaufen.

Ich kenne zahllose Berichte über Websites, die zu neuen Domains gewechselt sind und bei denen alles glatt über die Bühne ging. Durch die genannten Schritte könnt ihr definitiv etwas dazu beitragen. Denn wenn dann etwas schief geht, könnt ihr feststellen, an was es lag: an der Neugestaltung der Website oder an der Umstellung auf die neue Domain. Behaltet einfach diese Faustregeln im Hinterkopf, wenn ihr zu einer neuen Domain wechselt. Viel Erfolg dabei!

Veröffentlicht von Daniela Loesser, Search Quality Team

Mittwoch, 16. November 2011

Wie zieht man auf einen neuen Webhost um?

Matt Cutts gibt heute ein paar Tipps, was man beim Wechsel von einem Webhost auf einen neuen beachten sollte.



Hallo zusammen, meine Name ist Matt Cutts. Heute möchte ich erklären, wie man mit seinem Content von einem Webhosts zu einem anderen umzieht. Möglicherweise seid ihr ja mit eurem aktuellen Anbieter nicht zufrieden und möchtet zu einem anderen Anbieter wechseln. Der Domain-Name bleibt dabei unverändert. Ganz gleich also, ob "mattcutts.com" oder "example.com": Der Domain-Name ist derselbe. Allerdings wird euch aufgrund des Wechsels zu einem neuen Host auch eine neue IP-Adresse zugewiesen. Wie genau läuft das ab?

Zunächst gibt es da eine wunderbare Erfindung namens DNS, auch Domain Name Server genannt. Dieser Server ordnet einen Namen, beispielsweise "example.com", einer IP-Adresse zu. Wird der DNS nun nach "example.com" abgefragt, verweist er auf diese spezielle IP-Adresse, von der eine entsprechende Antwort kommen sollte. So funktioniert das Ganze. Das Leben ist schön. Alle sind glücklich.

Aber was passiert nun, wenn ihr den Webhost wechselt? Dann ändert sich ja die IP-Adresse. Der Content kann derselbe sein. Eigentlich sollte er auch derselbe sein. Jetzt soll "example.com" aber auf den neuen Speicherort verweisen. Folgendes ist dabei zu beachten: Für den DNS ist die TTL relevant. TTL steht für "Time to live". Diese bestimmt im Wesentlichen, für wie lange die IP-Adresse für einen bestimmten Domain-Namen nach dem Abruf im Cache verbleibt. Normalerweise wird sie für einen Tag gespeichert. Nach dem Abruf der IP-Adresse von "example.com" bleibt also genau ein Tag Zeit, ehe die Adresse erneut abgerufen werden muss.

In einigen Fällen kann die festgelegte TTL aber deutlich verringert werden. Etwa auf einen Zeitraum von fünf Minuten. Kein Problem, wenn es euch nicht auf Anhieb gelingt, die TTL zu verringern. Es ist bloß eine nette kleine Verbesserung. Alle, die in den kommenden fünf Minuten vorbeischauen, können nach fünf Minuten schon sehen, wie schnell sich die Dinge ändern können.

Geht am besten folgendermaßen vor: Legt, wenn möglich, einen geringen Wert für die TTL fest beispielsweise fünf Minuten. Nun zum Content. Dem zaubern wir ein Lächeln ins Gesicht. Vielleicht eine Sommersprosse. Jetzt seht ihr zwei lächelnde Gesichter vor euch, denn ihr möchtet den Content vom alten Host auf den neuen Host hochladen. Dahinter steckt die Idee, dass die Nutzer immer euren Content finden – unabhängig von der jeweiligen IP-Adresse. Unter idealen Voraussetzungen könntet ihr eure Website an beiden Speicherorten belassen. Bei statischem Content wäre das kein Problem. Einfach eine Sicherung erstellen. Den Content spiegeln. Dynamischer Content stellt da schon eine größere Herausforderung dar. Die ganze Angelegenheit lässt sich aber relativ schnell über die Bühne bringen. Wickelt die Sache beispielsweise hier über ein Backend ab, und dasselbe Backend kann dann wieder als Ziel dienen.

Gehen wir aber von einem einfachen Fall aus. Angenommen, eure Website enthält nur statischen Content. Die TTL ist auf einen geringen Wert festgelegt. Und euer Content befindet sich bei zwei verschiedenen Hosts. Nun müsst ihr die DNS-Einstellung so ändern, dass auf die neue IP-Adresse verwiesen wird. Erkennbar an der gestrichelten und der durchgehenden Linie. Das bedeutet, dass Nutzern nun beim Aufruf von "example.com" die IP-Adresse für den Content beim neuen Host angegeben wird.

Gelegentlich kommt der Googlebot vorbei. Generell versuchen wir, die IP-Adresse für einen bestimmten Domain-Namen jeden Tag zu aktualisieren. Also ungefähr nach 500 bis 1000 Content-Abrufen. So funktionierte die Heuristik zumindest in der guten alten Zeit und mindestens einmal am Tag überprüfen wir, ob sich die IP-Adresse auch tatsächlich geändert hat. Die TTL ist auf eine geringen Wert festgelegt. Der Content befindet sich auf beiden Hosts. Die DNS-Einstellung ist geändert und verweist auf die die neue IP-Adresse. Nun möchtet ihr wissen, ob der Googlebot, und die Nutzer euren Content unter der neuen Adresse vorfinden. Ist die TTL auf einen eher geringen Wert festgelegt, fünf oder zehn Minuten, könnt ihr dabei zu sehen, wie die Nutzer zur neuen Website strömen. Habt ihr die TTL nicht festgelegt, lässt sich ungefähr nach einem Tag erkennen, dass die Nutzer zur neuen Adresse wechseln. Es kann zwar je nach Browser Abweichungen geben, aber normalerweise läuft das so ab.

Sobald ihr feststellt, dass der Googlebot auf euren Content unter der neuen Adresse zugreift, sollte alles gut gelaufen sein. Es schadet auch nichts, den Content eine Zeit lang an beiden Speicherorten vorzuhalten. Allerdings werden sich dann die Zugriffszahlen verändern. Beim alten Host werden die Zugriffe durch Bot und Nutzer zurückgehen und beim neuen Host deutlich ansteigen. Sobald das passiert und sich nur noch wenige Nutzer zum alten Host verirren, könnt ihr den Content unter dieser IP-Adresse löschen.

Wenn ihr also nicht mit eurem derzeitigen Host zufrieden seid, könnt ihr zu einem anderen Host wechseln. Es ist gar nicht so kompliziert oder riskant. Das Ändern der DNS-Einstellung zum Verweisen auf eine neue IP-Adresse ist eine gute Übung. So erhaltet ihr ein paar nützliche Einblicke. Es ist sogar sinnvoll, denn die Einstellung wird immer wieder überprüft. Und jedes Mal, wenn sich die Einstellung geändert hat, ziehen Bot und Nutzer zum neuen Host. Ich hoffe, die Informationen haben euch weitergeholfen. Viel Glück bei der Migration auf neue IP-Adressen!

Veröffentlicht von Daniela Loesser, Search Quality Team

Montag, 14. November 2011

Sind Rechtschreibung und Grammatik wichtig für das Ranking?

In seiner heutigen Video-Antwort erklärt Matt Cutts, ob Rechtschreibung und Grammatik einen Einfluss auf die Bewertung und das Ranking von Websites in den Google-Suchergebnissen haben.



Die heutige Frage kommt von Blind Five Year Old aus San Francisco, Kalifornien, und ist wirklich faszinierend. "Spielen für die Bewertung des Inhalts und der Qualität einer Seite Rechtschreibung und Grammatik eine Rolle?"

Eine sehr gute Frage. Es ist schon eine Weile her, seitdem ich das überprüft habe, aber zumindest zu jenem Zeitpunkt hatten sie keinen Einfluss auf das Ranking. Rechtschreibung und Grammatik gehören also nicht zu den über 200 Kriterien, die wir zur Bewertung der Qualität einer Seite heranziehen. Aber ich denke, es ist eine Überlegung wert, sie in die Kriterien aufzunehmen.

Beispielsweise haben wir vor einiger Zeit bemerkt, dass der PageRank einer Seite, also der von uns vorgeschlagene Beliebtheitswert für eine Seite oder Website, stark mit einer guten Rechtschreibung zusammenhängt. Die Rechtschreibung auf Websites mit hohem PageRank ist also in den meisten Fällen besser als auf Websites mit niedrigem PageRank. Was ziemlich bemerkenswert ist, wenn man mal darüber nachdenkt.

Wir haben das weiter untersucht, und jemand, besser gesagt eine Gruppe, hat Lesestufen entworfen. Damit seht ihr, ob eine Seite die Lesestufe 3. Klasse oder die Lesestufe 12. Klasse hat. Eine solche Inhaltsanalyse wäre als mögliches Qualitätskriterium überaus interessant.

Ich kann euch versichern, dass es immer Probleme mit der Berechnung geben wird, egal bei welchem Kriterium. Nehmt beispielsweise Rechtschreibung und Grammatik. Die heutige Frage setzt bereits voraus, dass es sich um Rechtschreibung und Grammatik einer bestimmten Sprache handelt. Um Rechtschreibung und Grammatik zu bewerten, muss man also herausfinden, in welcher Sprache die Seite verfasst wurde. Und selbst mit dem weltbesten Tool zur Sprachbestimmung werden bei Milliarden von Dokumenten möglicherweise doch ein paar Seiten übersehen. Und dann denkt man, dass die Rechtschreibung und die Grammatik dieser Seite extrem schlecht sind, doch es stellt sich heraus, dass sie eigentlich nur in Ungarisch und nicht in Englisch verfasst wurde. Oder vielleicht sind auch nur ein oder zwei Absätze in Ungarisch statt in Englisch verfasst worden.

Es ist also nicht so, dass Rechtschreibung und Grammatik automatisch perfekte Kriterien sind. Deswegen führen wir soviele Bewertungen durch. Wir machen viele Tests, um festzustellen, ob es sich um einen Qualitätsgewinn handelt und ob unser Eindruck bestätigt wird. Aus unserer Erfahrung können wir festhalten: Je höher der PageRank einer Seite, desto besser sind Rechtschreibung und Grammatik.

Wenn ihr auch auf diese Aspekte Zeit verwenden könnt, erstellt ihr nicht nur gute Inhalte, die Bestand haben werden, sondern punktet auch bei euren Besuchern. Nutzer können einschätzen, ob eine Seite auf die Schnelle oder sehr gewissenhaft erstellt wurde. Ob jemand die Seite korrigiert und die Qualität überprüft hat oder die Ersteller Experten auf diesem Gebiet sind.

Ich versuche, auf Rechtschreibung und Grammatik zu achten, auch beim Twittern. Manchmal macht man Fehler, aber man sollte in dieser Beziehung einfach aufmerksamer sein. Vielleicht nicht unbedingt im Hinblick auf das Ranking, aber einfach, weil es die Nutzererfahrung verbessert und bei Nutzern gut ankommt. Sie werden eure Website eher als Lesezeichen speichern oder nochmal besuchen oder ihren Freunden davon erzählen. Ich hoffe, das hilft euch weiter.

Veröffentlicht von Daniela Loesser, Search Quality Team

Freitag, 11. November 2011

Was ist Cloaking?

Im heutigen Video klärt Matt Cutts einige Fragen zum Thema Cloaking und geht dabei u.a. auf Geotargeting und Mobilgeräte ein.



Hallo zusammen! Ich bin's, Matt Cutts. Heute möchte ich euch etwas über das Thema Cloaking erzählen. Viele haben dazu Fragen: Was genau ist Cloaking? Wie definiert Google Cloaking? Warum ist Cloaking riskant? Und so weiter. Es gibt zwar ausführliche HTML-Dokumentation und wir haben viele Blogposts darüber veröffentlicht, aber ich möchte das Thema noch einmal kurz und prägnant in einem Video behandeln. Dabei beantworte ich einige der Fragen und nenne euch ein paar Faustregeln, damit ihr mit eurer Website immer auf der sicheren Seite seid.

Zunächst also zur Frage: Was ist Cloaking? Cloaking bedeutet im Grunde, dass den Nutzern anderer Content gezeigt wird als dem Googlebot. Wenn ihr zum Beispiel einen Webserver habt und ein Nutzer will eine Seite aufrufen, dann wird dem Nutzer die Seite angezeigt. Soweit alles wunderbar. Nun kommt der Googlebot und fordert ebenfalls eine Seite an. Ihr stellt dem Googlebot eine Seite zur Verfügung. In den allermeisten Fällen erhält der Googlebot denselben Content wie die Nutzer. Soweit passt alles. Falls jedoch dem Googlebot anderer Content angezeigt wird als den Nutzern, liegt Cloaking vor. Das wäre auf jeden Fall riskant für eure Webseite, denn es verstößt gegen unsere Qualitätsrichtlinien. Wenn ihr einmal in Google nach "Qualitätsrichtlinien" sucht, findet Ihr eine ganze Liste der Kriterien. Es gibt viele Hilfedokumente, in denen ihr genau nachlesen könnt, ob ein Risiko für eure Webseite besteht.

Ich will kurz auf das Wichtigste eingehen. Warum halten wir bei Google Cloaking für etwas Schlechtes, das vermieden werden soll? Die Antwort geht weit zurück, in die Anfangsphase der Suchmaschinen. Damals haben viele Betreiber von Webseiten Cloaking als Mittel zur Täuschung und Irreführung eingesetzt. Das lief dann zum Beispiel so ab: Gegenüber dem Googlebot gab der Webserver, der Cloaking nutzte, eine Webseite über Zeichentrickfilme zurück, vielleicht Walt Disney-Filme oder Ähnliches. Wenn dagegen ein Nutzer die Seite besuchte, gab der Webserver Pornos oder Ähnliches zurück. Wenn man also in Google nach Disney-Filmen suchte, wurde man zu einer Seite geführt, die scheinbar Zeichentrickfilme beinhaltet - wenn man auf den Link klickte, erschienen aber Pornos. Das kann eine sehr unangenehme Erfahrung sein. Viele Nutzer haben sich darüber beschwert. Es ist alles andere als benutzerfreundlich.

Daher haben wir beschlossen, dass alle Arten von Cloaking gegen unsere Qualitätsrichtlinien verstoßen. Es gibt also kein "gutes" Cloaking .Wenn jemand Cloaking in besonders irreführender oder täuschender Weise verwendet, setzen wir uns am meisten ein. Dann wird das Webspam-Team aktiv. Aber jede Form von Cloaking verletzt unsere Richtlinien.

Okay. Kommen wir als Nächstes zu einigen Faustregeln, mit denen ihr immer auf der sicheren Seite bleibt. Man kann sich Cloaking so vorstellen: Eine Seite wird abgerufen, zum Beispiel mit Wget oder cURL. Von der abgerufenen Seite wird ein Hash-Wert erzeugt. Dabei wird der gesamte Content der Seite in einem einzigen Zahlenwert ausgedrückt. Nun kommt der Googlebot ins Spiel, und zwar in Form eines Googlebot-User-Agents. In den Webmaster-Tools gibt es sogar eine Funktion namens "Abruf wie durch Googlebot". Damit ruft ihr eine Webseite wie mit dem Googlebot ab und erzeugt davon ebenfalls einen Hash-Wert. Falls die beiden Hash-Werte unterschiedlich sind, könnte es ein Problem geben. Dann besteht vielleicht ein Risiko für eure Webseite. Natürlich werden manche Seiten dynamisch erzeugt. Das betrifft zum Beispiel die Zeitstempel oder wechselnde Werbeanzeigen. Daher gilt die Regel nicht immer wie in Stein gemeißelt.

Als weitere einfache Methode könnt ihr überprüfen, ob der Code eures Webservers Elemente enthält, mit denen gezielt nach einem User-Agent von Googlebot oder nach der IP-Adresse des Googlebots gesucht wird. Denn wenn ihr einen besonderen oder sehr ungewöhnlichen Vorgang bezüglich des Googlebots ausführt -egal ob für dessen User-Agent oder dessen IP-Adresse - könnte das bedeuten, dass ihr potenziell dem Googlebot und den Nutzer nunterschiedlichen Content präsentiert. Und genau das soll ja vermieden werden. Diese Punkte solltet ihr also im Hinterkopf behalten.

Viele Webmaster, die keine schlechten Absichten verfolgen, mit Cloaking also nichts zu tun haben wollen und kein Risiko eingehen möchten, stellen uns die Frage: Was ist mit Geotargeting und mobilen User Agents, also mit Handys z.B.? Da habe ich gute Nachrichten für euch: Darüber müsst ihr euch keine Sorgen machen. Lasst mich kurz erklären, warum bei Geotargeting und bei der Seitenverarbeitung für Mobiltelefone kein Cloaking vorliegt.

Okay. Bisher waren wir von einem einzigen Nutzer ausgegangen. Nehmen wir nun einmal an, der Nutzer kommt aus Frankreich. Außerdem gibt es einen zweiten Nutzer, sagen wir aus Großbritannien. Im Idealfall ist euer Content unter den Domains ".fr" und ".uk" in verschiedenen Sprachen verfügbar, da ihr die Webseiten übersetzen lassen habt. Es ist wirklich hilfreich für einen Nutzer mit einer französischen IP-Adresse, den Content auf Französisch angezeigt zu bekommen. Das ist viel benutzerfreundlicher.

Beim Geotargeting wird bei jeder Anfrage an den Webserver überprüft, aus welchem Land die zugehörige IP-Adresse stammt, zum Beispiel aus Frankreich. Dem Nutzer wird dann die französische Version gesendet oder er wird zur ".fr"-Version der Domain weitergeleitet. Wenn die Browsersprache des Nutzers dagegen Englisch ist oder die IP-Adresse zum Beispiel aus den USA oder Kanada stammt, dann ist die englische Version wahrscheinlich am besten geeignet. Es sei denn natürlich, der Nutzer kommt aus dem französischen Teil Kanadas. Es wird also eine Entscheidung auf der Grundlage der IP-Adresse getroffen.

Solange ihr euch nicht ein bestimmtes Land ausdenkt, zu dem der Googlebot gehört - etwa Googlandia oder Ähnliches - führt ihr keine besondere oder ungewöhnliche Aktion für den Googlebot aus. Zurzeit, das heißt zum Zeitpunkt dieses Videodrehs, führt der Googlebot das Crawling von den USA aus durch. Der Googlebot würde also von eurer Webseite genau wie ein Besucher aus den USA gehandhabt. Der Content würde auf Englisch dargestellt. Gewöhnlich empfehlen wir, den Googlebot genau wie einen normalen Desktop-Browser zu behandeln - also wie Internet Explorer oder einen anderen für eure Website häufig verwendeten Desktop-Browser.

Geotargeting - also das Ermitteln der IP-Adresse und eine entsprechend angepasste Reaktion - ist völlig in Ordnung, solange ihr nicht speziell auf die IP-Adresse des Googlebots reagiert, also auf diesen sehr engen IP-Bereich. Es geht stattdessen nur darum, abhängig von der IP-Adresse eine möglichst hohe Benutzerfreundlichkeit zu erzielen.

Ähnlich ist es, wenn jemand eure Webseiteüber ein Mobiltelefon abruft, zum Beispiel mit einem iPhone oder Android-Gerät. Dann stellt eure Webseite fest, dass es sich um einen ganz anderen User Agent handelt. Er besitzt ganz andere Funktionen. Es ist völlig in Ordnung, auf diesen User Agent zu reagieren und ihm eine kompaktere Version eurer Website zu liefern, die für den kleinen Bildschirm besser geeignet ist. Auch hier gilt: Das Entscheidende ist, ob ihr den Googlebot wie einen Desktop-Nutzer behandelt, das heißt es erfolgt keine besondere oder ungewöhnliche Reaktion speziell auf diesen User Agent. Dann ist alles okay mit eurer Website. Es wird also entsprechend den Funktionen des Mobiltelefons eine angepasste Seite zurückgegeben, aber ihr versucht nicht, den Googlebot oder den Nutzer zu täuschen oder irrezuführen. Ihr behandelt den Googlebot nicht irgendwie anders aufgrund dessen User Agents. Dann ist alles in Ordnung.

Eine letzte Sache möchte ich noch erwähnen - quasi für die "Power User" unter euch: Einige Webmaster treffen die Entscheidung nicht anhand der genauen User Agent-Zeichenfolge oder anhand des genauen IP-Adressbereichs des Googlebots, sondern zum Beispiel, indem sie die Cookies überprüfen. Wenn ein Nutzer nicht auf Cookies reagiert oder mit JavaScript anders umgeht, behandeln sie dies als Sonderfall. Die Nagelprobe lautet auch hier: Verwendet ihr das als Ausflucht, um den Googlebot anders zu behandeln, also ihn auszusondern und dann eine ganz andere Aktion auszulösen?

In all diesen Fällen ist die grundlegende Frage also: Behandelt ihr die Nutzer genauso wie den Googlebot? Unser Ziel ist es, eure Webseite im Wesentlichen so zu erfassen und wiederzugeben, wie sie die Nutzer sehen. Wir möchten, dass die Endnutzer dasselbe Ergebnis erhalten, egal ob sie auf ein Google-Ergebnis klicken oder die eigentliche Webseite aufrufen. Daher gilt: Der Googlebot darf nicht anders behandelt werden. Cloaking bedeutet eine schlechte Erfahrung für Nutzer und verstößt gegen unsere Qualitätsrichtlinien. Diese Sache ist uns wichtig. Es gibt kein "gutes" Cloaking. Wir möchten wirklich sichergehen, dass die Nutzer eine Webseite so sehen, wie sie der Googlebot gesehen hat.

Okay. Ich hoffe, das war hilfreich für euch. Ich hoffe, es ist etwas klarer geworden, was Cloaking ist, und ich konnte euch einige Faustregeln vermitteln. Im Grunde solltet ihr aus diesem Video einfach die Frage mitnehmen: Enthält meine Webseite besonderen Code, der spezifisch nach dem User Agent"Googlebot" oder nach der IP-Adresse des Googlebots sucht und diesen irgendwie anders behandelt? Wenn ihr den Googlebot genau wie alle anderen Nutzer behandelt, also eine Version der Webseite sendet, die an den Standort oder mobile User Agents angepasst ist, ist das in Ordnung. Nur wenn ihr speziell nach dem Googlebot Ausschau haltet und dann etwas anderes ausführt als sonst, geht ihr für eure Webseite ein Risiko ein.

Weitere Dokumentationen dazufindet ihr auf unserer Website. Wahrscheinlich enthalten auch die Metadaten dieses Videos entsprechende Links. Ich hoffe, es ist etwas klarer geworden, was wir über Cloaking denken, warum wir es ernst nehmen und wie wir bei unserer Entscheidung darüber, wann Cloaking vorliegt, die Auswirkungen in ihrer Gesamtheit berücksichtigen. Das Entscheidende ist für uns letztlich die Benutzerfreundlichkeit. Wenn euer Code also irgendetwas enthält, das den Googlebot deutlich anders behandelt als die Nutzer, dann wird das wahrscheinlich Probleme aufwerfen. Ich hoffe, das hilft euch weiter.

Veröffentlicht von Daniela Loesser, Search Quality Team

Donnerstag, 10. November 2011

GET- vs. POST-Methode und die Erfassung von mehr Inhalten im Web

Google muss seine Crawling- und Indexierungsmethoden an die ständige Weiterentwicklung des Webs anpassen. Wir haben die Indexierung von Flash verbessert, eine robustere Infrastruktur namens Caffeine aufgebaut und in bestimmten Fällen sogar damit angefangen, Formulare zu crawlen. Da sich JavaScript und AJAX im Web immer größerer Beliebtheit erfreuen, stoßen wir zunehmend auf Webseiten, für die POST-Anforderungen eingesetzt werden müssen. Das gilt entweder für den gesamten Seiteninhalt oder ist erforderlich, weil auf den Seiten Informationen fehlen bzw. diese Seiten ohne die über eine POST-Anforderung ausgegebenen Ressourcen unbrauchbar dargestellt werden. Bei der Google-Suche entstehen dadurch natürlich Nachteile. Wenn wir Schwierigkeiten haben, Inhalte zu finden und zu indexieren, können wir Nutzern nicht die umfassendsten und relevantesten Ergebnisse präsentieren.

Grundsätzlich empfehlen wir die GET-Methode, um die für eine Seite erforderlichen Ressourcen abzurufen. Sie ist unsere bevorzugte Crawling-Methode. Wir haben Versuche unternommen, POST-Anforderungen in GET-Anforderungen umzuschreiben. Das funktioniert in manchen Fällen, häufig sind die vom Webserver ausgegebenen Inhalte für GET und POST allerdings vollkommen unterschiedlich. Es gibt natürlich gute Gründe, die POST-Methode zu verwenden. Beispielsweise könnt ihr zu einer POST-Anforderung mehr Daten hinzufügen als zu einer GET-Anforderung. GET-Anforderungen werden zwar häufiger verwendet. Um mehr Inhalte im Web zu erfassen, kann der Googlebot jedoch nun POST-Anforderungen verarbeiten, wenn wir davon überzeugt sind, dass dieser Vorgang sicher abläuft und angebracht ist.

Wir vermeiden bei einer Website sämtliche Schritte, die zu einer ungewollten Aktion seitens der Nutzer führen könnten. Unsere POST-Anforderungen setzen wir vor allem dazu ein, Ressourcen zu crawlen, die eine Seite automatisch anfordert. Im Prinzip wird dabei die Anzeige nachgeahmt, die auch Nutzer in ihrem Browser sehen. Mit einer besseren Heuristik wird sich dieser Prozess im Laufe der Zeit weiterentwickeln, aber das ist unsere aktuelle Vorgehensweise.

Wir möchten euch an einigen Szenarien für POST-Anforderungen zeigen, wie wir unsere Crawling- und Indexierungsmethoden an die Weiterentwicklung des Web anpassen.

Beispiele für POST-Anforderungen vom Googlebot
  • Crawlen einer Seite über eine POST-Weiterleitung

  • <html>
    <body onload="document.foo.submit();">
    <form name="foo" action="request.php" method="post">
    <input type="hidden" name="bar" value="234"/>
    </form>
    </body>
    </html>


  • Crawlen einer Ressource über eine POST-XMLHttpRequest-Anforderung
  • Für dieses Beispiel gehen wir Schritt für Schritt vor. Wir verbessern sowohl die Indexierung einer Seite als auch ihre Vorschau, indem wir der automatischen XMLHttpRequest-Anforderung folgen, die bei der Darstellung der Seite erstellt wird.

    1. Google crawlt die URL leckerer-eisbecher.html.
    2. Google beginnt mit der Indexierung von leckerer-eisbecher.html. Dabei versuchen wir, die Seite darzustellen, damit wir ihre Inhalte voll erfassen bzw. die Vorschau erstellen können.
    3. Während der Darstellung der Seite sendet leckerer-eisbecher.html über die POST-Methode automatisch eine XMLHttpRequest-Anforderung für die Ressource karamellsosse-info.html.
    <html>
    <head>
    <title>Leckerer Eisbecher</title>
    <script src="jquery.js"></script>
    </head>
    <body>
    Auf dieser Seite geht es um einen leckeren Eisbecher.
    <div id="content"></div>
    <script type="text/javascript">
    $(document).ready(function() {
    $.post('karamellsosse-info.html', function(data)
    {$('#content').html(data);});
    });
    </script>
    </body>
    </html>


    4. Die über die POST-Methode angeforderte URL karamellsosse-info.html wird zusammen mit ihrer Datennutzlast zur Warteschlange der vom Googlebot zu crawlenden URLs hinzugefügt.
    5. Googlebot führt eine POST-Anforderung durch, um karamellsosse-info.html zu crawlen.
    6. Google verfügt jetzt über eine genaue Darstellung von leckerer-eisbecher.html für die Vorschau. In einigen Fällen nehmen wir die Inhalte von karamellsosse-info.html auch in leckerer-eisbecher.html mit auf.
    7. Google schließt die Indexierung von leckerer-eisbecher.html ab.
    8. Nutzer suchen nach [karamellsosse eisbecher].
    9. Mit unseren Algorithmen können wir jetzt besser einschätzen, wie relevant leckerer-eisbecher.html für diese Suchanfrage ist, und außerdem einen Auszug der Seite in der Vorschau anzeigen.

    So kann eure Website besser gecrawlt und indexiert werden
    Allgemeine Tipps zum Erstellen von Websites, die gecrawlt werden können, findet ihr in unserer Hilfe. Wenn ihr als Webmaster Google beim Crawlen und Indexieren eurer Inhalte bzw. beim Erstellen der Vorschau unterstützen möchtet, haben wir hier einige einfache Faustregeln:

  • Verwendet die GET-Methode für den Abruf von Ressourcen, es sei denn, ihr müsst aus einem bestimmten Grund zur POST-Methode greifen.

  • Bestätigt, dass wir die Ressourcen crawlen dürfen, die zur Darstellung eurer Seite erforderlich sind. Wenn im oben stehenden Beispiel karamellsosse-info.html durch eine robots.txt-Datei blockiert wird, wird sie vom Googlebot nicht abgerufen. Genauer gesagt: Wenn der JavaScript-Code, der die XMLHttpRequest-Anforderung sendet, in einer externen JS-Datei hinterlegt ist und diese Datei von einer robots.txt-Datei blockiert wird, können wir nicht erkennen, dass zwischen leckerer-eisbecher.html und karamellsosse-info.html ein Zusammenhang besteht. In diesem Fall haben wir also Schwierigkeiten, selbst wenn karamellsosse-info.html nicht direkt blockiert ist. Im Web sind uns sogar schon viel kompliziertere Verkettungen von Abhängigkeiten untergekommen. Google kann eure Website besser erfassen, wenn ihr dem Googlebot erlaubt, alle Ressourcen zu crawlen.

  • Ob Ressourcen blockiert sind, könnt ihr über Webmaster-Tools Labs -> Vorschau herausfinden.

  • Stellt sicher, dass an den Googlebot der gleiche Inhalt ausgegeben wird, den Nutzer auch in ihrem Webbrowser sehen. Beim Cloaking werden unterschiedliche Inhalte an den Googlebot und an die Nutzer gesendet. Diese Methode verstößt gegen unsere Richtlinien für Webmaster, da sie unter anderem dazu führen kann, dass wir nicht relevante Ergebnisse an Nutzer der Google-Suche ausgeben. In diesem Fall werden Nutzern in ihrem Browser vollkommen andere Inhalte angezeigt als die, die wir gecrawlt und indexiert haben. Wir haben bei zahlreichen POST-Anforderungen festgestellt, dass Webmaster unabsichtlich Cloaking eingesetzt haben. Doch auch dann handelt es sich um einen Verstoß. Das Cloaking führte selbst bei minimalen Abweichungen zu JavaScript-Fehlern, die eine präzise Indexierung unmöglich machten, und das Cloaking somit seinen Zweck vollkommen verfehlte. Zusammengefasst heißt das also, dass ihr einen großen Bogen um Cloaking machen solltet, wenn ihr eure Website für die Google-Suche optimieren möchtet.

  • Mit der Vorschau in den Webmaster-Tools könnt ihr überprüfen, ob ihr unabsichtlich Cloaking einsetzt. Ihr könnt aber auch den User-Agent-String in eurem Browser beispielsweise so einrichten:

    Mozilla/5.0 (compatible; Googlebot/2.1;
    +http://www.google.com/bot.html)


    Nach einem solchen Eingriff sollte sich an der Darstellung eurer Website nichts verändert haben. Wenn euch eine leere Seite oder ein JavaScript-Fehler angezeigt wird, Teile der Seite fehlen oder anders dargestellt werden, ist etwas schiefgelaufen.

  • Denkt daran, wichtige Inhalte, also Inhalte, die indexiert werden sollen, als Text einzufügen, der direkt auf der Seite zu sehen ist und angezeigt wird, ohne dass Schritte seitens der Nutzer erforderlich sind. Die meisten Suchmaschinen basieren auf Texten und funktionieren deshalb am besten mit textbasierten Inhalten. Wir arbeiten ständig daran, unsere Crawling- und Indexierungsmethoden auf verschiedenste Art und Weise zu verbessern. Trotzdem bleibt es eine verlässliche Strategie, wichtige Informationen als Text einzufügen.

    So kontrolliert ihr eure Inhalte
    Wenn ihr verhindern möchtet, dass eure Inhalte für die Google Websuche gecrawlt oder indexiert werden, stellt eine robots.txt-Datei immer noch die beste Methode dar. Wie ihr die Vorschau eurer Seiten deaktiviert, könnt ihr in unseren Vorschau-FAQ nachlesen. Dort werden der User-Agent "Google Web Preview" und das Meta-Tag "nosnippet" beschrieben.
    Es geht voran
    Wir arbeiten ständig daran, unseren Index so umfangreich wie möglich zu gestalten, damit Nutzer der Google-Suche mehr relevante Informationen finden können. Unsere Crawling- und Indexierungsmethoden werden sich weiterentwickeln und verbessern, genau wie das Web. Bei weiteren Anliegen oder Fragen stehen wir euch jederzeit gern in unserem Hilfe-Forum zur Verfügung.

Montag, 7. November 2011

Zugriff auf Daten aus Suchanfragen für eure Websites

SSL-Verschlüsselung findet im Web immer häufiger Verwendung. Im Rahmen unserer Verpflichtung, das Web noch sicherer zu machen, haben wir angekündigt, dass die SSL-Suche auf https://www.google.com für Nutzer, die bei google.com angemeldet sind, zum Standard etabliert wird. Dieses neue Konzept wird in den nächsten Wochen umgesetzt.

Was bedeutet diese Änderung für Webmaster? Derzeit kann bei einer Webseite, auf die über organische Suchergebnisse von http://www.google.com (ohne SSL) zugegriffen wurde, festgestellt werden, dass der Nutzer über google.com auf die Webseite gestoßen ist und welche Suchanfrage gestellt wurde. Technisch gesehen gibt der Browser des Nutzers diese Information über das HTTP-Referrer-Feld weiter. Im Gegensatz dazu kann bei organischen Suchergebnissen aus der SSL-Suche nur festgestellt werden, dass der Nutzer über google.com auf die Webseite gestoßen ist.

Webmaster können über Webmaster-Tools immer noch auf eine Unmenge an Daten aus Suchanfragen für ihre Webseite zugreifen. Bei Webseiten, die in Webmaster-Tools hinzugefügt und bestätigt wurden, können Webmaster
  • Sich die Top 1000 Suchanfragen sowie die Top 1000 Zielseiten des Tages für die letzten 30 Tage anzeigen lassen,
  • Sich für jede Suchanfrage die Impressionen, Klicks, die Klickrate und die durchschnittliche Position in den Suchergebnissen der letzten 30 Tage ansehen und vergleichen,
  • Die Daten im CSV-Format herunterladen.
Außerdem haben Nutzer der Berichte zur Suchmaschinenoptimierung in Google Analytics auf die gleichen Daten aus Suchanfragen wie in Webmaster-Tools Zugriff und können von den ausführlichen Funktionen zur Berichterstellung profitieren.

Wir arbeiten weiter daran, wie wir die Bereitstellung von Daten aus Suchanfragen in Webmaster-Tools verbessern können. Solltet ihr Feedback oder Fragen haben, teilt uns dies bitte über das Webmaster-Hilfeforum mit.

Gepostet von Anthony Chavez, Product Manager (Veröffentlicht von Dominik Zins, Search Quality)

Freitag, 4. November 2011

Domainübergreifende Auswahl von URLs steuern

Auf Inhalte kann oft über verschiedene URLs zugegriffen werden, die sich nicht immer in der gleichen Domain befinden müssen. Ein von uns in den letzten Jahren oft zitiertes Beispiel dafür ist die Bereitstellung von identischen Inhalten unter mehr als einer URL, man spricht auch von dupliziertem Content. Wenn wir bei Google eine Gruppe von Seiten mit doppelten Inhalten entdecken, wählen wir mittels Algorithmen eine repräsentative URL für diese Inhalte aus. Eine Gruppe von Seiten kann URLs von der gleichen oder von verschiedenen Websites enthalten. Wenn die repräsentative URL aus einer Gruppe mit verschiedenen Websites ausgewählt wird, bezeichnet man das als domainübergreifende Auswahl von URLs. Ein einfaches Beispiel: Angenommen, die Gruppe enthält eine URL von a.com und eine URL von b.com. Wenn unsere Algorithmen die URL von b.com auswählen, wird die URL von a.com eventuell nicht mehr in unseren Suchergebnissen angezeigt und verzeichnet daraufhin möglicherweise geringe Zugriffszahlen über die Suche.

Als Webmaster habt ihr großen Einfluss darauf, welche URL von unseren Algorithmen ausgewählt wird. Euch stehen aktuell unterstützte Methoden zur Kennzeichnung der bevorzugten URL wie das Element rel="canonical" oder 301-Weiterleitungen zur Verfügung. Die Auswahl durch unsere Algorithmen stimmt in den meisten Fällen mit der der Webmaster überein. Trotzdem kam es auch schon vor, dass Webmaster nicht wussten, warum die jeweilige Auswahl getroffen wurde, und wissen wollten, was sie in einer solchen Situation tun können.

Weil wir bei der domainübergreifenden Auswahl von URLs Transparenz schaffen möchten, führen wir zurzeit neue Webmaster-Tools-Nachrichten ein, mit denen ihr als Webmaster darüber informiert werdet, wenn unsere Algorithmen eine externe URL statt eine URL von eurer Website auswählen. Nähere Informationen über diese Nachrichten findet ihr im Artikel zu diesem Thema in unserer Hilfe. In diesem Blog-Beitrag stellen wir euch verschiedene Szenarien vor, in denen es zu einer domainübergreifenden Auswahl von URLs kommen kann, und sagen euch, was ihr tun könnt, um eine möglicherweise falsche Auswahl zu korrigieren.

Häufige Ursachen für eine domainübergreifende Auswahl von URLs
Eine domainübergreifende Auswahl von URLs durch unsere Algorithmen kann auf viele Ursachen zurückgeführt werden.

Meistens wird eine URL von unseren Algorithmen aufgrund von Signalen ausgewählt, die Webmaster zur Kennzeichnung der gewünschten URL gesetzt haben. Wenn ihr als Webmaster beispielsweise unsere Richtlinien und Best Practices beim Umzug eurer Website befolgt, signalisiert ihr damit, dass die URLs auf eurer neuen Website ausgewählt werden sollen. Wenn beim Umzug eurer Website diese Nachrichten angezeigt werden, wurde eure Kennzeichnung von unseren Algorithmen verarbeitet.

Es gibt allerdings immer wieder Beschwerden von Webmastern, wenn unsere Algorithmen die falsche URL auswählen. Wenn bei eurer Website eine domainübergreifende Auswahl getroffen wird, die eurer Ansicht nach falsch ist, weil sie nicht euren Vorstellungen entspricht, gibt es je nach Ausgangslage verschiedene Methoden, um dieses Problem zu beheben. Nachfolgend sind einige der häufigsten uns bekannten Gründe für eine falsche domainübergreifende Auswahl von URLs sowie dazugehörige Lösungen aufgeführt:

1. Doppelte Inhalte einschließlich internationaler Websites: Oft verwenden Webmaster mehr oder weniger die gleichen Inhalte in einer Sprache auf mehreren Domains. Manchmal geschieht das unabsichtlich, manchmal aber auch, um die Inhalte geografisch auszurichten. Häufig richten Webmaster für example.com und example.net die gleiche Website auf Englisch ein, oder eine deutschsprachige Website wird auf .de, .at und .ch gehostet.

Je nach Website und Zielgruppe könnt ihr eine der aktuell unterstützten Methoden zur Kanonisierung verwenden, um unseren Algorithmen zu signalisieren, welche URLs ausgewählt werden sollen. Zu diesem Thema findet ihr folgende Artikel:

2. Konfigurationsfehler: Bestimmte Konfigurationsfehler können zu einer falschen Auswahl durch unsere Algorithmen führen. Mögliche Konfigurationsfehler:

a. Falsche Kanonisierung: Falsche Methoden zur Bevorzugung von Versionen, mit denen auf URLs auf einer externen Website verwiesen wird, können dazu führen, dass die externe URL von unseren Algorithmen ausgewählt und in unseren Suchergebnissen angezeigt wird. Das haben wir beispielsweise bei falsch konfigurierten Content-Managment-Systemen oder bei von Webmastern installierten CMS-Plug-ins beobachtet.

Findet zur Lösung dieses Problems heraus, wie genau auf eurer Website die bevorzugte kanonische URL falsch gekennzeichnet wird. Das kann beispielsweise auf eine falsche Verwendung des Elements rel="canonical" oder eine 301-Weiterleitung zurückzuführen sein. Dieser Fehler muss dann behoben werden.

b. Falsch konfigurierte Server: Manchmal wird beim Hosting falsch konfiguriert und für URLs der Website b.com werden Inhalte der Website a.com zurückgegeben. Ähnlich verhält es sich, wenn zwei voneinander unabhängige Webserver identische Soft 404-Fehlerseiten zurückgeben, die von uns möglicherweise nicht als solche erkannt werden. In diesem Fall nehmen wir an, dass der gleiche Inhalt von zwei verschiedenen Websites zurückgegeben wird, weshalb von unseren Algorithmen die URL von a.com fälschlicherweise als die kanonische URL für b.com ausgewählt wird.

Findet heraus, in welchem Bereich der Server-Infrastruktur eurer Website eine falsche Konfiguration vorliegt. Vielleicht gibt euer Server den HTTP-Statuscode 200 (erfolgreich) für Fehlerseiten aus oder er ordnet Anfragen von verschiedenen auf ihm gehosteten Domains falsch zu. Sobald ihr die Ursache für das Problem gefunden habt, korrigiert zusammen mit euren Serveradministratoren die Konfiguration.

3. Schädliche Angriffe auf Websites: Bei einigen Angriffen auf Websites kann ein Code eingefügt werden, der eine unerwünschte Bevorzugung von Versionen verursacht. Dieser schädliche Code kann beispielsweise bewirken, dass die Website eine HTTP-301-Weiterleitung zurückgibt oder dass im HTML-Tag bzw. dem HTTP-Header ein domainübergreifendes rel="canonical"-Linkelement eingefügt wird, das auf eine URL mit schädlichen Inhalten verweist. In diesem Fall wird von unseren Algorithmen möglicherweise die schädliche URL bzw. die Spam-URL statt der URL auf der manipulierten Website ausgewählt.

Befolgt in solchen Fällen am besten unsere Anleitung zum Bereinigen eurer Website und sendet anschließend einen Antrag auf erneute Überprüfung. Cloaking-Angriffe könnt ihr mit der Funktion "Abruf wie durch Googlebot" der Webmaster-Tools aufdecken. Eure Seiteninhalte werden euch damit so ausgegeben, wie sie dem Googlebot angezeigt werden.


In Ausnahmefällen kann es vorkommen, dass von unseren Algorithmen eine URL von einer externen Website ausgewählt wird, die eure Inhalte ohne eure Erlaubnis hostet. Wenn ihr denkt, dass eine andere Website eure Inhalte kopiert und dabei gegen das Urheberrechtsgesetz verstößt, könnt ihr vom Host der Website verlangen, dass eure Inhalte entfernt werden. Außerdem könnt ihr beantragen, dass Google die rechtsverletzenden Seiten aus den Suchergebnissen entfernt. Füllt dazu einen Antrag gemäß dem US-amerikanischen Urheberrechtsgesetz (Digital Millennium Copyright Act) aus.

Wenn ihr Unterstützung bei der Suche nach der Ursache für die falsche Auswahl oder bei der Fehlerbehebung braucht, findet ihr weitere Informationen wie immer in unserer Hilfe im Artikel zu diesem Thema oder im Webmaster-Hilfeforum.

Autor: Pierre Far, Webmaster Trends Analyst (Veröffentlicht von Dominik Zins, Search Quality)

Mittwoch, 2. November 2011

Website-Check beim Online Motor Deutschland

Wir, Kaspar und Uli vom Search Quality Team, hatten vor kurzem die Möglichkeit, beim Online Motor Deutschland in Berlin eine Reihe von Website-Checks zu veranstalten, und wir hatten viel Spaß dabei!

Online Motor Deutschland ist eine Initiative von Google und zahlreichen Partnern, um kleinen und mittelständischen Unternehmen dabei zu helfen, das Internet erfolgreich für sich zu nutzen. Berlin war vorerst das letzte Event, aber es sind trotzdem noch viele hilfreiche Informationen auf der Event-Seite zu finden.

In den Site-Clinics hatten die Besitzer von Webseiten die Möglichkeit, ihre Webseiten einzureichen, und wir haben ihnen dann Tipps gegeben, wie sie die Sichtbarkeit ihrer Seite in den Suchergebnissen bei Google verbessern können. Wir haben über 30 Webseiten analysiert, und insgesamt haben rund 500 Webmaster und Webseitenbesitzer die 7 Workshops besucht, die wir gehalten haben.

Für diejenigen unter euch, die eine neue Webseite aufsetzen wollen oder ihre Webseite suchmaschinenfreundlicher gestalten wollen, sind hier die zehn wichtigsten Tipps, die wir auf der Veranstaltung geteilt haben:

  1. Meldet euch unter google.com/webmasters/tools/ bei den Google Webmaster-Tools an. Die Google Webmaster-Tools bieten euch kostenlos detaillierte Berichte über die Präsenz eurer Seiten in der Google-Suche. Fügt zunächst eure Webseite hinzu und bestätigt sie dann. Anschließend könnt ihr sofort Informationen abrufen. Andere nützliche Ressourcen für Webmaster findet ihr in der Google Webmaster-Zentrale unter google.com/webmasters
  2. Versetzt euch in die Lage eines Besuchers eurer Webseite. Achtet darauf, dass eure Seite die Begriffe enthält, nach denen tatsächlich gesucht wird. Die Begriffe sollten in natürlicher Sprache im Text vorkommen und nicht nur in Aufzählungspunkten oder isolierten Keyword-Listen genannt werden.
  3. Verwendet geeignete, für die einzelnen Seiten relevante Titel, da diese in den Suchergebnissen direkt sichtbar sind. Ihre Überschriften (<h1>, <h2> usw.) sollten außerdem aussagekräftig und passend sein.
  4. Erstellt geeignete Beschreibungs-Meta-Tags. Qualitativ hochwertige Beschreibungen können als Snippets, also als Seitenauszüge, in den Google-Suchergebnissen angezeigt werden und so maßgeblich zur Qualität und zum Umfang des Suchvolumens beitragen.
  5. Damit Nutzer besser erkennen können, worum es auf euren Seiten geht, benennt URLs möglichst einfach und nutzerfreundlich: example.com/produkte/widget.html vs. notexample.com/asdasd/rewiruewr?asd=2131209840392.
  6. Besonders wichtige oder aktuelle Seiten sollten von einer anderen Seite eurer Webseite verlinkt sein, die bereits in Google indexiert ist. Fügt zum Beispiel auf der Startseite eurer Webseite einen Link zur Seite "Neue Sonderangebote!" ein.
  7. Erstellt die Hauptnavigation und Kerninhalte eurer Webseite als Text, optional könnt ihr JavaScript und Flash zur Verbesserung einsetzen.
  8. Verwendet ALT-Attribute für Bilder. Da der Googlebot keine Bilder erkennt, ist eure Mithilfe zur korrekten Kategorisierung gefragt. ALT-Attribute sind wie Meta-Tags für Bilder: Sie stellen direkt im Tag zusätzliche Informationen bereit und werden angezeigt, wenn ein Nutzer das Bild nicht sehen kann. Anhand dieser Attribute erkennt der Googlebot auch den Inhalt des Bildes besser.
  9. Um sich zu vergewissern, dass eure Webseite von Crawlern gelesen werden kann, ruft sie mit einem Mobiltelefon auf, oder, sofern ihr technisch sehr versiert seid, mit einem Textbrowser. Alternativ könnt ihr es auch mit dem Lynx-Webbrowser versuchen.
  10. Behaltet das wichtigste Ziel im Auge: eine positive Nutzererfahrung. Natürlich ist es wünschenswert, Zugriffe über Google und andere Suchmaschinen zu erhalten, aber unterschätzt die Wirksamkeit von Lesezeichen, Empfehlungen und Weiterleitungen durch die Besucher eurer Webseite nicht. Testet und analysiert Veränderungen des Designs und der Nutzerfreundlichkeit mit Tools wie Google Analytics und dem Google Website-Optimierungstool.

Für weiterführende Informationen möchten wir euch noch unsere Einführung in die Suchmaschinenoptimierung und unsere Hilfe für Webmaster ans Herz legen. Und falls doch noch Fragen offen bleiben, im Webmaster-Forum gibt es viele sachkundige und hilfsbereite Webmaster, die ihr Wissen gerne mit anderen teilen!

Online Motor Deutschland Zelt
Das Online Motor Deutschland Zelt in Berlin von außen...

Google beim Online Motor Deutschland
… und von innen.

Uli Lutz und Kaspar Szymanski beim Online Motor Deutschland
Kaspar und Uli analysierten Webseiten von kleinen und mittelständischen Unternehmen.

Geposted von Uli Lutz und Kaspar Szymanski, Google Search Quality (Veröffentlicht von Dominik Zins, Search Quality)