Längere Ladezeite durch Analytics? Grund für Kopfzerbrechen?

Diesmal beantwortet Matt Cutts nicht nur die regelmäßig gestellte Frage, ob sich Google Analytics auf Ranking auswirkt, er geht auch darauf ein, ob längere Ladezeiten durch den Code negative Folgen haben können.



Die heutige Frage kommt von Linda aus Lakewood in New Jersey. Linda fragt:

“Wenn ich Google Analytics fürs Conversion-Tracking meiner E-Commerce-Website benutze, hat das einen negativen Effekt auf mein Ranking in den Google Suchergebnissen?”

Die Antwortet lautet “Nein.” Webspam benutzt kein Google Analytics. Und als ich das letzte Mal nachschaute, benutze Search Quality im Allgemeinen kein Google Analytics fürs Ranking. Man kann also Google Analytics nutzen oder auch nicht, auf das Ranking in den Google Suchergebnissen hat das keinen Einfluss. Um es zu erwähnen, für ganz Neugierige, es gibt einen kleinen Spezialfall:

Was wäre, wenn meine Website sehr, sehr langsam wäre und durch den zusätzlichen Einsatz von Google Analytics, es so ausschaut, als würde die Site endgültig zu langsam laden?

Die Antwort auf diese Frage is auch positiv. Google Analytics hat vor Kurzem asynchronen JavaScript-Code eingeführt, den man in seine Seite einfügen kann und der dann wartet und das JavaScript nach dem Toolbar-Unload-Event lädt. Also selbst, wenn man besorgt ist, dass Google Analytics die Website etwas bremst - das JavaScript hat tatsächlich keinen Einfluss auf die Ladezeit der Website und somit auch keinen Einfluss auf die Suchergebnisse.

Wie man es auch betrachtet, es sollte also absolut sicher sein, Google Analytics zu nutzen, egal ob es um einen Online-Shop geht oder man nur sehen will, über welche Suchanfragen Leute auf der Website landen. Diese Daten werden derzeit, soweit ich weiss, in keiner Art und Weise, in den Google Suchergebnissen verwendet. Ich hoffe, das beruhigt.

Übersetzung von Daniela Loesser und Jörg Pacher, Search Quality Team

Freitag, 30. Juli 2010 um 12:51

Neu in den Webmaster-Tools: Anstieg von Crawling-Fehlern melden

Wenn Googlebot eure Website crawlt, gehen wir davon aus, dass die meisten URLs einen HTTP-Statuscode 200 liefern, einige einen Statuscode 404, und dass andere durch robots.txt gesperrt sind.

Sollten wir nicht in der Lage sein euren Content zu crawlen, zeigen wir diese Information im Bereich Crawling-Fehler in den Webmaster-Tools an - selbst wenn es Absicht und nicht wirklich ein Fehler sein sollte.

Um Webmastern noch sinnvollere und brauchbarere Information zu liefen, bieten wir nun zusätzlich Benachrichtigung an, wenn wir einen deutlichen Anstieg in der Anzahl der Crawling-Fehler einer bestimmten Website feststellen. Diese Nachrichten sind dafür gut, euch vor möglichen Crawling-Problemen zu warnen.

Die Nachricht zu einem plötzlichen Anstieg der unerreichbaren URLs könnte (auf Englisch) beispielsweise so aussehen:



Wir hoffen, dass ihr diese Benachrichtigungen als hilfreich empfindet, um auf Probleme aufmerksam zu werden, die das Crawling eurer Website erschweren könnten.

Ihr könnt diese Benachrichtigungen nur erhalten, wenn ihr eure Website in den Webmaster-Tools verifiziert habt und wir eine deutliche Veränderung bei der Anzahl der Crawling-Fehler auf der Website feststellen. Wenn ihr sichergehen wollt, keine der wichtigen Nachrichten zu verpassen, könnt ihr die E-Mail-Weiterleitung aktivieren, um Benachrichtigungen direkt an eure Mailbox geschickt zu bekommen.

Falls ihr Fragen zu diesem oder irgendeinem anderen Thema habt, schaut doch im Webmaster-Forum vorbei, oder hinterlaßt hier ein Kommentar!

New Message Center notifications for detecting an increase in Crawl Errors (English version)

Post von Pooja Shah and Jonathan Simon (Übersetzung von Jörg Pacher, Search Quality Team)

Dienstag, 27. Juli 2010 um 15:58

Cloaking zur Beschleunigung der eigenen Website?

Heute spricht Matt Cutts darüber, ob es ratsam ist, dem Googlebot andere Inhalte als den Usern anzubieten.



Die heutige Frage kommt von Remiz Rahnas in Kerala in Indien. Remiz fragt:

"Laut Google wirkt sich die Ladezeit der Seiten auf das Ranking aus. Sollen wir Nur-Content-Seiten für die Googlebots erstellen, indem wir Bilder und CSS- und JavaScript-Ladevorgänge entfernen?"

Die Antwort auf diese Frage lautet "Neeeeeeeiiiiiiin". Am liebsten würde ich durch den Bildschirm greifen und die ESC-Taste, Strg+C und Pause drücken, denn das ist Cloaking. Ihr solltet niemals etwas für den Googlebot anders machen als für normale Nutzer. Das ist die Definition von Cloaking. Euer Code darf keine Anweisung enthalten wie "Wenn der Nutzeragent der Googlebot ist oder wenn die IP-Adresse Google ist, mach etwas anderes". Das ist die Grunddefinition von Cloaking.

Ihr könntet also glauben, da die Ladezeit der Seiten eine wichtige Rolle spielt, müsst ihr den Vorgang für den Googlebot beschleunigen. Aber dieser Ansatz ist falsch. Erstens ermitteln wir die Ladezeit einer bestimmten Seite oder Website nicht nur anhand des Googlebot. Das würde also gar nicht funktionieren. Zweitens, wenn ihr den Content ändert, der angezeigt werden kann, können die Nutzer die Cache-Seite sehen und denken: "Oh, nur eine Textseite". Das wäre sehr seltsam und ihr erhieltet Beschwerden wegen Website-Cloaking.

Denkt daran: Wenn ihr CSS- und JavaScript-Bilder einfügt, sind diese meistens extern und werden gar nicht zu diesem Zeitpunkt von Google geladen. Auch wenn wir wissen, dass dieser externe Content existiert, rufen wir ihn nicht notwendigerweise vollständig ab und integrieren ihn in die Seite. Ihr solltet aber unbedingt den Nutzern dieselbe Seite zeigen wie dem Googlebot. Tut nichts, um den Vorgang für den Googlebot zu beschleunigen, denn das ist Cloaking und somit viel riskanter als zu versuchen, den Vorgang nur wegen des Googlebot zu beschleunigen.

Post von Daniela Loesser, Search Quality Team

Dienstag, 20. Juli 2010 um 15:29

Webmaster-Tools: Crawling-Probleme auf Grund von "weichen 404s" vermeiden

Seit einiger Zeit stellen wir eine Funktion bereit, mit der ihr feststellen könnt, ob eure Website unerwünschte "weiche" oder "verschlüsselte" 404-Fehler ausgibt. Ein "weicher 404-Fehler", auch "soft 404" genannt, tritt auf, wenn ein Webserver für eine nicht existierende Seite mit einem HTTP-Antwortcode "200 OK" statt mit dem eigentlich richtigen 404-Fehler "Nicht gefunden" antwortet. Weiche 404-Fehler können die Erfassung einer Website mit Suchmaschinen einschränken, da möglicherweise die doppelten URLs anstelle der Seiten mit dem individuellen Content gecrawlt werden.

Das Web ist unendlich, aber die Zeit, die Suchmaschinen eure Website crawlen, ist begrenzt. Die korrekte Meldung von nicht vorhandenen Seiten mit einem 404- oder 410-Antwortcode kann die Crawl-Erfassung des besten Contents eurer Website verbessern. Darüber hinaus können Soft-404-Fehler für die Besucher eurer Website verwirrend sein (siehe unser Blogpost, "Bye, bye, soft 404!").

Die neue Funktion zur Meldung von Soft-404-Fehlern befindet sich im Bereich "Crawling-Fehler" in den Webmaster-Tools.


Hier eine Maßnahmenliste zur Korrektur von Soft-404-Fehlern, die sowohl Google als auch euren Nutzern hilft:

1. Überprüft, ob in Webmaster-Tools Soft-404-Fehler aufgelistet sind.

2. Überprüft bei weichen 404-Fehlern, ob die URL
  1. den korrekten Content enthält und ordnungsgemäß einen 200-Antwortcode (und keinen weichen 404-Fehler) zurückgibt,
  2. mit einer 301-Antwort auf eine geeignetere URL weiterleiten sollte,
  3. nicht vorhanden ist und eine 404- oder 410-Antwort zurückgeben sollte.
3. Vergewissert euch mithilfe des Webmaster-Tools "Abruf wie beim Googlebot", dass ihr die richtige HTTP-Antwort konfiguriert habt.

4. Wenn jetzt 404-Fehler zurückgegeben werden, könnt ihr eure 404-Seite anpassen und so euren Nutzern weiterhelfen. Hierfür könnt ihr unser Widget für personalisierte 404-Antworten nutzen.

Wir hoffen, dass ihr jetzt bessere Möglichkeiten habt, Soft-404-Fehler auf eurer Website zu finden und zu korrigieren. Solltet ihr Feedback oder Fragen zur neuen Funktion zur Meldung von "weichen 404-Fehlern" oder zu einer anderen Webmaster-Tools-Funktion haben, postet eure Kommentare bitte im Webmaster-Forum.

Crawl Errors now reports soft 404 (English version)

Post von Jonathan Simon, Webmaster Trends Analyst (Veröffentlichung von Jörg Pacher, Search Quality)

Mittwoch, 14. Juli 2010 um 13:27

XML-Sitemaps: Eine Datei, viele Content-Typen

Wolltet ihr schon einmal verschiedene Content-Typen (Video, Bilder usw.) in einer XML-Sitemap übermitteln? Dies ist jetzt möglich! Wenn eure Website Videos, Bilder, Handy-URLs, Code oder Geoinformationen enthält, könnt ihr nun eine XML-Sitemap mit all diesen Informationen erstellen und übermitteln.

Seit der Einführung der XML-Sitemaps im Jahr 2005 wird diese Funktion von Website-Inhabern genutzt, um Google über den Content ihrer Websites zu informieren. Seitdem wurden weitere XML-Sitemap-Formate speziell für Videos, Bilder, Handy-Websites, Code oder geografischen Content entwickelt. Da die Anzahl der Spezialformate mittlerweile stark zugenommen hat, unterstützen wir nun XML-Sitemaps, die verschiedene Arten von Content in einer einzigen Datei unterbringen können.

So wollen wir euch die Arbeit ein wenig erleichtern. Die Struktur einer XML-Sitemap mit mehreren Content-Typen ähnelt der einer Standard-XML-Sitemap mit dem Unterschied, dass sie eine zusätzliche Möglichkeit zur Aufnahme von URLs bietet, die auf verschiedene Content-Typen verweisen. Hier ein Beispiel einer XML-Sitemap, die eine Referenz zu einer Standardwebseite für die Websuche, Bild-Content für die Bildsuche und eine Videoreferenz für die Videosuche enthält:

<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
xmlns:image="http://www.sitemaps.org/schemas/sitemap-image/1.1"
xmlns:video="http://www.sitemaps.org/schemas/sitemap-video/1.1">
<url>
<loc>http://www.example.com/foo.html</loc>
<image:image>
<image:loc>http://example.com/image.jpg</image:loc>
</image:image>
<video:video>
<video:content_loc>http://www.example.com/videoABC.flv</video:content_loc>
<video:title>Tofu grillen im Sommer</video:title>
</video:video>
</url>
</urlset>

Hier ein Beispiel dafür, was ihr in den Webmaster-Tools seht, wenn eine XML-Sitemap mit verschiedenen Content-Typen übermittelt wird:


Wir hoffen, dass die Möglichkeit, mehrere Content-Typen in eine XML-Sitemap aufzunehmen, euch die Übermittlung von XML-Sitemaps erleichtert. Die restlichen Regeln für XML-Sitemaps, wie beispielsweise maximal 50.000 URLs in einer Datei und höchstens 10 MB unkomprimierte Dateigröße, sind weiterhin gültig. Falls ihr noch Fragen habt oder uns Feedback geben möchtet, besucht bitte das Webmaster-Forum.

Sitemaps: One file, many content types (English version)

Post von Jonathan Simon, Webmaster Trends Analyst (Veröffentlichung von Jörg Pacher, Search Quality Team)

Montag, 12. Juli 2010 um 11:49

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.