Bessere Seitentitel in Suchergebnissen


Seitentitel sind ein wichtiger Teil der Suchergebnisse: Sie stellen die erste Zeile jedes Ergebnisses dar und sind die Links, auf die die Nutzer der Google-Suche klicken, um zur entsprechenden Website zu gelangen. Wir empfehlen daher Webmastern immer, eindeutige und aussagekräftige Seitentitel (und Meta-Beschreibungen für Snippets) zu verwenden, um den Nutzern der Google-Suche auf den ersten Blick zu vermitteln, wovon die Seite handelt.

Wir nutzen unterschiedliche Signale bei der Entscheidung, welche Titel wir Nutzern zeigen. Wir verwenden vor allem das <title>-Tag, sofern es vom Webmaster festgelegt wurde. Bei einigen Seiten trifft jedoch ein einziger Titel möglicherweise nicht auf alle Suchanfragen zu. Aus diesem Grund haben wir einen Algorithmus entwickelt, der alternative Titel generiert, sodass Nutzer einfacher relevante Seiten finden. Unsere Tests haben gezeigt, dass diese alternativen Titel häufig relevanter für die Suchanfragen sind und die Klickrate für das Ergebnis erheblich verbessern. Das hilft sowohl den Nutzern der Google-Suche als auch den Webmastern. In etwa der Hälfte der Fälle ist dies der Grund, weshalb wir alternative Titel einblenden.

Alternative Titel erscheinen aber auch, wenn Webmaster im HTML-Code einer Seite keinen Titel oder keinen aussagekräftigen Titel angegeben haben. Eine Seite mit dem einfachen Wort "Startseite" sagt beispielsweise nicht viel über den Inhalt der Seite aus. Ein anderer häufiger Grund ist, wenn ein Webmaster nur einen Titel für beinahe alle Seiten einer Website verwendet und ihn entweder exakt dupliziert oder nur minimal abwandelt. Unser letzter Grund sind sehr lange oder schwer verständliche Titel, die wir manchmal durch knappere und aussagekräftigere Alternativen ersetzen.

Weitere Informationen dazu, wie ihr bessere Titel und Meta-Beschreibungen verfassen könnt, und zu den Signalen, die wir zur Erstellung alternativer Titel verwenden, findet ihr in dem kürzlich aktualisierten Hilfeartikel zu diesem Thema. Wir versuchen auch, Webmaster zu informieren, wenn wir Titel finden, die mit der Funktion "HTML-Vorschläge" der Webmaster-Tools verbessert werden könnten. Diese Funktion findet ihr links im Menü im Abschnitt "Diagnose".

Fragen oder Feedback könnt ihr uns wie immer gerne über die Webmaster-Hilfe zukommen lassen.

Post von Pierre Far, Webmaster Trends Analyst (Veröffentlicht von Uli Lutz, Search Quality)

Donnerstag, 26. Januar 2012 um 12:51

Verbesserung am Algorithmus für das Seitenlayout


Da wir in den Suchergebnissen möglichst viele Websites von hoher Qualität liefern möchten, gab es vor kurzem eine Algorithmusänderung. Diese bezieht sich speziell auf das Layout einer Webseite und die Menge an Inhalt, die auf einer Seite sichtbar ist, sobald man auf ein Ergebnis klickt.

Wie bereits erwähnt (englisch) haben sich einige Nutzer bei uns beschwert, dass sie die gesuchten Inhalte nicht sofort finden konnten, nachdem sie auf ein Ergebnis geklickt haben. Die Nutzer möchten die Inhalte sofort sehen, ohne erst auf der Seite herunterscrollen zu müssen, vorbei an unzähligen Anzeigen. Daher sind Websites, die nicht viel Inhalt "above the fold" haben, also Inhalt, der ohne Scrollen sichtbar ist, möglicherweise von dieser Änderung betroffen. Wenn man auf eine Website klickt und der zuerst angezeigte Teil der Website nicht viel Inhalt aufweist, sondern überwiegend Werbung enthält, ist das keine gute Nutzererfahrung und die Website wird möglicherweise abgewertet.

Natürlich platzieren viele Websites Anzeigen "above the fold", denn diese Werbung ist wirksam und unterstützt die Publisher bei der Monetarisierung ihrer Online-Inhalte. Diese Algorithmusänderung wirkt sich nicht auf Websites aus, die Anzeigen im normalen Rahmen "above the fold" platzieren, sondern hauptsächlich auf Websites, deren Seitenanfang vollkommen mit Werbung überfrachtet ist und auf denen der Originalinhalt nur schwer zu finden ist. Die Algorithmusverbesserung betrifft Websites mit wenig oder keinen sichtbaren Inhalten, die ohne Scrollen sichtbar sind, oder Websites, deren Inhalte zu einem großen Teil von Anzeigen verdeckt werden.

Weniger als 1% aller Suchen weltweit sind von dieser Änderung spürbar betroffen. Das heißt, ein typischer Nutzer wird bei weniger als einer von 100 Suchen eine Neuordnung der Ergebnisse auf der Suchseite feststellen. Wenn ihr vermutet, dass eure Website von der Algorithmusänderung für das Seitenlayout betroffen ist, überprüft bitte, wie der Platz "above the fold" auf euren Seiten genutzt wird und ob der Seiteninhalt verdeckt oder für die Nutzer nur schwer erreichbar ist. Mithilfe des Tools Browsergröße, das euch neben vielen anderen Tools zur Verfügung steht, könnt ihr sehen, wie eure Website mit unterschiedlichen Bildschirmauflösungen dargestellt wird.

Solltet ihr euer Seitenlayout aktualisieren, greift der Algorithmus für das Seitenlayout die Änderungen automatisch auf, sobald wir genügend Seiten eurer Website erneut gecrawlt und verarbeitet haben. Wie lange das dauert, hängt von mehreren Faktoren ab, unter anderem von der Anzahl der Seiten auf eurer Website und davon, wie effizient eure Inhalte vom Googlebot gecrawlt werden können. Bei einer normalen Website kann das mehrere Wochen dauern.

Unsere Empfehlung an Website-Inhaber lautet nach wie vor, eine möglichst gute Nutzererfahrung (englisch) auf den Websites anzustreben, anstatt auf spezielle Algorithmusoptimierungen zu setzen. Diese Änderung ist nur eine von über 500 Verbesserungen, die wir für dieses Jahr planen. Wie immer sind Fragen und Feedback in unserem Webmaster-Hilfeforum herzlich willkommen.


Post von Matt Cutts, Distinguished Engineer (Veröffentlicht von Uli Lutz, Search Quality)

Dienstag, 24. Januar 2012 um 15:01

Daten zu Suchanfragen mit Python herunterladen


An alle Entwickler, die sich für einen skript-basierten Zugriff auf Daten zu Suchanfragen ihrer Websites in den Webmaster-Tools interessieren – wir haben gute Neuigkeiten für euch! Ihr erhaltet ab sofort über ein offenes Python-Skript aus dem Projekt webmaster-tools-downloads Zugriff auf eure Daten zu Suchanfragen im CSV-Format. Über die Webmaster-Tools-API sind Daten zu Suchanfragen momentan nicht verfügbar. Diese Funktion wurde allerdings häufig von API-Nutzern angefragt, weshalb wir sie für das nächste API-Update in Betracht ziehen. Für diejenigen von euch, die sofort auf ihre Daten zu Suchanfragen zugreifen wollen, zeigen wir, wie ihr mit dem Python-Skript eure Daten zu Suchanfragen herunterladen und in eine Google-Tabelle in Google Docs hochladen könnt.

Beispiel für die Verwendung des Python-Skripts zum Herunterladen der Daten zu Suchanfragen
1) Falls es auf eurem Computer noch nicht vorhanden ist, ladet
Python herunter und installiert es.
2) Ladet danach die
Google Data APIs-Python-Client-Bibliothek herunter und installiert sie.
3) Erstellt einen Ordner und fügt dort das Skript
downloader.py ein.
4) Kopiert das Skript example-create-spreadsheet.py und fügt es in den Ordner ein, in dem auch "downloader.py" abgelegt ist. Bearbeitet "example-create-spreadsheet.py" und ersetzt die Beispielwerte für "website", "email" und "password" mit gültigen Werten für eure in den Webmaster-Tools bestätigte Website.
5) Öffnet ein Terminal-Fenster und gebt in der Befehlszeile "python example-create-spreadsheet.py" ein, um das Skript "example-create-spreadsheet.py" auszuführen:
python example-create-spreadsheet.py
6) In Google Docs erscheint eine neue Tabelle mit euren Daten zu Suchanfragen.





Wenn ihr eure Daten zu Suchanfragen in einer CSV-Datei herunterladen möchtet, ohne die Daten in eine Google-Tabelle hochzuladen, verwendet im obigen Beispiel
example-simple-download.py statt "example-create-spreadsheet.py".

Ihr könnt diese Skripts ganz einfach konfigurieren, sodass sie täglich oder monatlich ausgeführt werden. So könnt ihr eure Daten zu Suchanfragen über einen längeren Zeitraum archivieren und abrufen, als das bei den Webmaster-Tools momentan mit einem Monat der Fall ist. Erstellt dazu beispielsweise einen Cronjob oder verwendet den Windows-Taskplaner.

Beachtet bei diesem Beispiel, dass Nutzername und Passwort im Skript selbst enthalten sind. Wenn ihr dieses Skript in einer Produktionsumgebung ausführen möchtet, solltet ihr Best Practices für die Sicherheit einsetzen und beispielsweise verschlüsselte Anmeldedaten von Nutzern verwenden, die aus einer sicheren Datenspeicherquelle abgerufen wurden. Das Skript verwendet für die Kommunikation mit dem API HTTPS, um diese Anmeldedaten zu schützen.

Seht euch das Skript zum Herunterladen von Daten zu Suchanfragen an und setzt diese in euren eigenen Skripts oder Tools ein. Wenn ihr Fragen habt oder uns Feedback geben möchtet, könnt ihr das gerne im
Webmaster-Hilfeforum tun.

Von Jonathan Simon, Webmaster Trends Analyst (Veröffentlicht von Uli Lutz, Search Quality)

Freitag, 20. Januar 2012 um 16:18

Was tun bei Malware?

Wir haben heute ein interessantes Thema für euch: Matt Cutts spricht über Malware, und was man tun kann, wenn die eigene Website betroffen ist.




Vielleicht seid ihr verärgert oder frustriert, wenn ihr dieses Video seht. Das tut mir leid. Heute geht es um Malware und gehackte Websites. Ihr glaubt gar nicht, wie oft so etwas vorkommt! Sogar die Website von Donald Trump wurde gehackt. Ebenso die Website von Al Gore. Das kann passieren. Aber bitte zeigt euren Nutzern keine Malware. Es gibt kostenlose Tools und Ressourcen von Google sowie Hilfsmittel im Web, die euch beim Aufräumen helfen.

Zunächst zur Diagnoseseite "Safe Browsing". Wenn ihr nach "Safe Browsing Diagnoseseite" sucht, findet ihr die notwendigen Infos, um auf die Seite zuzugreifen. Dann könnt ihr herausfinden, ob diese URL oder Website mit Malware infiziert ist.

Hier ein Beispiel: google.com/safebrowsing/diagnostic?site=mattcutts.com. Ersetzt einfach [mattcutts.com] durch eine andere Website, um zu sehen, ob diese von Malware betroffen ist. Auch Statistikdaten zu Malware auf der Domain werden angezeigt.

Wie das Ganze funktioniert, ist ziemlich interessant. Bei einer Suche nach "Ghost in the Browser" (so heißt das auf Englisch), findet ihr jede Menge Infos dazu. Und die bringen wirklich genaue Ergebnisse. In den letzten 5 Jahren habe ich keinen einzigen Fehler gesehen. Mit einer Ausnahme: Da haben wir alles im Web für etwa eine Stunde als Malware markiert. Aber das war eine andere Panne.

Für die Diagnoseseite "Safe Browsing" werden die Daten des Malware-Teams herangezogen. Man muss aber klar zwischen Malware- und Webspam-Team unterscheiden, obwohl wir uns sehr respektieren. Das Malware-Team konzentriert sich hauptsächlich auf mögliche Malware und Virenscanner, um Webseiten zu finden, die eventuell mit Malware infiziert sind.

Also, auf dieser Seite gebt ihr euren Domain-Namen ein, im Format "example.com". Ihr bekommt alle Statistiken dazu. Seht euch die Informationen genau an. Manchmal ist die Domain tatsächlich infiziert. Oder es stellt sich heraus, dass es nicht eure Domain, sondern die Domain eines Drittanbieters erwischt hat. Wenn ihr Anzeigen oder Skripts verwendet, JavaScript oder irgendwelche Inhalte von anderen Domains für eure Website übernommen habt, könnt Ihr einiges an Informationen dazu finden. Entweder entfernt ihr dann die Inhalte des Drittanbieters oder ladet sie einfach nicht mehr. Somit wird auf eurer Website keine Malware mehr angezeigt. Kurz danach verschwindet die Warnung. Die Diagnoseseite "Safe Browsing" ist wirklich nützlich.

Den zweiten Punkt, den ich erwähnen möchte, ist die Möglichkeit einer Malware-Überprüfung. Registriert eure Website bei den Google Webmaster-Tools, unter google.de/webmasters. Identifiziert euch einfach als Inhaber der Website und klickt auf die Seite "Diagnose". Dort gibt es den Tab "Malware". Nachdem ihr aufgeräumt habt, beantragt ihr eine Überprüfung. Die Überprüfung wird nicht in Echtzeit durchgeführt, sondern dauert in der Regel ein paar Stunden, also nicht allzu lange. Wer gestresst ist, weil die Website gehackt wurde und Malware verteilt wird, will nicht unbedingt tagelang auf eine Lösung warten. Es kann also ein paar Stunden dauern, aber prinzipiell geht es relativ schnell. Das Ergebnis der Überprüfung zeigt die URLs auf eurer Website, die vermutlich mit Malware infiziert sind. Damit erfahrt ihr genau,wo ihr Hilfe zur Diagnose bekommt, wie ihr die Fehler suchen und beheben könnt.

Wenn aus irgendeinem Grund trotzdem noch Malware vorhanden zu sein scheint, geben wir euch weitere Beispiele von URLs, die wahrscheinlich noch infiziert sind. So könnt ihr relativ schnell aufräumen und Malware entfernen.

Es gibt noch ein drittes empfehlenswertes Tool. Es ist eher auf gehackte Seiten als auf Malware ausgerichtet und heißt "Abruf wie durch Googlebot". "Abruf wie durch Googlebot" ist eine weitere Funktion der Google Webmaster-Tools unter google.de/webmasters. Ihr nehmt eine bestimmte Seite, für die ihr zuständig seid oder deren Inhaber ihr seid, und klickt auf "Abruf wie durch Googlebot". Der Googlebot ruft den Inhalt dieser Seite ab. Ihr seht genau, was dem Googlebot zurück gegeben wurde, zum Beispiel eine 301-Weiterleitung. Ihr seht den Inhalt und könnt ihn auf Hackerangriffe und Malware prüfen. Das kann sehr hilfreich sein. Der Googlebot sieht auf einigen Seiten den gehackten Inhalt, den man als normaler Nutzer nicht sehen kann. Das ist ein gemeiner Trick.

Es gibt einige Stellen, an denen ihr suchen könnt. Oft verstecken sich die Details zum Beispiel in .htaccess-Dateien. Möglicherweise findet ihr dort das gesuchte Element. SQL-Injektionen sind auch ein heißer Tipp. Falls ihr zum Beispiel eure URL-Parameter oder die URL-Eingabe nicht richtig unter Kontrolle habt, können Tabellen, oder Malware usw.eingeschleust werden. Darauf solltet ihr definitiv achten. Verliert nicht die Geduld, wenn ihr das Problem nicht auf Anhieb findet.

Schaut nicht nur auf eure Quelldateien. Der Quellcode kann scheinbar vollkommen in Ordnung sein. Wichtig ist, was im Browser angezeigt wird. Der Abruf wie durch Googlebot zeigt, was die Nutzer sehen. Häufig findet ihr in eurem Quellcode keinen Hinweis auf die Infizierung. Egal, ob es sich um Mod Rewrite, .htaccess oder ähnliches handelt –man sieht die Malware erst, wenn man als Endnutzer zugreift. Darauf solltet ihr achten.
Ihr solltet euer System immer aktualisieren. Wenn ihr Wordpress verwendet, installiert alle Patches. Egal mit welchem CMS ihr arbeitet, nutzt immer die neueste Version. Bei einem Fehler kann eure Website wieder gehackt werden. Und das bringt uns zum nächsten Punkt: Spätestens sobald eure Website bereinigt ist, solltet ihr euer Passwort ändern. Wählt ein richtig schweres, kompliziertes Passwort. Verwendet auf keinen Fall 1, 2, 3, 4, 5, 6. Vermeidet "Liebe". Vermeidet "Gott" .Vermeidet "Passwort". Vermeidet "Lass mich rein". Nehmt am besten eine schwer zu erratende Kombination. Damit erschwert ihr den Hackern den Zugriff auf eure Website.

Werft auch einen Blick auf kostenlose Websites wie unmaskparasites.com. Diese Website ist ziemlich hilfreich, um herauszufinden, welche Arten von Angriffen derzeit verbreitet sind. Der Betreiber gibt ausführliche Infos zu Malware und zeigt, wie sie konkret aussehen kann. Patches und Updates sind das oberste Gebot. Verwendet starke Passwörter.

Wenn ihr diese Warnungen erhaltet, stellt fest, ob es sich um eure Website oder die eines Drittanbieters handelt. Verwendet die Diagnoseseiten "Safe Browsing" und die Malware-Überprüfung. Sobald ihr die Seiten gefunden habt, bereinigt sie. Seid gründlich. Reicht die Website ein und wartet, bis Google grünes Licht gibt. Mit "Abruf wie durch Googlebot" erfahrt ihr, ob eure Website gehackt wurde. Achtet auf SQL-Injektion. Achtet auf .htaccess-Dateien. Dies sind die häufigsten Zugriffsformen.
Es ist frustrierend und ärgerlich. Es fällt schwer, sich einzugestehen, dass die eigene Website gehackt wurde oder Malware enthält. Viele wollen es auch nicht wahrhaben. Der Quellcode ist doch in Ordnung. Aber meistens verstecken sich die Details an seltsamen Stellen wie in JavaScript, oder in verschleiertem JavaScript, das ziemlich undurchsichtig ist. Es geht um Dinge, die relativ normal aussehen. Sie enthalten Domains, die wie Google Analytics aussehen, von denen ihr normalerweise JavaScript herunterladen würdet. Aber ein einzelnes Zeichen weicht ab. Damit kann wirklich Schaden angerichtet werden. Das wieder in Ordnung zu bringen, kann euch echt den Tag vermiesen.

Google nimmt das sehr ernst. Wenn ein Webmaster unbeabsichtigt Malware an seine Nutzer verteilt, ist das unangenehm. Die Nutzer beschweren sich dann bei Google. Wir haben uns also ein paar Dinge überlegt, mit denen Nutzer besser geschützt werden. Wir hoffen, dass euch diese Tools helfen, Ordnung zu schaffen und eure Website wieder vollkommen zu bereinigen. Und wir hoffen, dass danach alles glatt läuft. Viel Erfolg!


Veröffentlicht von Uli Lutz, Search Quality Team

Mittwoch, 18. Januar 2012 um 14:55

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.