Checkliste und Videos zur Optimierung von mobilen Websites

Ihr fragt euch, an welchem Punkt ihr bei der Optimierung eurer Smartphone-Website am besten ansetzen solltet? Ihr seid euch nicht sicher, welche der Ratschläge ihr zuerst berücksichtigen solltet? Wir haben jetzt eine Checkliste veröffentlicht, die euch dabei helfen kann, die Optimierung von mobilen Websites so effizient wie möglich zu gestalten. Einige der Themen in der Checkliste verweisen dabei auf relevante Anwendungsszenarien oder Studien, andere beinhalten Videos, die euch erklären, wie ihr Daten aus Google Analytics und den Webmaster-Tools bei der Optimierung verwenden könnt. Unten findet ihr eine gekürzte Fassung der vollständigen Checkliste (in Englisch). Bitte gebt uns Bescheid, wenn ihr noch mehr erfahren möchtet oder weitere Themenvorschläge für die Checkliste habt.


Schritt 1: Verbessert die Nutzerfreundlichkeit 

  • Entfernt unnötige zusätzliche Fenster aus allen mobilen User-Agents | Empfehlung von Google, Artikel
    • JavaScript-Pop-ups, die sich nur schwer schließen lassen
    • Overlays, insbesondere zum Herunterladen von Apps – verwendet stattdessen Banner wie beispielsweise iOS 6+ Smart-App-Banner (in Englisch) oder vergleichbare Banner, Sidebar-Navigationen oder E-Mail-Marketing.
    • Anfragen zur Teilnahme an einer Umfrage, bevor die Seite vollständig geladen ist
  • Entfernt Funktionen, die Plug-ins oder Videos erfordern, die auf dem Gerät des Nutzers nicht verfügbar sind. 
    • Adobe Flash ist beispielsweise auf einem iPhone oder einem Gerät mit Android 4.1 und höher nicht abspielbar. | Anwendungsszenario (englischsprachiger Blogpost)
    • Bietet den Nutzern von Tablets die Desktop-Version (oder, sofern verfügbar, die Tablet-Version) an. | Studie (englischsprachige Studie)
    • Stellt sicher, dass die vollständige Desktop-Version auf Mobiltelefonen zugänglich ist und dass sie bei Auswahl auch für die Dauer der Sitzung verbleibt, damit Nutzer nicht nach jedem Laden einer Seite wieder "Desktop-Version" auswählen müssen. | Studie (englischsprachige Studie)
  • Korrigiert mobile Seiten mit hohen Zugriffszahlen und geringer Nutzerfreundlichkeit.
So könnt ihr mobile Seiten mit hohen Zugriffszahlen und geringer Nutzerfreundlichkeit mit Daten zu Absprungraten und Ereignissen aus Google Analytics korrigieren (Folien)
  • Erzielt schnelle Leistungsverbesserungen (und setzt diese fort, wenn die Konkurrenz euch voraus ist) | Anwendungsszenario
So könnt ihr schnelle Leistungsverbesserungen vornehmen und eure Seite mit denen der Konkurrenz vergleichen (Folien)


Um alle Punkte zum Thema Nutzerfreundlichkeit zu lesen, schaut euch die vollständige Checkliste zur Optimierung von mobilen Websites (in Englisch) an.


Schritt 2: Erleichtert die Abwicklung von Aufgaben
  • Crawling, Indexierung und Sucherfahrung optimieren | Anwendungsszenario (in Englisch)
    • Hebt die Blockierung von Ressourcen (CSS, JavaScript) auf, die durch die robots.txt-Datei unterbunden werden.
    • Wendet Best-Practices für Suchmaschinen an, die eurer mobilen Implementierung entsprechen:
    • Dynamische Bereitstellung: Schließt den "Vary: User-Agent HTTP-Header" ein.
  • Optimiert beliebte mobile Workflows für eure Website


So optimiert ihr beliebte mobile Workflows mithilfe der Google Webmaster-Tools und Google Analytics (Folien)


Schritt 3: Macht eure Kunden zu Fans
  • Zieht Suchintegrationspunkte mit mobilen Apps in Erwägung | Ankündigung, Information (in Englisch)
  • Überlegt euch neue Methoden zur Steigerung des Mehrwerts.
    • Entwickelt Funktionen für mobiles Verhalten wie den In-Store-Shopper. | Anwendungsszenario
    • Setzt GPS-Systeme, Kameras und Beschleunigungsmesser von Smartphones wirksam ein.
    • Erleichtert das Teilen von Inhalten und den Zugang zu sozialen Netzwerken. | Anwendungsszenario
    • Achtet auf eine intuitive, haptische Funktionalität, die Spaß macht, wie Wischen, Schütteln oder Tippen.

Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Donnerstag, 10. April 2014 um 13:01

Drei Tipps zur Erkennung von Hacking auf eurer Website und Möglichkeiten zur Vorbeugung und Behebung

Google zeigt diese Meldung in Suchergebnissen für Websites an, die unserer Ansicht nach möglicherweise manipuliert wurden. Ihr denkt jetzt vielleicht: Warum sollte meine Website Ziel von Hackern sein? Aber das kommt überraschend häufig vor. Hacker greifen eine Vielzahl von Websites im gesamten Web an. Dabei haben sie es entweder auf die Nutzer abgesehen oder möchten sich den Ruf der Website zunutze machen.

Meist fügen Hacker Spamseiten zu Websites hinzu, die nicht ausreichend geschützt sind. Diese Spamseiten werden dann zu unterschiedlichen Zwecken genutzt, etwa um Nutzer auf unerwünschte oder schädliche Zielseiten weiterzuleiten. Seit Kurzem tauchen immer mehr gehackte Websites auf, die Nutzer auf gefälschte Shopping-Websites weiterleiten.

Der Großteil der Hacks, die wir in Deutschland gesehen haben, bezieht sich auf Pharma Keywords sowie Replica Keywords von bestimmten Marken (wie auch unten im Screenshot mit den Suchanfragen gesehen werden kann).

Sobald ihr feststellt, dass eure Website möglicherweise gehackt wurde, ist es wichtig, das Problem schnellstmöglich zu diagnostizieren und zu beheben. Wir möchten Webmastern beim Schutz ihrer Websites helfen, damit Nutzer vor Spam oder schädlichen Inhalten sicher sind.

Drei Tipps, wie ihr gehackte Inhalte auf eurer Website findet

  1. Überprüft eure Website auf verdächtige URLs oder Verzeichnisse.
Haltet Ausschau nach verdächtigen Aktivitäten auf eurer Website. Hierzu führt ihr einfach eine "site:"-Suche nach eurer Website in Google durch, zum Beispiel [site:ihremusterdomain.de]. Tauchen irgendwelche verdächtigen URLs oder Verzeichnisse auf, die euch nicht bekannt vorkommen?
Ihr könnt auch einen Google Alert für eure Website einrichten. Wenn ihr zum Beispiel einen Google Alert für [site:ihremusterdomain.de (viagra|cialis|louis vuitton|moncler)] einrichtet, erhaltet ihr eine E-Mail, wenn diese Keywords auf eurer Website gefunden werden.
  1. Haltet nach unnatürlichen Suchanfragen auf der Seite "Suchanfragen" in den Webmaster-Tools Ausschau.
Die Seite Suchanfragen enthält Informationen zu Google Websuche-Anfragen, die URLs eurer Website zurückgegeben haben. Achtet auf unerwartete Suchanfragen, da dies ein Hinweis für gehackte Inhalte auf eurer Website sein kann.
Lasst Suchanfragen in anderen Sprachen nicht gleich außer Acht. Diese könnten auf Spamseiten in anderen Sprachen hindeuten, die auf eurer Website platziert wurden.



                    Beispiel einer gehackten Website mit "viagra", "cheap handbags", "cialis" & "cheap shoes" in den Suchanfragen
  1. Aktiviert die E-Mail-Weiterleitung in den Webmaster-Tools.
Google sendet euch eine Nachricht, sobald wir feststellen, dass eure Website möglicherweise manipuliert wurde. Die entsprechenden Meldungen erscheinen im Nachrichten-Center der Webmaster-Tools, es ist jedoch ratsam, diese auch an eure E-Mail-Adresse weiterzuleitenBeachtet, dass Google nicht alle Arten von gehackten Inhalten erkennen kann. Wir hoffen jedoch, dass wir euch durch unsere Benachrichtigungen auf Dinge aufmerksam machen können, die euch vielleicht entgangen sind.

Tipps zum Beheben und Vorbeugen von Hacking

  • Haltet euch auf dem Laufenden.
Im Abschnitt Sicherheitsprobleme der Webmaster-Tools findet ihr gehackte Seiten, die wir auf eurer Website gefunden haben. Darüber hinaus erhaltet ihr detaillierte Informationen, um eure gehackte Website wieder in Ordnung zu bringenDiese solltet ihr unbedingt lesen, um die Probleme schnell und effektiv beheben zu können.
  • Schützt eure Website vor möglichen Angriffen.
Es ist besser, Websites vor Hackerangriffen zu schützen, als gehackte Inhalte zu bereinigen. Hacker nutzen häufig Sicherheitslücken bei gängiger Software zur Websiteverwaltung aus. Hier findet ihr einige Tipps, um eure Website vor Hackern zu schützen:
  • Achtet darauf, dass die Software zur Verwaltung eurer Website immer auf dem neuesten Stand ist.
  • Falls der Softwareanbieter sicherheitsbezogene Informationen bereitstellt, meldet euch für diesen Service an, um die neuesten Updates zu erhalten.
  • Falls die Software für eure Website von einem Hostanbieter verwaltet wird, wählt einen Anbieter aus, der eurer Ansicht nach die Sicherheit der Website gewährleisten kann.
Wir hoffen, dass ihr mithilfe der Informationen in diesem Blogpost gehackte Spaminhalte auf eurer Website einfacher erkennen, bereinigen und verhindern könnt. Falls ihr Fragen habt, postet einfach einen Kommentar oder schaut im Forum für Webmaster vorbei.
Habt ihr verdächtige Websites in den Google-Suchergebnissen entdeckt? Dann meldet sie über das Tool Spam-Bericht.


Post von Megumi Hitomi, Search Quality Team Japan (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Donnerstag, 27. März 2014 um 14:42

Das Search Quality Team auf der SEO Campixx in Berlin

Wir sind frisch zurück von der diesjährigen SEO Campixx, wo wir viele spannende Vorträge gehört und interessante Unterhaltungen mit anderen Konferenzteilnehmern geführt haben.
Wir haben auch selber Vorträge zu den Themen Rich Snippets und Linking Reconsideration Requests (beziehungsweise Anträge auf erneute Überprüfung) gehalten. Hier ist eine kurze Zusammenfassung unserer Vorträge:

1. Teil: Rich Snippets

Rich Snippets bieten den Suchenden mehr und optisch besser aufbereitete Informationen. Die Rich Snippets basieren auf Markup für strukturierten Daten, welches der Webmaster dem Quellcode seiner Seite hinzugefügt hat.
Beispiel für Rich Snippets in den Suchergebnissen. Durch das Foto, die Bewertung und Informationen zu Zubereitungszeit, bietet das Surchresultat mehr Informationen und sticht optisch hervor.

Für diejenigen unter euch, die sich noch nicht mit Rich Snippets auseinandergesetzt haben: In unserer Hilfe findet ihr eine gute Einführung zu Rich Snippets.

Wir möchten euch ein paar weiterführende Google-Tools ans Herz legen, die sowohl für Einsteiger als auch Profis im Bereich Rich Snippets hilfreich sind. Die ersten beiden können euch helfen, Rich Snippets zu bekommen, falls eure Seiten noch nicht über das erforderliche Markup für strukturierten Daten verfügen, und auch für’s Testen und Monitoring bieten wir Tools an:
  • Der Data-Highlighter erlaubt es euch, uns mit ein paar Mausklicks Informationen über die Struktur eurer Seiten zu geben, so dass wir Rich Snippets anzeigen können.
  • Die Markup-Hilfe schlägt entsprechendes auf schema.org Vokabular basierendes HTML-Markup für eine angegebene URL oder HTML-Quelltext vor, das ihr dann in den HTML-Quelltext eurer Website einfügen könnt.
Video-Tipp: Hier findet ihr ein ausführliches Demo der Tools (auf Englisch).

Probiert es einfach mal aus!

2. Teil: Linking Reconsideration Requests

Im zweiten Teil haben wir über Linking Reconsideration Requests (oder auch Anträge auf erneute Überprüfung) gesprochen. Anfänglich haben wir über grundsätzliche Zahlen und Fakten zu Anträgen auf erneute Überprüfung gesprochen. Beispielsweise erhalten wir momentan ungefähr 1500 Anträge pro Monat für Linking, welche alle von Mitarbeitern des Search Quality Teams angeschaut werden. Nach der Einführung haben wir dann die Schritte für erfolgreiche Anträge für eingehende Links in zeitlicher Reihenfolge besprochen:

  • Entwertet die Links, auf die ihr keinen Einfluss habt mit dem Disavow Tool

Abgerundet wurde der Vortrag durch die häufigsten Ablehnungsgründe für Reconsideration Requests wie beispielsweise, dass nicht ausreichend schlechte Links entfernt wurden. Eine anschließend häufig gestellte Frage war, ob es einer Website schadet, wenn sie in einer Disavow-Datei eines anderen Webmasters enthalten ist. Die Antwort darauf ist: Nein, die Website wird dadurch nicht beeinflußt. Außerdem müsst ihr die Dokumentation eures Antrags nicht in Englisch verfassen, sondern könnt dies in Deutsch tun.


Wir hoffen, dass unser Vortrag hilfreich und inspirierend für euch war und wir freuen uns, einige von euch demnächst auf anderen Konferenzen zu sehen.Eine Zusammenfassung der Folien unserer Präsentation findet ihr hier. Wenn ihr selbst auf der SEO Campixx gewesen seid und unseren Vortrag gesehen habt, dann könnt ihr uns auch Feedback geben, welches uns helfen wird, die Qualität und Nützlichkeit unserer Beiträge für zukünftige Veranstaltungen zu verbessern.

Post von Uli Lutz und Johannes Mehlem, Search Quality Team

Freitag, 21. März 2014 um 12:08

Unnatürliche Links und Anträge auf erneute Überprüfung


Seit einiger Zeit führen wir manuelle Spam-Maßnahmen für Websites und gesamte Netzwerke durch, welche aggressiv und wissentlich unsere Richtlinien für Webmaster verletzt haben. Wir möchten diese Möglichkeit nutzen, um daran zu erinnern, dass ähnlich täuschende Linktauschprogramme nicht unseren Richtlinien entsprechen. Wir werden weiterhin angemessene Maßnahmen vornehmen, wenn wir unnatürliches Linkverhalten erkennen. Dieser Post beabsichtigt, darüber aufzuklären, welche Arten von Links abträglich für das Ranking und das Ansehen eurer Website sind und was zu tun ist nach einer manuellen Spam-Maßnahme auf eurer Website.

Welche Arten von Links werden als abträglich gesehen?

Links zu eurer Website
Teilnahme an Linktauschprogrammen im Sinne von gekauften Links, welche PageRank weitergeben, um unsere Suchmaschinenergebnisse zu verzerren, ist gegen unserer Richtlinien (Linktauschprogramme).

Wie kürzlich in einem Blogpost von Matt Cutts angesprochen (The decay and fall of guest blogging for SEO), hat sich die Art und Durchführung von Gastbeiträgen auf Blogs von einer respektablen Tätigkeit zu einem spammigen Unterfangen entwickelt. Es gab also oft nur das Ziel des schnellen Linkaufbaus gepaart mit Beiträgen von geringer Qualität.

Ebenso, werden Artikel- oder Linkverzeichnissen als Methode des Linkaufbaus als unnatürlich angesehen. Mehr Details dazu in diesem Video.

Links von eurer Website
Wir würden gerne hinsichtlich ausgehender Links von eurer Website oder eurem Blog daran erinnern, dass Praktiken wie verkaufte Links, welche PageRank weitergeben, Content Placement oder Blog-Marketing eindeutig gegen unsere Richtlinien sprechen. Gesamte Netzwerke, welche lediglich für platzierte Links erstellt wurden, die unsere Ranking-Signale verzerren, entsprechen nicht unseren Richtlinien für Webmaster (Unnatürliche Links von Ihrer Seite).

Wir regen sehr dazu an, die Richtlinien für Webmaster zu lesen und damit anzufangen das Linkprofil eurer Seite im Blick zu behalten, um zu gewährleisten, dass es nicht spammig erscheint. Wenn ihr glaubt, dass manche Links verdächtig sind, dann sollte ihr diese entfernen oder eure Online-Agentur fragen dies zu tun. Wie in unserem französischen Blogpost erwähnt, könnt ihr einen Link-spezifischen Spam-Report durchführen, insofern ihr meint, dass eine Website zweifelhafte Methoden anwendet oder falls ein anderer Webmaster euch für Linktausch kontaktieren sollte. Somit könnt ihr uns helfen, die Qualität der Suchergebnisse zu erhalten.

Was sollte ich tun bei einer manuellen Spam-Maßnahme auf meiner Website?

Wenn eure Website über eine manuelle Spam-Maßnahme verfügt, könnt ihr diese Information in eurem Google Webmaster-Tools Konto sehen, unter Suchanfragen → Manuelle Maßnahmen. Nach dem ihr eure Website entsprechend aufgeräumt habt, könnt ihr einen Antrag auf erneute Überprüfung stellen. Es ist wichtig, dass ihr euch um das beschriebene Verhalten kümmert, bevor ihr einen Antrag stellt. Im Fall von Links zu eurer Website bedeutet dies, dass ihr die Webmaster kontaktiert und bittet die problematischen Links von deren Seite zu entfernen. Als letzter Ausweg, sofern die Links nicht entfernt werden können, könnt ihr Links für ungültig erklären. Bei spammigen Links sowie gekauften Links von einer Seite zu einer anderen, vergewissert euch, dass diese Links entweder entfernt sind oder rel"nofollow" nutzen. Lest auch unseren anderen Post über weitere wichtige Aspekte bei Anträgen auf erneute Überprüfung. Sofern ihr irgendwelche Bemerkungen oder Fragen habt, könnt ihr diese entweder hier als Kommentar oder auch im Forum für Webmaster posten.

Post von Johannes Mehlem (Search Quality Team)

Montag, 3. Februar 2014 um 10:16

Änderungen der Crawling-Fehlermeldungen für Weiterleitungen


In der Vergangenheit gab es bei Webmastern gelegentlich Verwirrung darüber, wie Crawling-Fehler auf weiterleitenden Seiten in den Webmaster-Tools angezeigt werden. Es ist also an der Zeit, die Diagnose klarer und einfacher zu gestalten! Während wir früher den Fehler auf der ursprünglichen weiterleitenden URL gemeldet haben, zeigen wir jetzt den Fehler auf der endgültigen URL an. Diese URL gibt den eigentlichen Fehlercode zurück.

Hier ein Beispiel:


URL A leitet auf URL B weiter, die wiederum einen Fehler zurückgibt. Die Art der Weiterleitung und der Fehlertyp sind hier nicht relevant.

In der Vergangenheit haben wir den am Ende aufgezeichneten Fehler unter URL A gemeldet. Jetzt wird er stattdessen unter URL B gemeldet. Dies vereinfacht die Diagnose der in den Webmaster-Tools angezeigten Crawling-Fehler. Mit Tools wie cURL oder eurer bevorzugten Online-Server-Header-Prüfung könnt ihr nun einfach bestätigen, dass der eigentliche Fehler von URL B ausgeht.

Diese Änderung ist möglicherweise auch in der Gesamtfehleranzahl mancher Websites sichtbar. Wenn eure Website beispielsweise auf eine neue Domain umzieht, werden nur diese Fehler für die neue Domain angezeigt, vorausgesetzt, die alte Domain leitet korrekt weiter. Dies kann zu merklichen Änderungen der Gesamtfehleranzahl für solche Websites führen.

Beachtet, dass diese Änderung sich nur darauf auswirkt, wie die Crawling-Fehler in den Webmaster-Tools angezeigt werden. Bedenkt außerdem, dass Crawling-Fehler für URLs, die Fehler zurückgeben sollten (z. B. nicht vorhandene URLs) keine negativen Auswirkungen auf die Indexierung oder das Ranking der übrigen Website haben (auch diskutiert auf Google+).

Wir hoffen, diese Änderung vereinfacht das Aufspüren von Crawling-Fehlern und die Bereinigung von unbeabsichtigten Fehlern, die euch nicht bewusst waren. Falls ihr noch Fragen habt, könnt ihr sie gerne hier posten oder einen Blick in die Foren für Webmaster von Google werfen.

Post von John Mueller, Webmaster Trends Analyst (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Dienstag, 28. Januar 2014 um 10:30

Ein neuer Googlebot-User-Agent für das Crawling von Smartphone-Content

Im Laufe der Jahre hat Google unterschiedliche Crawler verwendet, um Content für Feature-Phones und Smartphones zu crawlen und zu indexieren. Diese für Mobilgeräte konzipierten Crawler wurden alle als Googlebot-Mobile bezeichnet. Feature-Phones und Smartphones weisen jedoch deutlich unterschiedliche Geräteleistungen auf. So haben Webmaster in einigen Fällen versehentlich das Crawling oder die Indexierung von Smartphones blockiert, obwohl sie eigentlich nur das Crawling und Indexieren von Feature-Phones blockieren wollten. Diese Doppeldeutigkeit machte es Google unmöglich, Smartphone-Content auf einigen Websites zu indexieren oder zu erkennen, dass diese Websites für Smartphones optimiert sind.

Ein neuer Googlebot für Smartphones

Zur Klärung der Situation und um Webmastern mehr Kontrolle zu geben, werden wir in 3 bis 4 Wochen den "Googlebot-Mobile" für Smartphones als User-Agent ausmustern.Von da an wird der User-Agent für Smartphones sich einfach als "Googlebot" ausweisen, er wird jedoch weiterhin als "mobil" anderswo im User-Agent-String gelistet sein. Hier die neuen und alten User-Agents:

Der neue Googlebot-User-Agent für Smartphones:
Mozilla/5.0 (iPhone; CPU iPhone OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A5376e Safari/8536.25 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Der Googlebot-Mobile-User-Agent für Smartphones wird demnächst ausgemustert:
Mozilla/5.0 (iPhone; CPU iPhone OS 6_0 like Mac OS X) AppleWebKit/536.26 (KHTML, like Gecko) Version/6.0 Mobile/10A5376e Safari/8536.25 (compatible;  Googlebot-Mobile/2.1; +http://www.google.com/bot.html)

Diese Änderung betrifft nur den Googlebot-Mobile für Smartphones. Der User-Agent des regulären Googlebot wird nicht geändert. Die verbleibenden zwei Googlebot-Mobile-Crawler werden sich in ihren User-Agent-Strings weiterhin auf Feature-Phone-Geräte beziehen. Dies sind folgende User-Agents:

Regulärer Googlebot-User-Agent:

Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)

Die beiden Googlebot-Mobile-User-Agents für Feature-Phones:
  • SAMSUNG-SGH-E250/1.0 Profile/MIDP-2.0 Configuration/CLDC-1.1 UP.Browser/6.2.3.3.c.1.101 (GUI) MMP/2.0 (compatible; Googlebot-Mobile/2.1; +http://www.google.com/bot.html)
  • DoCoMo/2.0 N905i(c100;TB;W24H16) (compatible; Googlebot-Mobile/2.1; +http://www.google.com/bot.html)
Ihr könnt eure Website mit der Funktion "Abruf wie durch Google" in den Webmaster-Tools testen und eine komplette Liste unserer vorhandenen Crawler in der Hilfe für Webmaster einsehen.

Crawling und Indexierung

Bitte beachtet folgende wichtige Auswirkung des User-Agent-Updates: Der neue Googlebot-Crawler für Smartphones wird anstelle des Googlebot-Mobile den robots.txt-, den Robots-Meta-Tag- und den HTTP-Header-Anweisungen für den Googlebot folgen. Mit dem neuen Crawler blockiert beispielsweise die folgende robots.txt-Anweisung jedes Crawling durch den neuen Googlebot-User-Agent für Smartphones sowie den regulären Googlebot:

User-Agent: Googlebot
Disallow: /

Diese robots.txt-Richtlinie wird das Crawling durch die Feature-Phone-Crawler von Google blockieren:

User-Agent: Googlebot-Mobile
Disallow: /

Unseren internen Analysen zufolge wirkt sich dieses Update auf weniger als 0,001 % der URLs aus. Gleichzeitig erhalten Webmaster mehr Kontrolle über das Crawling und die Indexierung ihrer Inhalte.Wie immer könnt ihr bei Fragen

Post von Zhijian He, Smartphone Search Engineer (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Donnerstag, 23. Januar 2014 um 12:56

Frohe Festtage und einen guten Rutsch ins neue Jahr!

Das Jahr neigt sich dem Ende zu und wir wollen diese Gelegenheit dazu nutzen, für euch das Jahr 2013 zusammenzufassen und ein paar Highlights zu benennen. Dieses Jahr stand im Zeichen der Transparenz und erweiterter Hilfe für Webmaster. Im Sinne erhöhter Transparenz haben wir folgende Initiativen in 2013 durchgeführt:



Die publizierten Hilfestellungen für Webmaster in 2013 lassen sich hauptsächlich fünf verschiedenen Themenfeldern zuordnen:

Abbildung 1: Rich Snippets




  • Internationale Websites 
    • Mit der steigenden Anzahl an mehrsprachigen und internationalen Seiten wird die richtige Konfiguration dieser ein zunehmend bedeutendes Thema. Die 6 Tipps für internationale Websites geben eine gute Übersicht, was über die reine Übersetzung der Inhalte in andere Sprachen hinaus ratsam ist. Ebenso haben wir vorgestellt, wie mit hreflang Tags Einfluss auf die dem User ausgelieferte Seiten- bzw. Sprachversion genommen werden kann.


Abbildung 2: Nutzung spezifischer Länderseiten




Abbildung 3: Hacking-Hinweis in den Suchergebnissen




Abbildung 4: Überischt über Smartphone-Crawling-Fehler


  • Urheberschaft und duplizierte Inhalte 

Abbildung 5: Google+ Profilbild in den Suchergebnissen


Wir möchten allen Lesern dieses Blog für ihre Treue und ihr Interesse danken. Ebenso danken wir den Teilnehmern in den Webmastersprechstunden und den Usern unseres Forums für Webmaster für die Nutzung unserer angebotenen Ressourcen. Ein besonderes Dankeschön geht an alle aktiven Forummitglieder inklusive unserer Top-Beitragenden Alter-Falter!, en001, Gantea, luzie, Peter, Phantastor, Thomas und uzimmi für interessante Diskussionen, viel Fachwissen und zufriedene Forumbesucher durch beantwortete Fragen.

Besten Dank für ein grandioses 2013, schöne Feiertage und einen guten Rutsch ins neue Jahr!

Sven, Uli, John & Johannes


Post von Johannes Mehlem (Search Quality Team)

Freitag, 20. Dezember 2013 um 11:55

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.