Posted:
Ein häufiges Ärgernis für Nutzer sind Websites, für deren Darstellung Browsertechnologien erforderlich sind, die auf den Geräten der Nutzer nicht unterstützt werden. Greift ein Nutzer auf eine solche Seite zu, sieht er unter Umständen nur eine leere Fläche oder es fehlen große Teile des Seiteninhalts.
Wir kennzeichnen Suchergebnisse jetzt entsprechend, wenn unsere Algorithmen Seiten finden, die auf den Geräten der Nutzer möglicherweise nicht funktionieren. Adobe Flash wird beispielsweise auf iOS-Geräten oder unter Android ab Version 4.1 nicht unterstützt. Eine Seite, die überwiegend Flash-Inhalte enthält, wird eventuell folgendermaßen gekennzeichnet:


Moderne Websites für mehrere Geräte entwickeln

Zum Glück ist es nicht besonders schwierig, Websites zu erstellen, die auf allen modernen Geräten funktionieren: Ihr könnt für eure Websites HTML5 verwenden, da dies universell unterstützt wird – auf einigen Geräten sogar ausschließlich. Um Webmaster bei der Erstellung von Websites zu unterstützen, die unabhängig vom Inhaltstyp auf allen Geräten funktionieren, haben wir kürzlich zwei Ressourcen veröffentlicht (in Englisch):
  • Web Fundamentals: eine Plattform für ausgewählte, moderne Best Practices
  • Web Starter Kit: ein Framework für Einsteiger, in dem die Best Practices der Web Fundamentals unmittelbar umgesetzt werden können
Wenn ihr die in Web Fundamentals beschriebenen Best Practices befolgt, könnt ihr eine Website mit Responsive Webdesign erstellen. Diese Lösung empfiehlt Google für nutzerfreundliche Websites schon seit geraumer Zeit. Achtet darauf, das Crawling der Seiteninhalte (CSS, JavaScript und Bilder) nicht mit robots.txt-Dateien oder in anderer Form für den Googlebot zu blockieren.Wenn unsere Algorithmen vollständigen Zugriff auf diese externen Dateien haben, können sie die Responsive Webdesign-Konfiguration eurer Website besser erkennen und diese entsprechend crawlen. Mit der Funktion Abruf wie durch Google in den Webmaster-Tools könnt ihr testen, wie unsere Indexierungsalgorithmen eure Website sehen.

Weitere Fragen könnt ihr wie immer im Forum für Webmaster posten.

Post von Keita Oda, Software Engineer, und  Pierre Far, Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
Vor Kurzem haben wir bekannt gegeben, dass Google Webseiten wie ein typischer moderner Browser darstellt, bei dem CSS und JavaScript aktiviert sind. Heute aktualisieren wir eine unserer technischen Richtlinien für Webmaster entsprechend dieser Mitteilung.
Nach unserer neuen Richtlinie solltet ihr dem Googlebot Zugriff auf die JavaScript-, CSS- und Bilddateien auf euren Seiten geben. Auf diese Weise wird eure Website optimal dargestellt und indexiert.Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.

Aktualisierte Tipps für die optimale Indexierung

Bisher ähnelten Google-Indexierungssysteme alten textbasierten Browsern wie Lynx, und so stand es auch in unseren Richtlinien für Webmaster. Da die Indexierung jetzt auf der Seitendarstellung basiert, sind unsere Indexierungssysteme nun nicht mehr mit einem textbasierten Browser vergleichbar. Stattdessen handelt es sich eher um einen modernen Webbrowser. Dementsprechend solltet ihr Folgendes beachten:
  • Ähnlich wie moderne Browser unterstützt unser Darstellungsmodul unter Umständen nicht alle auf einer Seite verwendeten Technologien.­­ Stellt sicher, dass euer Webdesign den Prinzipien der progressiven Verbesserung entspricht, da unsere Systeme (und zahlreiche Browser) dann verwendbare Inhalte und grundlegende Funktionen besser erkennen können, sollten bestimmte Webdesign-Funktionen noch nicht unterstützt werden.
  • Seiten, die schnell dargestellt werden, sorgen nicht nur dafür, dass Nutzer schneller auf euren Inhalt zugreifen können, sondern machen auch die Indexierung dieser Seiten wesentlich effizienter. Beachtet die Best Practices für die Optimierung der Seitenleistung, insbesondere die folgenden:
  • Stellt sicher, dass euer Server die zusätzliche Last durch die Bereitstellung von JavaScript- und CSS-Dateien an den Googlebot verarbeiten kann.

Tests und Fehlerbehebung

In Verbindung mit der Einführung der darstellungsbasierten Indexierung haben wir auch die Funktion für den Abruf und die Darstellung wie durch Google in den Webmaster-Tools aktualisiert, damit Webmaster sehen können, wie unsere Systeme eine Seite darstellen. Damit lassen sich eine Reihe von Indexierungsproblemen, ungültige robots.txt-Einschränkungen, Weiterleitungen, denen der Googlebot nicht folgen kann, und vieles mehr identifizieren.

Wie immer könnt ihr Kommentare oder Fragen in unserem Forum für Webmaster posten.

Post von Pierre Far, Webmaster Trends Analyst
(Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
Die Seite "Suchanfragen" in den Webmaster-Tools wurde jetzt für diejenigen von euch vereinheitlicht, die eine mobile Website auf einer vom Desktop separaten URL verwalten wie etwa die mobile Version auf m.ihremusterdomain.de und die Desktopversion auf www. Wenn ihr euch in den Suchanfragen eure m.-Website* anseht und die Filter auf "Mobil" setzt, wird seit dem 31. Dezember 2013 Folgendes angezeigt:
  • Suchanfragen, bei denen eure m.-Seiten in den Suchergebnissen für mobile Browser angezeigt wurden.
  • Suchanfragen, bei denen Google die Weiterleitung übersprungen hat. Dies bedeutet, dass der Nutzer automatisch zur entsprechenden mobilen Version weitergeleitet wurde, während in den Suchergebnissen die Desktop-URL angezeigt wurde. Dadurch wurde dem Nutzer Latenzzeit erspart, die bei einer Weiterleitung durch den Server entstanden wäre. 


Informationen zu übersprungenen Weiterleitungen (Impressionen, Klicks, usw.), 
die für die mobile Website berechnet wurden

Vor dieser Optimierung der Suchanfragen wurden Impressionen für die übersprungene Weiterleitung mit der Desktop-URL in den Webmaster-Tools angezeigt. Die Informationen, wann Weiterlungen übersprungen wurden, ist von uns jetzt konsolidiert, sodass Impressionen, Klicks und CTR nur mit der bestätigten mobilen Website kalkuliert werden.

Best Practices bei einer separaten m.-Website 

Hier einige Empfehlungen zur Benutzerfreundlichkeit für diejenigen von euch, die Inhalte auf separaten m.-Websites veröffentlichen:
  • Fügt auf der Desktop-Seite ein spezielles link rel="alternate"-Tag hinzu, das auf die entsprechende mobile URL verweist. Dadurch findet der Googlebot den Speicherort der mobilen Seiten eurer Website.
  • Fügt auf der mobilen Seite ein link rel="canonical"-Tag hinzu, das auf die entsprechende Desktop-URL verweist.
  • Benutzt den HTTP Vary: User-Agent-Header, wenn eure Server die Nutzer automatisch anhand ihres User-Agents/Geräts weiterleiten.
  • Bestätigt die Inhaberschaft sowohl der Desktop-Website (www) als auch der mobilen Website (m.), um die Kommunikation und spezielle Fehlerbehebungsinformationen für die jeweilige Website zu verbessern. 
* Stellt sicher, dass ihr die Inhaberschaft eurer mobilen Website bestätigt habt! Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
Diesen Sommer hat das Webmaster-Tools-Team an einem Update für die Webmaster Tools API (in Englisch) gebastelt. Die neue API folgt der Struktur anderer Google-APIs, erleichtert das Authentifizieren für Apps oder Web-Services und bietet Zugriff auf einige der wichtigsten Funktionen der Webmaster-Tools.

Wenn ihr bereits andere Google-APIs verwendet habt, dann ist der Einstieg in die neue Webmaster Tools API ein Kinderspiel! Wir liefern euch Beispiele für Python, Java und – für die Kommandozeilenfans unter euch – auch für OACurl (Ressourcen in Englisch).

Mit der neuen API könnt ihr:
  • Websites auflisten, hinzufügen oder aus eurem Konto entfernen – zurzeit könnt ihr bis zu 500 Websites pro Konto verwalten. 
  • Sitemaps für eure Websites auflisten, hinzufügen oder entfernen 
  • Zahlen zu Warnungen, Fehlern und Indexierungen zu einzelnen Sitemaps abrufen 
  • einen Verlauf aller möglichen Crawling-Fehler für eure Website abrufen 
  • Beispiele für Crawling-Fehler bestimmter Fehlertypen auflisten 
  • einzelne Crawling-Fehler als "behoben" kennzeichnen. Dies hat zwar keine Auswirkungen auf die Art ihrer Verarbeitung, kann aber die Benutzeroberfläche übersichtlicher gestalten.
    Wir würden gerne wissen, wie ihr unsere APIs einsetzt! Fügt dazu Links zu euren Projekten in eure Kommentare unten ein. Wenn ihr Fragen zur Verwendung der API habt, könnt ihr auch in unserem Hilfeforum posten.

    Post von John Mueller, Fan langer Kommandozeilen, Google Zürich
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)

    Posted:
    webmaster_academy_international.png

    Die neue Webmaster Academy ist ab heute online in 22 Sprachen verfügbar! Neue Webmaster oder Einsteiger können jetzt in ihrer Sprache die Grundlagen lernen, zum Beispiel wie sie eine ansprechende Website erstellen, für eine positive Nutzererfahrung sorgen und ein gutes Ranking in den Suchergebnissen erzielen. Wenn ihr der Meinung seid, dass ihr euch auf diesen Gebieten bereits bestens auskennt, testet doch einfach euer Wissen im Quiz am Ende jedes Moduls.

    Lest euch die Artikel der Webmaster Academy in eurer bevorzugten Sprache durch und teilt uns eure Meinung in den Kommentaren oder im Forum für Webmaster mit. Nachdem die englische Version im März veröffentlicht wurde, haben wir viel konstruktives Feedback erhalten. Daher hoffen wir, dass euch dieser einfache und übersichtliche Leitfaden weiterhilft.

    Unser gemeinsames Ziel ist es, weltweit gute Websites mit suchbaren Inhalten anzubieten.

    Post von Mary Chen, Webmaster Outreach Team
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)

    Posted:
    Ab heute seht ihr ein neues, verbessertes Suchfeld für Sitelinks. Wenn es angezeigt wird, können Nutzer bestimmte Inhalte auf eurer Website einfacher erreichen, und zwar direkt über eure eigenen Seiten zum Suchen auf der Website.

    Was ist das für ein Suchfeld und wann wird es für meine Website angezeigt?

    Wenn Nutzer anhand des Namens nach einem Unternehmen suchen, etwa nach [Megadodo Verlagsgesellschaft]oder [Capitol Versicherung], kann es durchaus sein, dass sie nach etwas ganz Bestimmtem auf der jeweiligen Website suchen. Wenn unsere Algorithmen dies erkennen, wurden bisher eine größere Gruppe von Sitelinks und zusätzlich unterhalb des jeweiligen Suchergebnisses ein Suchfeld angezeigt. Über dieses Suchfeld konnten Nutzer site:-Suchanfragen für die Website direkt über die Ergebnisse durchführen, beispielsweise [site:ihrebeispielurl.de anhalter reiseführer].

    Das Suchfeld wird jetzt deutlich hervorgehoben und oberhalb der Sitelinks angezeigt. Es unterstützt die automatische Vervollständigung und leitet die Nutzer, sofern ihr das richtige Markup verwendet, direkt auf die internen Suchseiten eurer Website weiter.



    Welches Markup verwende ich für meine Website?

    Ihr benötigt eine funktionierende Suchmaschine speziell für eure Website. Wenn ihr bereits eine habt, könnt ihr uns darüber informieren, indem ihr eure Startseite mit der Eigenschaft "potentialAction" des Markups schema.org/SearchAction als schema.org/WebSite-Entität auszeichnet. Hierzu könnt ihr JSON-LD, Mikrodaten oder RDFa verwenden. Ausführliche Informationen zur Implementierung findet ihr auf unserer Website für Entwickler (in Englisch). Wenn ihr das Markup auf eurer Website implementiert, können die Nutzer direkt über das Suchfeld für Sitelinks zur Suchergebnisseite eurer Website gelangen. Wird kein entsprechendes Markup gefunden, sehen die Nutzer stattdessen wie bisher eine Google-Suchergebnisseite für die entsprechende site:-Suchanfrage. Etwaige Fragen könnt ihr wie immer im Hilfeforum für Webmaster stellen.

    Post von Mariya Moeva, Webmaster Trends Analyst, and Kaylin Spitz, Software Engineer
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)

    Posted:
    Webmaster-Stufe: Fortgeschritten

    Heutzutage möchte jeder seine genutzte Bandbreite senken: Hosts möchten Geld sparen, Nutzer von Mobilgeräten ihr Datenlimit nicht überschreiten und niemand möchte auf unnötige Bytes warten müssen. Das Web bietet unzählige Möglichkeiten zur Einsparung von Bandbreite: Seiten, die ohne Gzip bereitgestellt werden, nicht minimierte Stylesheets und JavaScripts oder auch nicht optimierte Bilder – um nur ein paar Beispiele zu nennen.

    Warum also ist das Web nicht bereits bandbreitenoptimiert? Warum werden solche Einsparungsmöglichkeiten nicht flächendeckend umgesetzt, wo sie doch offenbar für alle gut sind? Vor allem ist wohl häufig der Aufwand zu groß. Web-Designern wird zwar nahegelegt, beim Exportieren von Bildern Funktionen zum Speichern "für das Web" zu verwenden, aber daran denken viele nicht immer. JavaScript-Programmierer arbeiten nicht gerne mit minimiertem Code, da dies das Debuggen erschwert. Ihr könntet euch im Rahmen des Entwicklungs- und Bereitstellungsprozesses eine eigene Pipeline einrichten, um sicherzustellen, dass alle genannten Optimierungen stets angewendet werden, aber das ist eine Menge Arbeit.

    Eine einfache Lösung für Web-Nutzer ist die Verwendung eines Optimierungs-Proxys wie dem von Chrome. Wenn Nutzer diesen Service aktivieren, wird ihr HTTP-Traffic über den Proxy von Google übertragen. Damit wird der Seitenaufbau optimiert und die Bandbreitennutzung um 50 % gesenkt. Das ist schon mal ein Fortschritt, beschränkt sich aber auf Personen, die Chrome verwenden und diese Funktion aktivieren. Es erfolgt außerdem keine Optimierung von HTTPS-Traffic.

    Mit den Bandbreitenoptimierungen macht das PageSpeed-Team diese Technologie für Webmaster verfügbar, sodass alle davon profitieren können: Nutzer anderer Browser, sichere Websites, Desktop-Nutzer und Website-Inhaber, die ihre Ausgaben für ausgehenden Traffic senken möchten. Installiert dazu das PageSpeed-Modulauf eurem Apache- oder Nginx-Server [1] und aktiviert die Bandbreitenoptimierung in eurer Konfiguration – den Rest erledigt PageSpeed.

    Wenn ihr dann Interesse an den fortgeschrittenen Optimierungen von PageSpeed habt – von der Cache-Erweiterung über das Inlining bis hin zu aggressiveren Varianten wie dem Image-Lazyloading und verzögertem JavaScript –, könnt ihr diese in eurer PageSpeed-Konfiguration aktivieren.

    Weitere Informationen zum Installieren von PageSpeed und zum Aktivieren der Bandbreitenoptimierung

    Post von Jeff Kaufman, Make the Web Fast. (Veröffentlich von Uli Lutz , Search Quality Strategist)

    [1] Wenn ihr einen anderen Web-Server verwendet, solltet ihr die Ausführung von PageSpeed auf einem Apache- oder Nginx-Proxy in Betracht ziehen. Zudem ist PageSpeed vollständig Open Source und Portierungen für IIS, ATS und andere werden zurzeit entwickelt.