Posted:
Die Seite "Suchanfragen" in den Webmaster-Tools wurde jetzt für diejenigen von euch vereinheitlicht, die eine mobile Website auf einer vom Desktop separaten URL verwalten wie etwa die mobile Version auf m.ihremusterdomain.de und die Desktopversion auf www. Wenn ihr euch in den Suchanfragen eure m.-Website* anseht und die Filter auf "Mobil" setzt, wird seit dem 31. Dezember 2013 Folgendes angezeigt:
  • Suchanfragen, bei denen eure m.-Seiten in den Suchergebnissen für mobile Browser angezeigt wurden.
  • Suchanfragen, bei denen Google die Weiterleitung übersprungen hat. Dies bedeutet, dass der Nutzer automatisch zur entsprechenden mobilen Version weitergeleitet wurde, während in den Suchergebnissen die Desktop-URL angezeigt wurde. Dadurch wurde dem Nutzer Latenzzeit erspart, die bei einer Weiterleitung durch den Server entstanden wäre. 


Informationen zu übersprungenen Weiterleitungen (Impressionen, Klicks, usw.), 
die für die mobile Website berechnet wurden

Vor dieser Optimierung der Suchanfragen wurden Impressionen für die übersprungene Weiterleitung mit der Desktop-URL in den Webmaster-Tools angezeigt. Die Informationen, wann Weiterlungen übersprungen wurden, ist von uns jetzt konsolidiert, sodass Impressionen, Klicks und CTR nur mit der bestätigten mobilen Website kalkuliert werden.

Best Practices bei einer separaten m.-Website 

Hier einige Empfehlungen zur Benutzerfreundlichkeit für diejenigen von euch, die Inhalte auf separaten m.-Websites veröffentlichen:
  • Fügt auf der Desktop-Seite ein spezielles link rel="alternate"-Tag hinzu, das auf die entsprechende mobile URL verweist. Dadurch findet der Googlebot den Speicherort der mobilen Seiten eurer Website.
  • Fügt auf der mobilen Seite ein link rel="canonical"-Tag hinzu, das auf die entsprechende Desktop-URL verweist.
  • Benutzt den HTTP Vary: User-Agent-Header, wenn eure Server die Nutzer automatisch anhand ihres User-Agents/Geräts weiterleiten.
  • Bestätigt die Inhaberschaft sowohl der Desktop-Website (www) als auch der mobilen Website (m.), um die Kommunikation und spezielle Fehlerbehebungsinformationen für die jeweilige Website zu verbessern. 
* Stellt sicher, dass ihr die Inhaberschaft eurer mobilen Website bestätigt habt! Post von Maile Ohye, Developer Programs Tech Lead (Veröffentlicht von Johannes Mehlem, Search Quality Team)

Posted:
Diesen Sommer hat das Webmaster-Tools-Team an einem Update für die Webmaster Tools API (in Englisch) gebastelt. Die neue API folgt der Struktur anderer Google-APIs, erleichtert das Authentifizieren für Apps oder Web-Services und bietet Zugriff auf einige der wichtigsten Funktionen der Webmaster-Tools.

Wenn ihr bereits andere Google-APIs verwendet habt, dann ist der Einstieg in die neue Webmaster Tools API ein Kinderspiel! Wir liefern euch Beispiele für Python, Java und – für die Kommandozeilenfans unter euch – auch für OACurl (Ressourcen in Englisch).

Mit der neuen API könnt ihr:
  • Websites auflisten, hinzufügen oder aus eurem Konto entfernen – zurzeit könnt ihr bis zu 500 Websites pro Konto verwalten. 
  • Sitemaps für eure Websites auflisten, hinzufügen oder entfernen 
  • Zahlen zu Warnungen, Fehlern und Indexierungen zu einzelnen Sitemaps abrufen 
  • einen Verlauf aller möglichen Crawling-Fehler für eure Website abrufen 
  • Beispiele für Crawling-Fehler bestimmter Fehlertypen auflisten 
  • einzelne Crawling-Fehler als "behoben" kennzeichnen. Dies hat zwar keine Auswirkungen auf die Art ihrer Verarbeitung, kann aber die Benutzeroberfläche übersichtlicher gestalten.
    Wir würden gerne wissen, wie ihr unsere APIs einsetzt! Fügt dazu Links zu euren Projekten in eure Kommentare unten ein. Wenn ihr Fragen zur Verwendung der API habt, könnt ihr auch in unserem Hilfeforum posten.

    Post von John Mueller, Fan langer Kommandozeilen, Google Zürich
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)

    Posted:
    webmaster_academy_international.png

    Die neue Webmaster Academy ist ab heute online in 22 Sprachen verfügbar! Neue Webmaster oder Einsteiger können jetzt in ihrer Sprache die Grundlagen lernen, zum Beispiel wie sie eine ansprechende Website erstellen, für eine positive Nutzererfahrung sorgen und ein gutes Ranking in den Suchergebnissen erzielen. Wenn ihr der Meinung seid, dass ihr euch auf diesen Gebieten bereits bestens auskennt, testet doch einfach euer Wissen im Quiz am Ende jedes Moduls.

    Lest euch die Artikel der Webmaster Academy in eurer bevorzugten Sprache durch und teilt uns eure Meinung in den Kommentaren oder im Forum für Webmaster mit. Nachdem die englische Version im März veröffentlicht wurde, haben wir viel konstruktives Feedback erhalten. Daher hoffen wir, dass euch dieser einfache und übersichtliche Leitfaden weiterhilft.

    Unser gemeinsames Ziel ist es, weltweit gute Websites mit suchbaren Inhalten anzubieten.

    Post von Mary Chen, Webmaster Outreach Team
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)

    Posted:
    Ab heute seht ihr ein neues, verbessertes Suchfeld für Sitelinks. Wenn es angezeigt wird, können Nutzer bestimmte Inhalte auf eurer Website einfacher erreichen, und zwar direkt über eure eigenen Seiten zum Suchen auf der Website.

    Was ist das für ein Suchfeld und wann wird es für meine Website angezeigt?

    Wenn Nutzer anhand des Namens nach einem Unternehmen suchen, etwa nach [Megadodo Verlagsgesellschaft]oder [Capitol Versicherung], kann es durchaus sein, dass sie nach etwas ganz Bestimmtem auf der jeweiligen Website suchen. Wenn unsere Algorithmen dies erkennen, wurden bisher eine größere Gruppe von Sitelinks und zusätzlich unterhalb des jeweiligen Suchergebnisses ein Suchfeld angezeigt. Über dieses Suchfeld konnten Nutzer site:-Suchanfragen für die Website direkt über die Ergebnisse durchführen, beispielsweise [site:ihrebeispielurl.de anhalter reiseführer].

    Das Suchfeld wird jetzt deutlich hervorgehoben und oberhalb der Sitelinks angezeigt. Es unterstützt die automatische Vervollständigung und leitet die Nutzer, sofern ihr das richtige Markup verwendet, direkt auf die internen Suchseiten eurer Website weiter.



    Welches Markup verwende ich für meine Website?

    Ihr benötigt eine funktionierende Suchmaschine speziell für eure Website. Wenn ihr bereits eine habt, könnt ihr uns darüber informieren, indem ihr eure Startseite mit der Eigenschaft "potentialAction" des Markups schema.org/SearchAction als schema.org/WebSite-Entität auszeichnet. Hierzu könnt ihr JSON-LD, Mikrodaten oder RDFa verwenden. Ausführliche Informationen zur Implementierung findet ihr auf unserer Website für Entwickler (in Englisch). Wenn ihr das Markup auf eurer Website implementiert, können die Nutzer direkt über das Suchfeld für Sitelinks zur Suchergebnisseite eurer Website gelangen. Wird kein entsprechendes Markup gefunden, sehen die Nutzer stattdessen wie bisher eine Google-Suchergebnisseite für die entsprechende site:-Suchanfrage. Etwaige Fragen könnt ihr wie immer im Hilfeforum für Webmaster stellen.

    Post von Mariya Moeva, Webmaster Trends Analyst, and Kaylin Spitz, Software Engineer
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)

    Posted:
    Webmaster-Stufe: Fortgeschritten

    Heutzutage möchte jeder seine genutzte Bandbreite senken: Hosts möchten Geld sparen, Nutzer von Mobilgeräten ihr Datenlimit nicht überschreiten und niemand möchte auf unnötige Bytes warten müssen. Das Web bietet unzählige Möglichkeiten zur Einsparung von Bandbreite: Seiten, die ohne Gzip bereitgestellt werden, nicht minimierte Stylesheets und JavaScripts oder auch nicht optimierte Bilder – um nur ein paar Beispiele zu nennen.

    Warum also ist das Web nicht bereits bandbreitenoptimiert? Warum werden solche Einsparungsmöglichkeiten nicht flächendeckend umgesetzt, wo sie doch offenbar für alle gut sind? Vor allem ist wohl häufig der Aufwand zu groß. Web-Designern wird zwar nahegelegt, beim Exportieren von Bildern Funktionen zum Speichern "für das Web" zu verwenden, aber daran denken viele nicht immer. JavaScript-Programmierer arbeiten nicht gerne mit minimiertem Code, da dies das Debuggen erschwert. Ihr könntet euch im Rahmen des Entwicklungs- und Bereitstellungsprozesses eine eigene Pipeline einrichten, um sicherzustellen, dass alle genannten Optimierungen stets angewendet werden, aber das ist eine Menge Arbeit.

    Eine einfache Lösung für Web-Nutzer ist die Verwendung eines Optimierungs-Proxys wie dem von Chrome. Wenn Nutzer diesen Service aktivieren, wird ihr HTTP-Traffic über den Proxy von Google übertragen. Damit wird der Seitenaufbau optimiert und die Bandbreitennutzung um 50 % gesenkt. Das ist schon mal ein Fortschritt, beschränkt sich aber auf Personen, die Chrome verwenden und diese Funktion aktivieren. Es erfolgt außerdem keine Optimierung von HTTPS-Traffic.

    Mit den Bandbreitenoptimierungen macht das PageSpeed-Team diese Technologie für Webmaster verfügbar, sodass alle davon profitieren können: Nutzer anderer Browser, sichere Websites, Desktop-Nutzer und Website-Inhaber, die ihre Ausgaben für ausgehenden Traffic senken möchten. Installiert dazu das PageSpeed-Modulauf eurem Apache- oder Nginx-Server [1] und aktiviert die Bandbreitenoptimierung in eurer Konfiguration – den Rest erledigt PageSpeed.

    Wenn ihr dann Interesse an den fortgeschrittenen Optimierungen von PageSpeed habt – von der Cache-Erweiterung über das Inlining bis hin zu aggressiveren Varianten wie dem Image-Lazyloading und verzögertem JavaScript –, könnt ihr diese in eurer PageSpeed-Konfiguration aktivieren.

    Weitere Informationen zum Installieren von PageSpeed und zum Aktivieren der Bandbreitenoptimierung

    Post von Jeff Kaufman, Make the Web Fast. (Veröffentlich von Uli Lutz , Search Quality Strategist)

    [1] Wenn ihr einen anderen Web-Server verwendet, solltet ihr die Ausführung von PageSpeed auf einem Apache- oder Nginx-Proxy in Betracht ziehen. Zudem ist PageSpeed vollständig Open Source und Portierungen für IIS, ATS und andere werden zurzeit entwickelt.

    Posted:
    Letzten Monat haben wir eine einwöchige soziale Kampagne namens #NoHacked durchgeführt. Mit #NoHacked soll das Bewusstsein für Hacking-Angriffe geschärft werden. Darüber hinaus möchten wir euch Tipps geben, wie ihr eure Websites vor Hackern schützen könnt. Die Kampagne lief in 11 Sprachen auf mehreren Kanälen, darunter Google+, Twitter und Weibo. Rund eine Million Menschen haben sich unsere Tipps angesehen und Hunderte Nutzer haben unter dem Hashtag #NoHacked auf das Thema aufmerksam gemacht und anderen ihre Tipps verraten. Welche das sind, erfahrt ihr unten. Beiträge, die wir im Rahmen der Kampagne geteilt haben:


    G+Twitter


    G+Twitter


    G+, Twitter


    G+Twitter


    G+Twitter

    Hier findet ihr einige der vielen Tipps, die Nutzer weltweit geteilt haben:
    • Pablo Silvio Esquivel aus Brasilien empfiehlt Nutzern, bei Software keine Raubkopien zu verwenden (Quelle). 
    • Rens Blom aus den Niederlanden schlägt vor, verschiedene Passwörter für die einzelnen Konten zu verwenden, diese regelmäßig zu ändern und einen zusätzlichen Sicherheitsmechanismus wie die zweistufige Authentifizierung zu verwenden (Quelle). 
    • Дмитрий Комягин aus Russland ist der Meinung, dass Zugriffsquellen, Suchanfragen und Zielseiten regelmäßig überprüft werden müssen und man auf auffällig hohe Zugriffszahlen achten sollte (Quelle). 
    • 工務店コンサルタント aus Japan rät jedem, einen guten Hostinganbieter zu wählen, der Erfahrung mit Hacking-Problemen hat, und in den Webmaster-Tools die E-Mail-Weiterleitung einzurichten (Quelle). 
    • Kamil Guzdek empfiehlt, den standardmäßigen Tabellenpräfix in wp-config bei der Installation einer neuen WordPress-Version in einen benutzerdefinierten Präfix zu ändern, um das Risiko eines Hackerangriffs auf die Datenbank zu verringern (Quelle). 
    Hacking ist weltweit immer noch ein überraschend häufiges Problem. Daher möchten wir alle Webmaster anhalten, diese nützlichen Tipps zu befolgen. Unter dem Hashtag #NoHacked könnt ihr weiterhin eigene Tipps oder Erfahrungen einbringen, um Hacking vorzubeugen und auf das Thema aufmerksam zu machen. Vielen Dank für die Unterstützung der #NoHacked-Kampagne!


    Und für den Fall, dass eure Website doch einmal gehackt werden sollte, helfen wir euch, diese schnell und vollständig wiederherzustellen:


    Post von euren freundlichen #NoHacked-Helfern

    Posted:
    Google legt größten Wert auf Sicherheit. Wir investieren viel in hochmoderne Sicherheitsfunktionen wie etwa die standardmäßige Verwendung der starken HTTPS-Verschlüsselung. So wird beispielsweise für Nutzer der Google-Suche oder von Gmail und Drive automatisch eine sichere Verbindung zu Google hergestellt.
    Darüber hinaus arbeiten wir auch daran, das Internet allgemein sicherer zu machen. Websites, auf die Nutzer über Google zugreifen, sollen sicher sein. Um dieses Ziel zu erreichen, haben wir zum Beispiel Ressourcen erstellt, mit deren Hilfe Webmaster Sicherheitslücken auf ihren Websites verhindern und schließen können.
    Wir gehen sogar noch einen Schritt weiter. Bei der Google I/O, die vor einigen Monaten stattfand, haben wir "HTTPS überall" im Web propagiert.
    Immer mehr Webmaster implementieren HTTPS (auch HTTP über TLS oder Transport Layer Security genannt) auf ihren Websites. Diese Entwicklung ist sehr erfreulich.
    Aus diesen Gründen haben wir in den letzten Monaten Tests durchgeführt, bei denen in unseren Rankingalgorithmen berücksichtigt wurde, ob Websites sichere, verschlüsselte Verbindungen verwenden. Da die Ergebnisse sehr positiv waren, haben wir HTTPS als Ranking-Signal hinzugefügt. Bisher ist es nur ein minimales Signal, das weniger als 1 % der weltweiten Suchanfragen betrifft und einen geringeren Stellenwert als andere Signale wie etwa qualitativ hochwertige Inhalte hat, da wir Webmastern ausreichend Zeit geben möchten, um zu HTTPS zu wechseln. Im Laufe der Zeit werden wir es möglicherweise höher bewerten, um Websiteinhaber zum Wechseln von HTTP zu HTTPS anzuregen und dadurch die Sicherheit im Web zu erhöhen.

    Ausführliche Best Practices sind hier zu lesen, um die Einführung von TLS zu erleichtern und typische Fehler zu vermeiden. Hier ein paar allgemeine Tipps zum Einstieg:
    • Überlegt, welches Zertifikat ihr benötigt: Einzeldomain, mehrere Domains oder Platzhalterzertifikat
    • Verwendet 2048-Bit-Schlüsselzertifikate.
    • Verwendet relative URLs für Ressourcen, die sich in derselben sicheren Domain befinden.
    • Verwendet Protokoll-relative URLs für alle anderen Domains.
    • Weitere Richtlinien zum Ändern eurer Websiteadresse findet ihr in unserem Artikel zur Websiteverschiebung.
    • Blockiert das Crawling eurer HTTPS-Website nicht mithilfe einer robots.txt-Datei.
    • Lasst die Indexierung eurer Seiten durch Suchmaschinen zu, sofern möglich. Verwendet kein Meta-Tag "noindex".
    Wenn eure Website bereits HTTPS verwendet, könnt ihr die Sicherheitsstufe und die Konfiguration mit dem Qualys Lab Tool testen. Falls ihr Bedenken bezüglich TLS und der Leistung eurer Website habt, seht euch diese Seite (auf Englisch) an. Und natürlich könnt ihr auch jederzeit Fragen oder Beiträge in unseren Foren für Webmaster posten.
    Wir hoffen, dass in Zukunft noch mehr Websites HTTPS verwenden. Wir sollten alle dazu beitragen, das Web sicherer zu machen!
    Post von Zineb Ait Bahajji und Gary Illyes, Webmaster Trends Analysts
    (Veröffentlicht von Johannes Mehlem, Search Quality Team)