Posted:

In den vergangenen Monaten hat es einen deutlichen Anstieg an kompromittierten Websites gegeben. Wir erklären es uns damit, dass nun verstärkt Websites gehackt werden, um Malware in Umlauf zu bringen oder Suchergebnisse zu spammen. Wie dem auch sei, jetzt ist jedenfalls ein guter Zeitpunkt für uns, um ein paar hilfreiche Sicherheitstipps für Webmaster anzusprechen.

Obligatorischer Disclaimer: Auch wenn wir hier viele Tipps und Links zusammengestellt haben und wir Webmaster ermuntern wollen, diese "bitte zu Hause nachzumachen", so stellt diese Liste in keiner Hinsicht eine erschöpfende Aufzählung dar. Wir hoffen, dass sie nützlich ist, aber wir empfehlen auch, weitergehende Nachforschungen anzustellen.

  • Prüft die Server-Konfiguration
    Auf der Website von Apache werden einige Sicherheitstipps zur Konfiguration zur Verfügung gestellt, und Microsoft bietet für IIS einige Ressourcen im Tech Center. In diesen Tipps geht es unter anderem um Zugriffsrechte für Verzeichnisse, Server Side Includes, Authentifizierung und Verschlüsselung.

  • Haltet Software-Updates und Patches auf dem neuesten Stand
    Viele Webmaster tappen in die Falle, ein Forum oder einen Blog zu installieren und sich dann nicht mehr darum zu kümmern. So wie ihr ein Auto zur Inspektion bringt, ist es ebenso wichtig sicherzustellen, dass ihr euch die neusten Updates für alle installierten Programme besorgt. Braucht ihr dazu weitere Tipps? Der Blogger Mark Blair hat ein paar hilfreiche Ideen, so könnt ihr z. B. eine Liste der auf eurer Website verwendeten Software und Plug-Ins erstellen, um den Überblick über die Versionen und Updates zu behalten. Er empfiehlt auch, auf den Websites der Anbieter erhältliche Feeds zu abonnieren.
  • Schaut regelmäßig in die Log Files

    Diese Angewohnheit bringt viele Vorteile, und einer davon ist die zusätzliche Sicherheit. Es könnte euch manchmal euch überraschen, was ihr dort findet.
  • Testet eure Website auf verbreitete Schwachstellen

    Vermeidet Verzeichnisse mit offenen Zugriffsrechten. Das ist etwa so, als ob ihr die Haustür weit offen lasst und eine Fußmatte auslegt mit der Aufschrift: "Kommt rein und bedient euch!". Prüft auch die Anfälligkeit für XSS (cross-site scripting) und SQL Injections. Zudem solltet ihr gute Passwörter wählen. Das Googlemail Hilfecenter bietet ein paar gute Richtlinien, die grundsätzlich hilfreich bei der Passwortwahl sind.

  • Seid achtsam bei Anwendungen von Drittanbietern

    Wenn ihr in Erwägung zieht, eine Applikation von einem Drittanbieter zu installieren, wie etwa Widgets, Counter, Werbenetzwerke oder Webstat-Services, schaut sie euch vorher genau an. Auch wenn es viele hervorragende Content Provider im Web gibt, lassen sich solche Applikationen auch ausnutzen, etwa durch gefährliche Scripte, die auf eure Besucher abzielen. Stellt sicher, dass die Applikation aus einer seriösen Quelle stammt. Hat der Anbieter eine überzeugende Website mit Support und Kontaktinformationen? Haben andere Webmaster Erfahrung damit gemacht?

  • Verwendet Google site: search, um zu sehen, was indexiert wird

    Dies ist vielleicht sehr nahe liegend, wird aber auch oft übersehen. Es ist immer eine gute Idee, einen Test durchzuführen, um zu überprüfen, ob alles noch normal aussieht. Wenn ihr euch noch nicht so gut mit dem site: search-Operator auskennt: Damit könnt ihr die Suche auf eine bestimmte Site beschränken. Zum Beispiel erhaltet ihr durch die Suche "site:googleblog.blogspot.com" nur die Resultate vom offiziellen Google Blog.

    Sie sind kostenlos und umfassen alle möglichen nützlichen Tools wie den Assistent für den Website-Status und die Möglichkeit zur Einstellung, wie der Googlebot eure Site crawlen soll. Ein weiteres nettes Feature ist, dass euch die Webmaster Konsole detaillierte Informationen anzeigt, wenn Google glaubt, dass eure Website gehacked wurde oder Malware enthält; beispielsweise werden konkret betroffene URLs angezeigt. Sobald ihr glaubt, dass die Malware entfernt wurde, könnt ihr dann über die Webmaster-Tools eine Neubewertung beantragen.

  • Nutzt sichere Protokolle

    Für den Datentransfer solltet ihr SSH und SFTP benutzen anstatt Plaintext-Protokolle wie Telnet oder FTP. SSH und SFTP verwenden Verschlüsselungen und sind daher viel sicherer. Seht euch für diesen und andere nützliche Tipps zum Säubern und Sichern eurer Website doch einmal StopBadware.org an.

    Hier gibt es großartigen Content zum Thema Online-Sicherheit mit Links zu vielen nützlichen Ressourcen. Es ist sicher eine gute Idee, den Blog zu euren Google Reader Feeds hinzuzufügen! :)
  • Support von eurem Webhost

    Viele Webhosts haben einen nützlichen und ansprechbaren Support. Wenn ihr den Verdacht habt, dass etwas nicht stimmt, oder wenn ihr einfach sicher sein wollt, Bescheid zu wissen, besucht deren Website oder ruft sie an.

Wir hoffen, dass ihr diese Tipps hilfreich findet. Wenn jemand von euch selbst ein paar gute Tipps hat, nutzt doch die Kommentarfunktion unten oder beginnt eine Diskussion im Google Diskussionsforum für Webmaster.
Gebt Hackern keine Chance!

Original

Post von Nathan Johns (Übersetzung von Manuel, Search Quality)

Posted:
Wir freuen uns, euch einige neue Features in den Webmaster-Tools vorzustellen.

Ab sofort sind auch Abonnetenstatistiken online einsehbar. Feed-Publisher können sich mittels der Webmaster-Tools über die Abonnenten von Google-Diensten wie Google Reader, iGoogle und Orkut informieren. Wir hoffen, dass dies das Erfassen von Abonnentenstatistiken für unterschiedliche Feed-Formate vereinfacht und eine Verbesserung gegenüber dem Parsen von Server-Logs darstellt.














Wir haben außerdem einige Änderungen am Interface vorgenommen, um den Look and Feel zu verbessern:
  • Es gibt keine Tabs mehr! Ihr könnt mittels der neuen Sidebar navigieren
  • Eine Breadcrumb-Navigation im Kopf der Seite
  • Die Sidebar lässt sich auf- und zuklappen und je nach Wunsch können einzelne Optionen ausgeblendet werden
  • Neue Sidebar-Themen: Übersicht, Diagnose, Statistiken, Links, Sitemaps und Tools
Nicht zuletzt möchten wir darauf hinweisen, dass die Webmaster-Tools ab sofort in 20 Sprachen bereitstehen. Zusätzlich zu US-Englisch, UK-Englisch, Französisch, Italienisch, Spanisch, Deutsch, Niederländisch, brasilianischem Portugiesisch, traditionellem Chinesisch, vereinheitlichtem Chinesisch, Koreanisch, Russisch, Japanisch, Dänisch, Finnisch, Norwegisch, Schwedisch und Polnisch gibt es die Webmaster-Tools nun auch auf Türkisch und Rumänisch.

Loggt euch ein, um euch selbst von den Änderungen zu überzeugen. Bei Fragen oder Feedback könnt ihr gerne in der Rubrik Google Webmaster-Tools unseres Diskussionsforums für Webmaster posten.

Original

Post von Liza Maz, Webmaster Tools Team (Übersetzung von Florian)

Posted:
Wann sind URL-Parameter, wie z. B. Session- oder Tracking-IDs, die Ursache für Duplicate Content?

Wenn Nutzer- oder Tracking-Informationen mittels URL-Parametern gespeichert werden, kann dies zu Duplicate Content führen, da eine einzige Seite über mehrere, verschiedene URLs aufgerufen wird. Dieser Sachverhalt wird auch in Adam Lasniks Post Duplicate Content – Best Practice bei dupliziertem Inhalt angesprochen. Im nachfolgenden Beispiel werden durch URL-Parameter drei URLs erzeugt, die alle auf dieselbe Produkt-Seite verweisen.








Weshalb ist dies von Bedeutung?

Wenn Suchmaschinen identischen Content über verschiedene URLs crawlen, kann dies verschiedene Konsequenzen haben:

  1. Zahlreiche URLs für ein- und dieselbe Seite können die Link-Popularität verschlechtern. Im obigen Beispiel könnten sich z. B. 50 Links auf 3 verschiedene URLs verteilen, anstatt ausschließlich auf eine einzige URL gerichtet zu sein.

  2. In Suchergebnissen können unter Umständen wenig benutzerfreundliche URLs angezeigt werden (sehr lange URLs mit Tracking- oder Session-IDs):
    - Die Wahrscheinlichkeit, dass User auf ein derartiges Suchergebnis klicken, ist geringer
    - Die Markenbildung kann dadurch erschwert werden

Wie wir Usern und Webmastern bei Duplicate Content helfen

Wir haben Algorithmen entworfen, die dazu beitragen, dass Duplicate Content keine Beeinträchtigung für User und Webmaster darstellt.
Wenn wir feststellen, dass Duplicate Content vorliegt, der beispielsweise durch Variationen von URL-Parametern hervorgerufen wird, dann fassen wir diese duplizierten URLs zu einer Gruppe zusammen.

  1. Wir wählen dann jene URL aus, die als am besten geeignet erscheint, die jeweilige Gruppe in den Suchergebnissen zu vertreten.

  2. Schließlich werden bestimmte Eigenschaften der URLs aus der Gruppe, wie z. B. die Link-Popularität, vereinigt und auf die im vorigen Schritt ermittelte URL übertragen.

Das Übertragen bestimmter Eigenschafen der Duplikate auf eine „repräsentative“ URL führt in der Regel dazu, dass wir unseren Usern genauere Suchergebnisse liefern können.

Wie könnt ihr in solchen Fällen von Duplicate Content dazu beitragen, dass Suchmaschinen eure Site richtig interpretieren?

Zunächst gibt es keinen Grund zur Sorge, da die Verwendung von URL-Parametern eine gängige und sinnvolle Praxis ist.

Jedoch gibt es folgende Punkte, die dabei helfen, mögliche Probleme für Suchmaschinen zu minimieren:

  1. Entfernt alle unnötigen URL-Parameter – haltet die URL so einfach wie möglich.

  2. Übermittelt eine Sitemap mit der von euch gewünschten Version jeder URL. Wir können zwar nicht garantieren, dass unsere Algorithmen immer exakt die URL aus der Sitemap in den Suchergebnissen anzeigen, jedoch ist die Sitemap ein guter Hinweis darauf, welche URL von euch bevorzugt wird.

Wie könnt ihr eure Website gestalten, um Duplicate Content zu vermeiden?

Aufgrund der Art und Weise, mit der Google mit Duplicate Content umgeht, müsst ihr euch keine besonderen Sorgen um einen Verlust der Link-Popularität oder des PageRanks machen. Dennoch schlagen wir folgende Schritte vor, um Duplicate Content im Allgemeinen zu reduzieren:

  1. Beim Tracking von Nutzer-Informationen solltet ihr 301-Weiterleitungen verwenden, um von URLs mit Parametern auf die gewünschte Ziel-URL weiterzuleiten.

  2. Nutzt Cookies, um Werte für Affiliate-IDs oder Tracking-IDs zu setzen.

Wenn ihr diese Methode anwendet, könnte ein Auszug aus dem Logfile des Webservers folgendermaßen aussehen:

127.0.0.1 - - [19/Jun/2007:14:40:45 -0700] "GET /product.php?category=gummy-candy&item=swedish-fish&affiliateid=ABCD HTTP/1.1" 301 -

127.0.0.1 - - [19/Jun/2007:14:40:45 -0700] "GET /product.php?item=swedish-fish HTTP/1.1" 200 74

Und das Session-Cookie mit der Nutzer- bzw. Affiliate-ID könnte so aussehen:

category|s:11:"gummy-candy";affiliateid|s:4:"ABCD";

Falls ihr Cookies verwendet, solltet ihr stets darauf achten, dass der eigentliche Content (z.B. die Produkt-Seiten) problemlos angezeigt wird, auch wenn im Browser die Cookies deaktiviert sind.

Wie können wir euch zukünftig noch besser unterstützen?

Vor kurzem haben wir einige Ideen von der „SMX Advanced“-Konferenz veröffentlicht, wo wir das Thema behandeln, wie Suchmaschinen den Webmastern in Bezug auf Duplicate Content helfen können. Falls ihr bei diesem Thema mitreden möchtet, könnt ihr das gerne in unserem Diskussionsforum tun.

Original

Post von Maile Ohye (Übersetzung von Sven, Search Quality)