Matt Cutts Video über die Entfernung von URLs aus dem Google-Index

Heute möchten wir euch ein weiteres Video von Matt Cutts empfehlen. Darin präsentiert der Leiter des Google Webspam-Teams verschiedene Optionen, wie ihr URLs aus Google entfernen könnt. Dies kann in verschiedenen Situationen nützlich sein, in denen ihr bestimmte Daten nicht in Suchergebnissen wiederfinden wollt.

Es gibt allerdings einige beliebte Vorgehensweisen, die nicht ganz zuverlässig sind. So könnt ihr natürlich versuchen zu verhindern, dass eure nicht für die Öffentlichkeit bestimmten Seiten indexiert werden, indem ihr Nofollow- und Noindex-Meta-Tags verwendet, die Seiten in eurer robots.txt-Datei festlegt oder einfach nicht zu ihnen linkt. Matt erklärt anschaulich, warum ihr euch auf diese Methoden nicht vollständig verlassen könnt, denn es gibt einige Ausnahmefälle, wie eure Seiten dennoch unbeabsichtigt in Suchergebnissen landen könnten.

Matt stellt aber auch zwei zuverlässige Methoden vor:

- Verwendung der .htaccess Datei
Wenn ihr sicherstellen wollt, dass bestimmte URLs niemals von Suchmaschinen angezeigt werden, ist die Verwendung der .htaccess-Datei eine gute Wahl. Damit könnt ihr einzelnen Seiten, Verzeichnissen oder ganzen Sites einen Passwortschutz verleihen. Das verhindert gänzlich, dass Suchmaschinen eure geschützten Seiten crawlen und ist daher eine sehr verlässliche Lösung.

- Verwendung der Option zum Entfernen von URLs in den Webmaster-Tools
Selbst wenn eure nicht öffentlichen Daten bereits indexiert worden sind, bieten wir euch in unseren Webmaster-Tools eine sehr leistungsfähige Option: Das Tool zum Entfernen von URLs ermöglicht es euch, sehr gezielt Teile eurer Website auszuwählen, von denen ihr nicht wollt, dass sie in den Google Suchresultaten auftauchen.

Seht euch im Video an, wie Matt dieses Thema im Detail diskutiert:



Wenn ihr weiter über dieses Thema diskutieren möchtet, so könnt ihr dies in unserer Diskussionsgruppe tun.

Post von Manuel, Search Quality

Montag, 31. Dezember 2007 um 11:47

Festliche Grüße vom Webmaster Communication Team




Post von Stefanie, Search Quality

Freitag, 21. Dezember 2007 um 11:45

Das endgültige Schicksal der Supplemental Results

Im Jahr 2003 führte Google einen "Supplemental Index" (zusätzlichen Index) ein, um den Usern zusätzliche Dokumente in den Suchergebnissen anzuzeigen. Die meisten Webmaster werden bei dieser Aussage vielleicht grinsen müssen, da die zusätzlichen Ergebnisse dafür berüchtigt waren, weniger häufig aktualisiert und insgesamt seltener in den Suchergebnissen angezeigt zu werden. Der Supplemental Index diente jedoch einem wichtigen Zweck: Er speicherte eher ungewöhnliche Dokumente, die wir intensiver für ausgefallenere Suchanfragen durchsucht haben. Lange Zeit bestand die einzige Alternative darin, diese Dokumente gar nicht in den Suchergebnissen anzuzeigen, was natürlich unbefriedigend wäre. Im Idealfall durchsuchen wir alle Dokumente jederzeit, um den Erwartungen der User gerecht zu werden.

Dies führte dazu, dass wir das gesamte Konzept des Supplemental Index überarbeitet haben. Wir haben die Crawling-Häufigkeit erhöht und davon unabhängig gemacht, in welchem Index ein Dokument gespeichert wurde. Als schließlich die oben beschriebenen Effekte des Supplemental Index verschwunden waren, konnte der Hinweis "Zusätzliches Ergebnis" in den Suchergebnissen
vor ein paar Monaten entfernt werden - er diente ohnehin nur dazu, anzuzeigen, dass ein ansonsten nützliches Dokument irgendwie "ungewöhnlich" war. Jetzt erreichen wir den nächsten großen Meilenstein auf dem Weg, die künstliche Unterscheidung zwischen den Indizes aufzuheben: Anstatt nur einen Teil unseres Index ausführlich für ausgefallenere Suchanfragen zu durchsuchen, führen wir jetzt für jede Suchanfrage eine Suche im gesamten Index durch.

Aus User-Sicht bedeutet dies, dass euch jetzt noch mehr relevante Dokumente angezeigt werden und dies aus einem viel größeren Ausschnitt des Internets, was sich besonders bei nicht-englischsprachigen Suchanfragen bemerkbar macht. Für Webmaster bedeutet dies, dass nun Seiten von guter Qualität, die bisher weniger sichtbar waren, zukünftig mit größerer Wahrscheinlichkeit in den Suchergebnissen angezeigt werden.


Hinter all dem stehen beeindruckende technische Leistungen: Dokumente aus einem so deutlich größeren Index anzuzeigen, ist alles andere als leicht und bedurfte zahlreicher grundlegender Innovationen. Vor diesem Hintergrund ist es keine Übertreibung, zu behaupten, dass die Google-Suchmaschine weltweit einzigartig ist. Wenn ihr genauer wissen wollt, wie das Ganze funktioniert, müsst ihr euch einfach als Software-Ingenieur bei Google bewerben, weil die Details, wie immer, streng geheim sind.*



* Eigentlich wollte ich eine Standard-Antwort geben: "Wenn ich es euch im Detail gesagt hätte, müsste ich euch zum Schweigen bringen." :) Das Management hat mich jedoch darauf aufmerksam gemacht, dass diese Vorgehensweise mit unserem Motto "Don't be evil" nicht so ganz in Übereinstimmung steht. Ich habe mich deshalb dafür entschieden, geheimnisvoll zu klingen, zusammen mit dem Vorschlag, dass sich gute Software-Ingenieure bei uns bewerben. Was vollkommen ernst gemeint ist: Wenn ihr die technischen Voraussetzungen mitbringt und die Begeisterung, an einer der komplexesten und größten Software-Infrastrukturen der Welt mitzuarbeiten, freuen wir uns,
von euch zu hören.

Wenn ihr darüber diskutieren wollt, dann besucht unser
Forum für Webmaster.

The ultimate fate of supplemental results (English Version)


Post von Yonatan Zunger, Search Quantity Team (Übersetzung von Sven, Search Quality)

Donnerstag, 20. Dezember 2007 um 11:14

Neu: Video-Sitemaps

Um es unseren Usern zu ermöglichen, nach sämtlichen öffentlich verfügbaren Videos zu suchen, hat sich das Google Video-Team mit dem Sitemaps-Team zusammengesetzt und Video-Sitemaps eingeführt – eine Erweiterung des Sitemap-Protokolls, die dabei hilft, eure Videos besser in der Google Videosuche auffindbar zu machen. Durch das Einreichen dieser videospezifischen Sitemap zusätzlich zur herkömmlichen Sitemap könnt ihr alle Videodateien auf eurer Site zusammen mit relevanten Metadaten angeben. Hier ist ein Beispiel:

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
xmlns:video="http://www.google.com/schemas/sitemap-video/1.0">
<url>
<loc>http://www.example.com/videos/some_video_landing_page.html
</loc>
<video:video>
<video:content_loc>
http://www.example.com/video123.flv</video:content_loc>
<video:player_loc allow_embed="yes">
http://www.example.com/videoplayer.swf?video=123<
/video:player_loc>
<video:title>My funny video</video:title>
<video:thumbnail_loc>
http://www.example.com/thumbs/123.jpg</video:thumbnail_loc>
</video:video>
</url>

<url>
<loc>
http://www.example.com/videos/some_other_video_landing_page.html
</loc>
<video:video>
<video:content_loc>
http://www.example.com/videos/video1.mpg</video:content_loc>
<video:description>A really awesome video</video:description>
</video:video>
</url>
</urlset>


Um gleich loszulegen, erstellt eine Video-Sitemap, meldet euch bei den Google Webmaster-Tools an und fügt die Video-Sitemap zu eurem Account hinzu.

Introducing Video Sitemaps (English version)

Post von John Fisher-Ogden, Software Engineer, und Amy Wu, Associate Product Manager (Übersetzung von Manuel, Search Quality)

Dienstag, 18. Dezember 2007 um 16:58

Wir entfernen Feeds aus unseren Suchergebnissen

Die Webmaster unter euch waren vielleicht schon darüber besorgt, dass ihre RSS- oder Atom-Feeds die zugehörigen HTML-Seiten aus Googles Suchergebnissen verdrängen könnten. Das Auftauchen von Feeds in den Suchergebnissen könnte eine dürftige User Experience darstellen:
  1. Feeds erhöhen die Wahrscheinlichkeit, dass User zweimal das gleiche Suchergebnis vorfinden.
  2. Usern, die auf den Feed klicken, entgeht vielleicht wertvoller Content, der nur auf der HTML-Seite vorhanden ist.
Aus diesen Gründen haben wir Feeds aus unseren Suchergebnissen entfernt - mit Ausnahme von Podcasts (Feeds mit Mediendateien). Wir lassen Podcasts weiterhin auftauchen, da wir festgestellt haben, dass es sich bei einer beträchtlichen Anzahl von ihnen um eigenständige Dokumente handelt (d. h. keine HTML-Seite hat den gleichen Content wie der Podcast), oder sie enthalten vollständigere Beschreibungen als die zugehörigen HTML-Seiten. Falls ihr als Webmaster jedoch eure Podcasts aus den Google-Suchergebnissen entfernen möchtet (wenn ihr z. B. einen Vlog habt, dann ist dessen Feed wahrscheinlich ein Podcast), dann könnt ihr Yahoos Anleitung verwenden, um Feeds nicht indexieren zu lassen. Falls ihr FeedBurner verwendet, dann könnt ihr euren Podcast ganz einfach auf "noindex" setzen, indem ihr eine Checkbox anklickt ("Noindex" im "Publicize"-Tab).

Als User fragt ihr euch vielleicht, ob Google Möglichkeiten anbietet, um nach Feeds zu suchen. Die Antwort lautet ja - sowohl mit
Google Reader als auch mit iGoogle könnt ihr Feeds suchen, die ihr eventuell abonnieren möchtet.

Wir sind uns bewusst, dass es neben den Podcasts da draußen einige Feeds gibt, die nicht mit einer HTML-Seite verknüpft sind, und dass es deswegen nicht ganz ideal ist, diese Feeds aus den Suchergebnissen zu entfernen. Für Feedback und Verbesserungsvorschläge zur Handhabung von Feeds sind wir weiterhin offen. Wir freuen uns über eure Kommentare und Fragen in der Rubrik
Crawling, Indexing und Ranking in unserem Diskussionsforum für Webmaster.

Post von Bogdan Stănescu, Google Engineer (Übersetzung von Claudia, Search Quality)

Montag, 17. Dezember 2007 um 17:26

Neu: Content-Analyse, Sitemap-Details und weitere Sprachen

In unseren ständigen Bemühungen, Webmastern bei der Erstellung von hervorragenden Websites zu helfen, haben wir nun zwei neue Features veröffentlicht: Content-Analyse und Sitemap-Details. Wir hoffen, diese Anwendungen unterstützen euch bei der Erstellung von Websites, die man mit einem guten Wein vergleichen könnte, der auch mit der Zeit immer besser wird.

Content-Analyse

Wir wollen euch bei der Verbesserung eurer Website unterstützen, und unser neues Content-Analyse-Tool sollte eine hilfreiche Ergänzung zur Diagnose der Web-Crawls in unseren Webmaster-Tools sein. Die Content-Analyse enthält Rückmeldungen zu Fällen, die die User Experience beeinträchtigen oder die es Google erschweren, eure Site zu crawlen und zu indexieren. Wenn ihr die dort aufgeführten Probleme überprüft, könnte euch dies bei der Beseitigung von potenziellen Problemen beim Crawlen und Indexieren helfen. Dies führt dazu, dass Google und andere Suchmaschinen eure Site besser indexieren können.

Die Übersichtsseite der Content-Analyse im Diagnose-Abschnitt der Webmaster-Tools zeigt drei Hauptkategorien. Klickt auf eines der Themen für weitere Details:

- Probleme mit den “title”-Tags
- Probleme mit der Meta-Beschreibung
- Probleme mit nicht indizierbarem Content




Der Bereich Doppelte "title"-Tags zeigt euch eine Liste mit sich wiederholenden Seiten-Titeln und wie viele Seiten mit dem jeweiligen Titel versehen sind. Momentan stellen wir bis zu 30 mehrfach vorkommende Titel auf der Details-Seite dar. Wenn diese angezeigten doppelten Titel verbessert wurden, wird die Liste aktualisiert und sie zeigt beim nächsten Crawlen weitere Titel an.

In der “title”-Tag-Kategorie weisen wir auch auf besonders lange oder kurze "title"-Tags hin. Hier werden wir "title"-Tags identifizieren, die viel zu kurz (z. B. "IT" ist im Allgemeinen kein guter "title"-Tag) oder viel zu lang sind (“title”-Tags waren nie dazu gedacht, ganze Romane zu enthalten). Ein ähnlicher Algorithmus kennzeichnet potenziell problematische Meta-Beschreibungen. Auch wenn euch diese Hinweise nicht direkt dabei helfen, besser zu ranken (sprich: URLs werden nicht aufgrund einer Titel-Länge X an die Spitze der Suchergebnisse gesetzt), so können sie doch dazu beitragen, dass eure Site mit besseren Titeln und Snippets in den Suchergebnissen angezeigt wird, und dies kann die Besucherzahlen erhöhen.

In der Kategorie Probleme mit nicht-indizierbarem Content machen wir euch auf Bereiche aufmerksam, die nicht so zugänglich für unseren eher textbasierten Crawler sind. Schaut euch die Blogposts zu den Themen Flash und Bilder an und erfahrt, wie ihr diese Techniken suchmaschinenfreundlicher gestalten könnt.


Die Sitemap-Details-Seite

Wenn ihr eine Sitemap eingereicht habt, werdet ihr euch in den Webmaster-Tools über zusätzliche Informationen darüber freuen, wie eure Sitemap verarbeitet wurde. Ihr könnt diese Informationen auf der neu verfügbaren Sitemap-Details-Seite finden, die euch (zusammen mit den bisher verfügbaren Daten für jede eurer Sitemaps) die Anzahl der Seiten angibt, die indexiert wurden. Beachtet, dass die angegebene Anzahl der von eurer Sitemap indexierten Seiten nicht zu 100% genau sein mag, aber sie ist exakter als eine "site:example.com"-Abfrage auf Google.

Die neue Sitemap-Details-Seite zeigt euch auch eine Liste mit Fehlern und Warnmeldungen, die beim Crawlen bestimmter Seiten eurer Sitemap aufgetreten sind . Die Zeit, die ihr vorher mit dem Eintippen maßgeschneiderter Suchanfragen in Google verbracht habt, um die von euer Sitemap indexierten Seiten zu bestimmen, könnt ihr nun zur Verbesserung eurer Site verwenden. Oder ist eure Website bereits Crème-de-la-crème? Dann könnt ihr die zusätzliche Freizeit auch dazu verwenden, eure Klöppelkunst oder euer Vanillekipferl-Rezept zu perfektionieren.

So sieht die neue Sitemap-Details-Seite aus:


Sitemaps sind ein hervorragender Weg, Google über eure wichtigsten Seiten zu informieren, besonders bei neuem oder aktualisierten Content, von dem wir vielleicht noch nichts wissen. Wenn ihr noch keine Sitemap eingereicht habt oder Fragen zum Ablauf habt, seht euch doch für weitere Informationen in unserer Hilfe für Webmaster um.

Die Webmaster-Tools sind jetzt auch in Tschechisch und Ungarisch verfügbar

Wir lieben es, unser Produkt zu erweitern und damit mehr Webmaster in der Sprache ihrer Wahl zu unterstützen. Wir haben keinen Aufwand gescheut, um die von den Webmaster-Tools unterstützten Sprachen um Tschechisch und Ungarisch zu erweitern, zusätzlich zu den 20 anderen Sprachen, die wir bisher schon anbieten. Wir sind hier aber noch nicht am Ende. Bleibt also dran, wenn eure Lieblingssprache derzeit noch nicht verfügbar ist - wir haben das Anliegen, zukünftig noch mehr Sprachen zu unterstützen, und es werden weitere hinzukommen.

Gern würden wir hören, was ihr dazu denkt - bitte besucht doch unser Forum für Webmaster, um zu kommentieren oder Fragen zu stellen.

New: Content analysis and Sitemap details, plus more languages (English version)

Post von Jonathan Simon, Webmaster Trends Analyst (Übersetzung von Manuel, Search Quality)

Freitag, 14. Dezember 2007 um 18:04

Matt Cutts über das Alt-Attribut

Als Matt Cutts , der Leiter des Google Webspam Teams, im Google-Büro in Kirkland vorbeischaute, hat er die Gelegenheit und ein bisschen freie Zeit genutzt, einige Videos aufzunehmen, mit denen er euch Hilfestellung zur suchmaschinenfreundlicheren Gestaltung eurer Website bieten möchte.

Thema des heutigen Videos ist die Verwendung von Alt-Text zur Beschreibung von Bildern. Da die algorithmische Erkennung von Bildinhalten noch immer eine große technische Herausforderung darstellt, könnt ihr Suchmaschinen bei der Indexierung durch treffende Beschreibungen unterstützen. Technisch wird dies umgesetzt, indem ihr dem Bild ein Alt-Attribut hinzufügt, in welchem ihr den Bildinhalt in passenden Worten wiedergebt. Doch lassen wir nun Matt Cutts sprechen, der euch anhand eines selbstgemalten Bildes seiner Katze Emmy das Thema näher bringt.



In unserer Hilfe für Webmaster könnt ihr weitere Informationen zur Verwendung des Alt-Attributs zur Beschreibung von Bildern finden:
Arbeiten mit Flash-, Bild-, und anderen Nicht-Textdateien.
Wenn ihr weitere Fragen habt oder einen Kommentar abgeben möchtet, könnt ihr dies in unserem Diskussionsforum für Webmaster tun.

Post von Juliane, Search Quality

Montag, 10. Dezember 2007 um 12:26

Meta-Tags und Web Search

Indem ihr fehlerfreie Meta-Tags (z. B. aussagekräftige Titel und Informationen für Bots) schreibt und pflegt, könnt ihr Google dabei unterstützen, eure Site noch besser zu crawlen, zu indexieren und in den Suchergebnissen anzuzeigen. Meta-Tags liefern Informationen an unterschiedliche Clients wie beispielsweise Browser oder Suchmaschinen. Dabei solltet ihr beachten, dass jeder Client wahrscheinlich nur jene Meta-Tags interpretiert, die er auch selbst verwendet, und die restlichen Tags ignoriert (obwohl diese Tatsache gelegentlich auch nützlich sein kann).

Im folgenden Beispiel seht ihr, wie Google verschiedene Meta-Tags in HTML interpretiert:

<!DOCTYPE …><head>
<title>Traditional Swiss cheese fondue recipes<title>von Google verwendet, ein korrekter Titel ist für Webmaster hilfreich
<meta name="description" content="Cheese fondue is …">von Google verwendet, wird ggf. in unseren Suchergebnissen angezeigt
<meta name="revisit-after" content="14 days">von Google sowie von anderen größeren Suchmaschinen nicht verwendet
<META name="verify-v1" content="e8JG…Nw=" />optional, in den Google Webmaster-Tools verwendet
<meta name="GoogleBot" content="noOdp">optional
<meta …>
<meta …>
</head>

<meta name="description" content="Eine Beschreibung der Seite">
Dieser Tag enthält eine kurze Beschreibung der aktuellen Seite. Manchmal wird diese Beschreibung als Teil des Snippets verwendet, welches in den Suchergebnissen angezeigt wird. Weitere Informationen dazu findet ihr in unserem Blogpost
"Wie ihr Snippets durch ein Makeover der Meta-Descriptions verbessern könnt" und in der Hilfe für Webmaster: "Wie ändere ich Titel und Beschreibung meiner Website?". Obwohl die Verwendung des Meta-Tags "description" optional ist und keinen Einfluss auf euer Ranking hat, kann eine gute Beschreibung ein besseres Snippet zur Folge haben, was wiederum dabei helfen kann, die Zahl der interessierten Besucher, die über unsere Suchergebnisse kommen, zu steigern.

<title>Der Titel der Seite</title>

Obwohl es sich hier streng genommen um keinen Meta-Tag handelt, wird dieser Tag meist zusammen mit dem Meta-Tag "description" verwendet. Der Inhalt dieses Tags wird generell als Titel in den Suchergebnissen angezeigt (und selbstverständlich auch im Browser des Users, wenn die Seite oder ein Bookmark betrachtet wird). Einige zusätzliche Informationen könnt ihr in unserem Blogpost
"Target visitors or search engines?" finden, besonders unter dem Punkt "Make good use of page titles".

<meta name="robots" content="…, …">

<meta name="googlebot" content="…, …">
Diese Meta-Tags bestimmen, wie Suchmaschinen eure Seite crawlen und indexieren. Der Meta-Tag "robots" legt Regeln fest, die für alle Suchmaschinen gelten, der Meta-Tag "googlebot" legt Regeln fest, die nur für Google gelten. Google interpretiert die folgenden Werte (wenn ihr mehrere Werte angebt, müsst ihr diese durch Kommas trennen):


Die Standard-Regel ist "index, follow" - dies wird verwendet, wenn ihr diesen Tag ganz weglasst oder wenn ihr angebt: content="all". Weitere Informationen über den Meta-Tag "robots" könnt ihr hier finden: "Using the robots meta tag". Außerdem könnt ihr diese Informationen jetzt auch im Header eurer Seiten angeben, indem ihr die HTTP-Header-Anweisung "X-Robots-Tag" verwendet. Dies ist besonders nützlich, wenn ihr das Crawl-Verhalten für andere Dateitypen als HTML optimieren wollt, wie z. B. PDFs, Bilder oder andere Dokumenttypen.

<meta name="google" value="notranslate">

Falls wir feststellen, dass der Inhalt einer Seite in einer Sprache ist, die der User wahrscheinlich nicht versteht, bieten wir in den Suchergebnissen häufig einen Link zu einer automatisierten Übersetzung eurer Seite an. Im Allgemeinen bietet das die Möglichkeit, euren einzigartigen Content einer noch größeren Gruppe an Usern anzubieten. Jedoch kann es vorkommen, dass dieses Verhalten nicht gewünscht ist. Indem ihr diesen Meta-Tag verwendet, könnt ihr signalisieren, dass Google keinen Link zu einer automatischen Übersetzung anzeigen soll. Dieser Meta-Tag hat generell keinen Einfluss auf das Ranking der jeweiligen Seite in einer beliebigen Sprache. Weitere Informationen findet ihr in den
"Google Translator FAQ".

<meta name="verify-v1" content="…">

Dieser von den
Google Webmaster-Tools verwendete Meta-Tag wird auf der Startseite eurer Site verwendet, um euch als Besitzer einer Site in den Webmaster-Tools zu verifizieren (alternativ könnt ihr für diesen Zweck auch eine bestimmte HTML-Datei hochladen). Der Wert für das content-Attribut wird euch in eurem Webmaster-Tools Konto mitgeteilt. Bitte beachtet, dass zwar der Inhalt des Tags exakt mit dem Wert im Webmaster-Tools Konto übereinstimmen muss (einschließlich Groß- und Kleinschreibung), es jedoch kein Rolle spielt, ob ihr den Meta-Tag in XHTML oder HTML angebt oder ob das Format des Tags dem übrigen Format eurer Seite entspricht. Zusätzliche Details dazu könnt ihr hier finden: "Wie lasse ich meine Website durch Hinzufügen eines Meta-Tags zur Startseite meiner Website überprüfen?".

<meta http-equiv="Content-Type" content="…; charset=…">

Der nächste Meta-Tag bestimmt den "content-type" und die Zeichenkodierung der Seite. Wenn ihr diesen Meta-Tag nutzt, müsst ihr sicherstellen, das der Wert des content-Attributs von Anführungszeichen eingeschlossen wird - anderenfalls wird das "charset"-Attribut möglicherweise falsch interpretiert. Wenn ihr diesen Meta-Tag verwendet, solltet ihr natürlich darauf achten, dass euer Content tatsächlich in der angegebenen Zeichenkodierung vorliegt. Auf der Seite
"Google Webauthoring Statistics" findet ihr interessante Zahlen über die Nutzung des Meta-Tags.

<meta http-equiv="refresh" content="…;url=…">

Dieser Meta-Tag schickt den User nach einer bestimmten Zeit zu einer anderen URL, weshalb dieser Tag häufig auch als einfache Form einer Weiterleitung verwendet wird. Diese Art der Weiterleitung wird nicht von allen Browsern unterstützt und kann für die User verwirrend sein. Wenn ihr eure Seite auf einer anderen als der in den Suchergebnissen angegebenen URL platzieren wollt, empfehlen wir euch, in diesem Fall eine serverseitige 301-Weiterleitung zu verwenden. Außerdem wird der Meta-Refresh in einem Dokument des W3C als veraltet aufgelistet:
"Techniques and Failures for Web Content Accessibility Guidelines 2.0".

(X)HTML und Großschreibung

Google kann sowohl HTML- als auch XHTML-Meta-Tags interpretieren (unabhängig vom restlichen Format auf der Seite). Außerdem spielt die Groß- oder Kleinschreibung bei Meta-Tags generell keine Rolle - wir behandeln <TITLE> und <title> gleichwertig. Die einzige Ausnahme ist der "verify-v1"-Meta-Tag: Bei diesem spielt die Groß- oder Kleinschreibung eine Rolle.


revisit-after Sitemap lastmod und changefreq

Manchmal fügen Webmaster unnötigerweise ein "revisit-after"-Tag in ihre Seiten ein, um den Crawling-Rhythmus der Suchmaschinen zu beeinflussen. Dieser Meta-Tag wird von Suchmaschinen jedoch weitgehend ignoriert. Wenn ihr die Suchmaschinen über Änderungen an euren Seiten informieren wollt, solltet ihr eine
XML-Sitemap verwenden. In dieser Datei könnt ihr das Datum der letzten Änderung an euren Seiten und die generelle Häufigkeit von Updates auf eurer Site spezifizieren.

Falls ihr weitere Fragen zu den erwähnten Meta-Tags habt, könnt ihr diese in unserem
Diskussionsforum für Webmaster stellen.

Update: Falls ihr es verpasst haben solltet: Weitere häufige Fragen wurden in unserem
englischen Diskussionsforum beantwortet.

Answering more popular picks: meta tags and web search (English Version)

Post von John Mueller, Webmaster Trends Analyst, Zürich (Übersetzung von Sven, Search Quality)

Donnerstag, 6. Dezember 2007 um 17:25

Informationen zum Kauf und Verkauf von Links, die PageRank vererben

Wir haben das Ziel, unseren Usern durch sinnvolle und akkurate Suchergebnisse ein bestmögliches Sucherlebnis zu bieten. Wir arbeiten gern mit Webmastern zusammen, und der zusätzliche Nutzen dieser Zusammenarbeit besteht darin, dass durch hochwertigeren und zugänglicheren Content sowohl das Web als auch unser Index an Qualität gewinnt. Dies gibt uns wiederum die Möglichkeit, unseren Usern relevantere Suchergebnisse zu liefern.

Falls Webmaster jedoch Links kaufen und verkaufen, um das Suchmaschinenranking zu manipulieren, behalten wir uns das Recht vor, die Qualität unseres Indexes zu schützen. Das Kaufen und Verkaufen von Links, die PageRank weitergeben, verstösst gegen unsere
Richtlinien für Webmaster. Solche Links können die Relevanz der Suchergebnisse verzerren, indem sie Folgendes verursachen:

- Ungenauigkeit: Verfälschte Popularität und Links, die nicht in erster Linie auf Verdienst, Relevanz oder Autorität basieren.
- Unausgewogenheit: Unfairer Vorteil in unseren organischen Suchergebnissen für Websites mit dem größten Geldbeutel.

Um Googles Qualitätsrichtlinien zu erfüllen, sollten bezahlte Links mit einem "rel=nofollow" gekennzeichnet oder durch andere Methoden deutlich gemacht werden, wie etwa durch eine Weiterleitung über eine Seite, die mittels robots.txt ausgeschlossen ist. Hier sind weitere Informationen, die unsere Haltung gegenüber dem Kauf und Verkauf von Links, die PageRank vererben, erklären:

Februar 2003: Googles offizielle Qualitätsrichtlinien empfehlen bereits seit mehreren Jahren: "Nehmen Sie nicht an Linktauschprogrammen teil, die dazu dienen, Ihr Ranking oder Ihren PageRank zu verbessern".

September 2005: Ich poste auf meinem Blog über Textlinks und PageRank.

Dezember 2005: Ein weiterer Post auf meinem Blog diskutiert dieses Thema und sagt:
Viele Leute, die am Suchmaschinenranking arbeiten, sind der Meinung, dass das Verkaufen von Links die Qualität von Links im Web mindern könnte. Falls ihr einen Link kaufen oder verkaufen wollt - nicht für Suchmaschinen, sondern um Besucher oder Traffic zu erhalten - dann könnt ihr diesen mit einer einfachen Methode kennzeichnen (mit dem nofollow-Attribut). Googles Haltung zum Verkauf von Links ist ziemlich eindeutig, und wir sind ziemlich akkurat darin, Linkverkäufer sowohl algorithmisch als auch manuell zu erkennen. Sites, die Links verkaufen, verlieren das Vertrauen der Suchmaschinen.
September 2006: In einem Interview mit John Battelle mache ich deutlich, dass Google das Verkaufen von Links, die Suchmaschinen beeinflussen, als einen Verstoß gegen unsere Qualitätsrichtlinien betrachtet.

Januar 2007: Ich poste auf meinem Blog, um die Webmaster daran zu erinnern, dass Links in dafür bezahlten Posts in einer Weise gesetzt werden sollten, die keinen Einfluss auf Suchmaschinen hat.

April 2007: Wir bieten Usern einen Weg, bezahlte Links an Google zu melden.

Juni 2007: Ich spreche bezahlte Links in meiner Auftaktdiskussion auf der Search Marketing Expo (SMX) in Seattle an. Hier ist ein Videoauszug der Diskussion. Er dauert nicht einmal eine Minute, stellt jedoch heraus, dass Google dazu bereit ist, sowohl algorithmische als auch manuelle Erkennung von bezahlten Links, die gegen unsere Qualitätsrichtlinien verstoßen, einzusetzen, sowie, dass wir bereit sind, gegen solche Links in Zukunft schärfer vorzugehen.

Juni 2007: Ein Post auf dem offiziellen Google Webmaster Blog betont: "Das Kaufen und Verkaufen von Links mit dem Ziel, die Suchergebnisse zu manipulieren und Suchmaschinen in die Irre zu führen, verstößt gegen unsere Richtlinien". Der Post stellt auch ein neues offizielles Formular in Googles Webmaster-Tools vor, über das User bezahlte Links melden können.

Juni 2007: Google fügt zusätzliche spezielle Informationen, wie man bezahlte Links melden kann und welche Art von Link-Programmen gegen unsere Qualitätsrichtlinien verstoßen, zu unserer offiziellen Webmasterdokumentation hinzu.

August 2007: Ich stelle Googles offizielle Position in Bezug auf das Kaufen und Verkaufen von Links auf einem Panel über bezahlte Links bei der Search Engine Strategies (SES) in San Jose dar.

September 2007: In einem Post auf meinem Blog gebe ich einen Rückblick auf die SES San Jose Konferenz, und ich veröffentliche meine Präsentation (PowerPoint-Link).

Oktober 2007: Google kommentiert einen Forbes-Artikel mit dem Titel "Google Purges the Payola".

Oktober 2007: Google bestätigt gegenüber Search Engine Land offiziell, dass wir in dieser Sache stärkere Maßnahmen ergreifen, darin eingeschlossen die Verringerung des Toolbar-PageRanks von Sites, die Links verkaufen, welche PageRank vererben.

Oktober 2007: Eine E-Mail von mir an das Search Engine Journal macht auch deutlich, dass Google härter gegen den Kauf und Verkauf von Links, die PageRank weitergeben, vorgegangen ist.

Wir wissen euer Feedback, das wir zu diesem Thema erhalten haben, zu schätzen. Hier sind einige der vorherrschenden Fragen:

F: Ist das Kaufen oder Verkaufen von Links, die PageRank weitergeben, ein Verstoß gegen Googles Richtlinien für Webmaster? Warum?
A: Ja, es ist ein Verstoß gegen die Richtlinien aus den oben geschilderten Gründen. Ich habe auch kürzlich einen Post auf meinem eigenen Blog veröffentlicht, der an einem Beispiel beschreibt, weshalb Suchmaschinen solche Links nicht berücksichtigen wollen. Zu einem ernsthaften medizinischen Thema (Hirntumore) haben wir aufgezeigt, dass es Leute gibt, die dafür bezahlt wurden, über die Behandlung von Hirntumoren zu schreiben, auch wenn sie über diese Art der Therapie vorher noch nie etwas gehört hatten. Wir sahen mehrere Fälle, in denen diese Leute nicht einmal einfache Recherche angestellt hatten (von einer Rechtschreibkorrektur ganz zu schweigen!), bevor sie den bezahlten Post veröffentlichten.

F: Betrifft dieses Thema nur Google?
A: Nein. Alle großen Suchmaschinen haben sich gegen das Kaufen und Verkaufen von Links, die Suchmaschinen beeinflussen, ausgesprochen. Für den Forbes-Artikel "Google Purges The Payola" hat Andy Greenberg auch andere Suchmaschinen zu ihrer Vorgehensweise befragt - mit einstimmigem Ergebnis. Aus dem Artikel:
Suchmaschinen können diese Art der bezahlten Popularität nicht ausstehen. Googles Richtlinien untersagen Linkkauf für den Zweck, das Ranking künstlich zu pushen. Andere Suchmaschinen, darunter Ask, MSN, and Yahoo!, die Googles auf Links basierendes Ranking imitieren, raten auch davon ab, Links zu kaufen oder zu verkaufen.
Andere Suchmaschinen haben sich dazu auch einzeln geäußert, wie z. B. ein Suchmaschinenrepräsentant von Microsoft, der sich kürzlich in einem Interview wie folgt äußerte:
Die Realität zeigt, dass die meisten bezahlten Links a.) offenkundig nicht objektiv und b.) sehr oft irrelevant sind. Wenn ihr nach dem Einsatz solcher Links fragt, dann lautet die Antwort auf jeden Fall, dass hier ein Risiko besteht. Wir werden solche falschen Links, die wenig zu einer guten Usererfahrung beitragen und tatsächlich nur dazu da sind, das System zu betrügen, nicht tolerieren.
F: Haben wir daher beobachten können, dass einige Sites, die Links verkaufen, eine Herabsetzung des PageRanks in der Google-Toolbar erhalten haben?
A: Ja. Wenn eine Site Links verkauft, dann kann dies unsere Meinung über den Wert einer Site beeinflussen oder dazu führen, dass diese Site unseren Trust verliert.

F: Was kann der Eigentümer einer Website tun, falls seine Site Links verkauft hat, die PageRank weitergeben, und der PageRank dieser Site in der Google Toolbar herabgesetzt wurde?
A: Der Eigentümer der Website kann die Verstöße gegen die Richtlinien für Webmaster beheben und einen Antrag auf die erneute Überprüfung seiner Website in Googles Webmaster-Tools stellen. Bevor ihr eine solche Anfrage stellt, vergewissert euch bitte, dass alle verkauften Links entweder keinen PageRank mehr vererben oder entfernt wurden.

F: Versucht Google Webmastern vorzuschreiben, wie sie ihre Website betreiben?
A: Nein. Wir geben Webmastern, die in Google erfolgreich sein möchten, Hilfestellung. Wie ich bereits in dem Video meiner Diskussion im Juni 2007 betone, steht es Webmastern frei, ihre Sites so zu gestalten, wie es ihnen gefällt. Google jedoch behält sich das Recht vor, die Qualität und Relevanz unseres Indexes sicherzustellen. Nach unserem Kenntnisstand haben alle großen Suchmaschinen eine ähnliche Haltung in dieser Sache angenommen.

F: Versucht Google gegen andere Arten der Werbung vorzugehen, die dazu genutzt wird, Traffic zu generieren?
A: Nein, keinesfalls. Unsere Richtlinien für Webmaster sagen deutlich aus, dass ihr Links zur Erzeugung von gezieltem Traffic verwenden könnt. In der Präsentation, die ich im August 2007 gegeben habe, hebe ich sogar verschiedene Beispiele von Google-unabhängigen Werbemaßnahmen hervor, die vollkommen mit unseren Richtlinien übereinstimmen. Wir möchten lediglich die Kennzeichnung von bezahlten Links erreichen, um zu verhindern, dass diese Links einen Einfluss auf Suchmaschinen haben.

F: Ich weiss, dass eine bestimmte Site Links kauft und verkauft. Wie kann ich diese Information an Google weiterleiten?
A: Lest unseren offiziellen Blogpost über das Melden von bezahlten Links vom Beginn dieses Jahres 2007. Wir haben tausende von Meldungen innerhalb von wenigen Monaten erhalten, aber wir freuen uns weiterhin über mehr Mitteilungen. Wir wissen euer Feedback zu schätzen, da es uns hilft, sowohl sofortige Maßnahmen zu ergreifen als auch unsere bestehende algorithmische Erkennung zu verbessern. Wir verwenden diese Daten auch dazu, neue Algorithmen zu trainieren, um bezahlte Links, die gegen unsere Qualitätsrichtlinien verstoßen, zu erkennen.

F: Kann ich darüber weitere Informationen erhalten?
A: Sicher. Ich habe Anfang dieses Jahres mehr Antworten zu bezahlten Links gepostet, falls ihr daran interessiert seid. Solltet ihr noch weitere Fragen haben, dann beteiligt euch an der Diskussion in unserem Forum für Webmaster.

Information about buying and selling links that pass PageRank (English version)

Post von Matt Cutts and Maile Ohye (Übersetzung von Claudia, Search Quality)

Mittwoch, 5. Dezember 2007 um 15:34

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.