Posted:
Eine unserer Initiativen 2006 im Bereich Kommunikation war die Benachrichtigung mancher Webmaster im Falle eines Verstoßes gegen unsere Richtlinien für Webmaster (z.B. aufgrund des Einsatzes einer "besonders suchmaschinenfreundlichen" Software, die als Extra doorways generiert). Nicht wenige dieser Emails an prinzipiell integre Webmaster gingen auf Spam Reports unserer User zurück.

Wir sind stolz auf unsere deutschsprachigen Nutzer, die uns im Interesse der gesamten Internet-Community über möglichen Mißbrauch durch einige wenige opportunistische Webmaster informieren. Wir schätzen das um so mehr, als PageRank (und somit Google Search) auf einem demokratischen Prinzip basiert, das vom Webmaster ausgeht, der durch Verlinkung ein positives Votum für andere Webseiten abgibt.

Im Jahr 2007 wollen wir als Erweiterung und Ergänzung dieses demokratischen Konzepts das Wissen unserer User über Google-konforme Webmasterpraktiken weiter erhöhen (u.a. mithilfe dieses deutschsprachigen Webmasterblogs). Nicht zuletzt durch die aktive Einflußnahme von Userseite läßt sich ein Prozeß anstoßen, an dessen Ausgangspunkt der informierte User steht, der Formen von Webspam überhaupt identifizieren kann und sich zudem via Spam Report dagegen einsetzt. Denn zum einem profitieren alle Nutzer von einer maximalen Suchqualität. Zum anderen werden die "Spammaster" unter den Webmastern merken, daß sich Ranking-Manipulationsversuche nicht lohnen.

Unser Spam Report Formular liegt in zwei unterschiedlichen Varianten vor: Der authentifizierte Spam Report, der eine Registrierung über die Webmaster-Tools voraussetzt, sowie der nicht-authentifizierte Spam Report. Derzeit gehen wir jedem Spam Report von registrierten Usern nach. Bei Spam Reports, die ohne Authentifizierung gesendet werden, wird zunächst deren Priorität bestimmt und bei hoher Priorität werden diese ebenfalls analysiert.

Wenn sich also einmal die Vermutung aufdrängt, daß das Ranking eines Suchergebnisses nicht durch Contentarbeit oder legitime SEO verdient wurde, dann ist das die perfekte Gelegenheit für einen Spam Report. Denn jeder einzelne Spam Report unterstützt uns beim kontinuierlichen Optimieren unserer Suchalgorithmen.

An weiteren Informationen interessiert? Im folgenden gibt es Antworten auf die drei häufigsten User-Fragen.

FAQs zum Thema Spam Reports:

F: Was passiert mit einem authentifizierten Spam Report bei Google?
A. Authentifizierte Spam Reports werden analysiert und dann für die Evaluierung neuer Spamerkennungsalgorithmen sowie zur Identifizierung von Webspam-Trends verwendet. Ziel dabei ist es, zukünftig alle Seiten mit vergleichbaren Manipulationsversuchen automatisch zu detektieren und sicherzustellen, daß unsere Algorithmen diese Seiten entsprechend im Ranking listen. Wir wollen uns also nicht auf ein ineffizientes Katz-und-Maus-Spiel mit dem einzelnen Webmaster einlassen, der zu tief in die SEO-Trickkiste gegriffen hat.

F: Warum sind in manchen Fällen keine unmittelbaren Konsequenzen eines Spam Reports erkennbar?
A: Wir bei Google sind stets bemüht, auf Engineering-Ebene unsere Spamerkennungsalgorithmen zu optimieren. Gleichzeitig gehen wir jedoch auch einzelnen Webseiten nach, auf die wir per Spam Report hingewiesen werden. Manchmal sind unsere Maßnahmen jedoch nicht unmittelbar für Außenstehende erkennbar. Daher ist es auch für das Evaluiert-Werden einer URL nicht nötig, mehrere Spam Reports für ein und dieselbe URL an uns zu schicken. Es gibt viele Gründe, warum die Reaktion von Google auf einen Spam Report für User nicht direkt nachvollziehbar ist. Die folgenden Gründe sind nur einige davon:

  • Es kann sein, daß Google eine bestimmte Manipulationstechnik bereits berücksichtigt. Beteiligt sich zum Beispiel eine Seite an einem regen Linktausch, dann messen wir möglicherweise den unverdienten Backlinks bereits weniger Gewicht bei, und somit erscheint die Seite aus ganz anderen Gründen in den SERPs. Allerdings ist dies für unsere Nutzer nicht unmittelbar offensichtlich. Oder Google berücksichtigt zum Beispiel beim Ranking einer Webseite bereits ein Phänomen wie etwa das mißbräuchliche Wiederholen von keywords. In einem solchen Fall bestünde keine Veranlassung zu weiteren Maßnahmen, denn das keyword stuffing hat in einem solchen Fall nur einen Effekt auf die Optik der Seite.
  • Ein Ausschluß aus den Google SERPs ist nur eine der möglichen Konsequenzen eines Spam Reports. Eventuell vergeben wir einer Seite auch eine „Gelbe Karte“, bei der die Seite kurzfristig nicht im Index auffindbar ist. Ignoriert ein Webmaster jedoch dieses Signal, so kann eine „Rote Karte“ mit längerfristigerem Effekt folgen. Es ist also möglich, daß eine Seite bereits wegen einer nicht-akzeptierten Technik aufgefallen ist und daß wir darüber bereits mit dem entsprechenden Webmaster kommunizieren bzw. eine andere Vorgehensweise als die Entfernung aus dem Index gewählt haben.
  • Vielleicht ist auch bloß etwas mehr Geduld gefragt, bis Anpassungen der Algorithmen ausgetestet sind oder bis der ausgewiesene PageRank aktualisiert wird.
  • Es gibt auch den Fall, daß Google an einer Problemlösung auf einer generelleren Ebene arbeitet und deswegen zunächst im Einzelfall nichts unternimmt.
  • Möglicherweise erweist sich ein Spam Report auch als unberechtigt. Dies könnte etwa dann der Fall sein, wenn sich herausstellt, daß die Motivation des Senders einzig darin bestand, den direkten Konkurrenten vom besseren Ranking zu verbannen.

F: Kann ein User mit Feedback für einen Spam Report rechnen?
A: Wir wissen um diesen Wunsch, z.B. als Bestätigung oder einfach als Zeichen, daß der Spam Report nicht im System untergegangen ist. Gerne täten wir das. Doch wir glauben, daß wir mehr erreichen, wenn wir auf der Datengrundlage der eingegangenen Spam Reports an der Robustheit unserer Algorithmen feilen. Allerdings denken wir darüber nach, wie wir zukünftig all unseren Nutzern Feedback kommunizieren können.

Englische Version

Posted:
Am 14. Februar 2007 hielt Vanessa Fox auf der Search Engine Strategies Konferenz in London einen Vortrag über das erfolgreiche Erstellen von Websites. Wenn ihr die Konferenz oder den Vortrag verpasst habt, so bietet euch der folgende Artikel einige wertvolle Tipps, wie ihr eure eigene Website suchmaschinenfreundlicher gestalten könnt.

Stellt sicher, dass User und Suchmaschinen auf eure Seite zugreifen können!
  • Der Link Crawling-Fehler in den Webmaster-Tools führt zu einer Auflistung der Seiten, die der Googlebot aufgrund von Serverfehlern nicht durchsuchen konnte. Sollte der Googlebot Seiten nicht crawlen können, so werden diese nicht indexiert und können möglicherweise auch dem User beim Zugriff Probleme bereiten.
  • Sorgt dafür, dass die robots.txt-Datei nicht versehentlich den Crawler von Seiten abweist,die indexiert werden sollen. Ihr könnt URLs, die der Suchroboter nicht crawlen konnte, mithilfe der Webmaster-Tools ermitteln. Das robots.txt-Analyse-Tool ermöglicht es euch zu testen, ob die robot.txt-Datei dem Crawler die Verzeichnisse zugänglich macht, die ihr indexieren lassen wollt.
  • Überprüft den Googlebot activity report, um festzustellen, wie lange der Download eurer Website dauert. Auf diese Weise fallen euch gleich Geschwindigkeitsprobleme innerhalb des Netzwerks auf.
  • Ist auf Teilen eurer Website, die indexiert werden sollen, eine Anmeldung notwendig, so achtet darauf, dass auf den Seiten ohne Anmeldung durchsuchbarer Content zur Verfügung steht. So könnt ihr zum Beispiel einige Auszüge eines Artikels außerhalb des Registrierungsbereichs plazieren und diese mit einem Link versehen, der zum vollständigen Artikel innerhalb des Anmeldebereichs führt.
  • Wie durchsuchbar ist eure Seite? Wie wird eure Seite in Browsern für Handys oder in Screenreadern dargestellt? Testet eure Website in verschiedenen Umgebungen und vergewissert euch, dass der Content auch für Nutzer dieser Techniken zugänglich ist.
Überprüft, ob der Inhalt eurer Website lesbar ist!
  • Ladet eure Seite in einem Textbrowser oder alternativ in einem Browser, in dem Javascript deaktiviert ist und Bilder nicht angezeigt werden. Könnt ihr immer noch euren Text und die Navigationselemente sehen?
  • Sorgt dafür, dass ihr für die Anzeige von Text und für Navigationselemente auf eurer Seite HTML verwendet und Text nicht in Bildern darstellt. Der Googlebot kann in Bildern enthaltenen Text nicht erkennen. Vorhandene Bilder sollten mit Beschreibungen im Alt-Tag versehen werden.
  • Benutzt nur Flash, wenn es unbedingt erforderlich ist. Vor allem sollte nicht der gesamte Text in Flash dargestellt sein. Ideal bei einer auf Flash basierenden Website ist es, wenn in HTML geschriebener Text mit vereinzelten Flash-Animationen kombiniert wird. Wenn ihr Flash verwendet, so erstellt die Navigation eurer Website in HTML.
Beschreibt den Inhalt eurer Seite!
  • Sämtliche Seiten sollten jeweils einen eindeutigen und aussagekräftigen Title-Tag und Meta-Tag zur Beschreibung der Seiten aufweisen.
  • Achtet darauf, dass die wichtigsten Elemente eurer Website (zum Beispiel euer Firmenname und das Thema) in HTML dargestellt sind.
  • Vergewissert euch, dass die Suchbegriffe, die Nutzer zum Auffinden eurer Website verwenden könnten, auch tatsächlich enthalten sind.
Eure Seite sollte durchsuchbar sein!
  • Vermeidet möglichst Frames. Eine Frame-basierte Seite besteht aus mehr als einer URL, was das Indexieren zusätzlich erschwert.
  • Ihr solltet gewährleisten, dass der Server eine 404 Fehlermeldung für jede nicht gefundene Seite ausgibt. Allerdings sind manche Server so konfiguriert, dass sie mit einem 200 Status-Code antworten. Dies kann dann dazu führen, dass Suchmaschinen versuchen, nicht existierende Seiten zu crawlen und zu indexieren anstelle der gültigen und aktuellen Seiten der Website.
  • Vermeidet ein endloses Crawlen eurer Website. Wenn eure Website beispielsweise einen unendlich fortlaufenden Kalender hat, so verseht die Links zu den dynamisch generierten Kalenderseiten mit einem "nofollow"-Attribut. Da jede Suchmaschine das nofollow-Attribut anders interpretiert, ist es empfehlenswert, die Informationen auf den entsprechenden Hilfeseiten zu lesen. Ihr könnt auch den nofollow-Meta-Tag nutzen, um sicherzustellen, dass der Crawler den Links auf einer bestimmten Seite nicht folgt oder benutzt die robots.txt-Datei, damit Suchmaschinen keinen Links folgen, die sie zu Endlosschleifen führen würden.
  • Stellt sicher, dass für das Crawlen keine Session-IDs oder Cookies verwendet werden müssen.
  • Vermeidet bei dynamischen Seiten ein Übermaß an Parametern und verwendet stattdessen suchmaschinenfreundliche URLs. Einige Content Management Systeme erlauben einen solchen suchmaschinenfreundlichen Rewrite von URLs.
Schaut euch auch unsere Empfehlungen für das Erstellen einer Google-freundlichen Website an und nutzt die Richtlinien für Webmaster, um mehr Informationen über die Erstellung von benutzer- und suchmaschinenfreundlichen Websites zu erfahren.

Original
Post von Vanessa Fox (Übersetzung von Juliane)

Posted:
Ihr habt danach gefragt und wir haben darauf reagiert: Über den link:-Operator hinaus haben wir unseren Service zur Abfrage von Links, die auf Eure Seite zeigen, erweitert. Nun könnt Ihr auch unsere Webmaster-Tools nutzen, um Euch eine viel größere Stichprobe an Links zu den Seiten Eures Webauftritts anzusehen als dies bisher mit dem link:-Operator möglich war. Anders als bei diesem sind die Daten nun umfangreicher und können klassifiziert, gefiltert und heruntergeladen werden. Ihr müsst zum Betrachten dieser Informationen nur verifizieren, dass Ihr der Besitzer oder die Besitzerin des entsprechenden Webauftritts sind.

Um diese Daten für Euch noch nützlicher zu machen, unterscheiden wir zwischen externen und internen Links. Doch welche Links gehören in welche Kategorie?

Was sind externe Links?

Externe Links sind Links von Webseiten, die nicht zu Eurer Webdomain gehören. Wenn Ihr Euch zum Beispiel die Links für http://www.google.com/ anschaut, werden all die Links, die nicht von Seiten irgendeiner Subdomain von http://www.google.com/ (wie z.B. http://video.google.com/) kommen, als externe Links gelistet.

Was sind interne Links?

Interne Links dagegen sind diejenigen Links auf Seiten, die zu Eurer eigenen Domain gehören. Wenn Ihr Euch zum Beispiel die Links für http://www.google.com/ anschaut, werden all diejenigen Links, die von Seiten irgendeiner Subdomain von http://www.google.com/ kommen, als interne Links gelistet.

Wie Ihr Euch Links zu Seiten Eures Webauftritts anschauen könnt

Ihr könnt Euch die Links zu Eurer Webseite ansehen, indem Ihr einen verifizierten Webauftritt in Eurem Webmaster-Tools-Account auswählt und auf den neuen Reiter "Links" klickt. Nun seht Ihr auf der linken Seite zwei Optionen: "Externe Links" und "Interne Links", wobei die Option "Externe Links" dabei bereits vorausgewählt ist. Eine Tabelle mit den Seiten Eures Webauftritts wird aufgeführt (s.u.). In der ersten Spalte sind Eure Seiten gelistet, in der zweiten Spalte jeweils die Anzahl der externen Links, die auf die jeweilige Seite zeigen. (Möglicherweise werden hierbei nicht 100% der externen Links auf die jeweilige Seite angezeigt.)

Außerdem könnt Ihr der Tabelle auch die Gesamtzahl der externen Links entnehmen, die wir Euch anzeigen können.

Wenn Ihr nun in dieser Übersicht die verlinkten Zahlen anklickt, gelangt Ihr zu einer detaillierten Auflistung der Links für die jeweilige Seite. In dieser Detailansicht seht Ihr eine Liste aller externen Seiten, die auf die ausgewählte Seite Eures eigenen Webauftritts verlinken, sowie den Zeitpunkt, zu dem wir diese Links das letzte Mal gecrawlt haben. Da die Option "Externe Links" ausgewählt ist, werden hier natürlich nur die externen Links zu Euren Seiten angezeigt.


Wie Ihr Links zu einer bestimmten Seite Eures Webauftritts finden könnt

Um die Links zu einer bestimmten Seite Eures Webauftritts zu finden, müsst Ihr zunächst einmal diese Seite in der Übersichtsansicht mit der Liste aller Seiten finden. Dazu könnt Ihr durch die Tabelle navigieren oder - viel schneller - den praktischen "Eine Seite suchen"-Link oben in der Tabelle nutzen. Gebt in das Feld einfach die URL ein und klickt dann "Siehe Details". Es reicht meist aus, nur einen Teil der URL anzugeben. Sucht Ihr zum Beispiel die Seite mit der URL http://www.google.com/?main, könnt Ihr "?main" in das Formularfeld eintippen. Das bringt Euch direkt zur Detailansicht mit den Links für die Seite http://www.google.com/?main.

Wie Ihr Euch interne Links ansehen könnt

Um interne Links zu Seiten Eures Webauftritts anzusehen, klickt Ihr auf "Interne Links" in der Auswahl auf der linken Seite. So gelangt Ihr zu der Übersichtstabelle, die (wie die Tabelle für die externen Links) Informationen über Eure Seiten auflistet, auf die interne Links zeigen.

In dieser Ansicht für interne Links könnt Ihr die Daten auch noch weiter filtern. Ihr könnt Euch etwa die Links von allen Subdomains Eurer Domain oder lediglich die Links von einer bestimmten Subdomain anzeigen lassen. Wenn Ihr zum Beispiel gerade die internen Links zu http://www.google.com/ betrachtet, könnt Ihr Euch entweder die Links aller Subdomains (z.B. http://video.google.com/) auflisten lassen oder nur Links von Seiten auf http://www.google.com/.

Wie Ihr Euch Linkdaten herunterladen könnt

Es gibt drei verschiedene Möglichkeiten, Linkdaten für Eure Seite herunterzuladen: Erstens könnt Ihr die Tabelle, von der aus Ihr zu allen Übersichts- und Detailansichten gelangt, herunterladen. Am nützlichsten ist vermutlich die zweite Möglichkeit, nämlich die Liste der externen Links zu Euren Seiten. Hierbei könnt Ihr Euch die Liste aller zu Eurer Seite zeigenden Links zusammen mit Informationen über die Seite, auf die sie verweisen, sowie über den letzten Crawling-Zeitpunkt herunterladen. Drittens bieten wir einen ähnlichen Service zum Herunterladen der internen Links Eurer Seiten an.

Wir begrenzen das Datenvolumen, das Ihr für die beiden Linktypen herunterladen könnt (z.B. könnt Ihr derzeit bis zu einer Millionen externe Links herunterladen). Google kennt mehr Links, als anzeigt werden, aber die angezeigte Stichprobe ist dennoch wesentlich umfangreicher als die Anzahl von Links, die der link:-Operator gegenwärtig anbietet.

Besucht uns doch einfach auf den Seiten der Webmaster-Zentrale und erfahrt mehr über die Links Eurer Seite!

Posted:

Anfang Dezember letzten Jahres wurden auf der Search Engine Strategies Konferenz im kalten Chicago viele von uns Googlern auf Duplicate Content angesprochen. Da wir uns bewusst sind, dass dies ein facettenreiches und auch ein wenig verwirrendes Thema ist, wollen wir dazu beitragen, einige Unklarheiten zu beseitigen.

Was ist Duplicate Content?

Als Duplicate Content werden üblicherweise Contentbereiche bezeichnet, die anderem Content - domainintern oder domainübergreifend - entweder genau gleichen oder diesem deutlich ähnlich sind. Meistens ist dies unbeabsichtigt oder zumindest kein böser Wille: Foren, die sowohl reguläre als auch für Handys optimierte Seiten generieren, Artikel in Onlineshops, die unter mehreren URLs gelistet (und – schlimmer noch – verlinkt) werden, usw. In manchen Fällen wird versucht, Content domainübergreifend zu duplizieren, um Suchergebnisse zu manipulieren oder um mehr Traffic mittels populärer oder „long-tail“ Suchanfragen zu generieren.

Was ist kein Duplicate Content?

Obwohl wir ein praktisches Übersetzungs-Tool anbieten, sehen unsere Algorithmen es nicht als Duplicate Content an, wenn der gleiche Artikel sowohl auf Englisch als auch auf Spanisch zur Verfügung steht. Ebenso müsst ihr euch keine Sorgen machen, dass gelegentlich auftretende doppelte Snippets (Zitate etc.) als Duplicate Content angesehen werden.

Warum ist Duplicate Content ein Thema für Google?

Unsere User wollen gewöhnlich einen vielfältigen Querschnitt an einzigartigem Content für ihre Suchanfragen erhalten. Sie sind verständlicherweise verärgert, wenn sie im Wesentlichen den gleichen Content innerhalb der Suchergebnisse sehen. Außerdem stört es Webmaster, wenn wir eine komplexe URL (example.com/contentredir?value=shorty-george⟨=en) anstatt der von ihnen bevorzugten schönen URL zeigen (example.com/en/shorty-george.htm).

Was macht Google mit Duplicate Content?

Während des Crawlens und bei der Ausgabe von Suchergebnissen achten wir sehr darauf, Seiten mit verschiedener Information zu indexieren und anzuzeigen. Wenn es z. B. auf eurer Website sowohl eine reguläre Version als auch eine Druckansicht für Artikel gibt, von denen keine durch robots.txt oder mittels eines noindex-Metatags blockiert wird, dann suchen wir uns aus, welche Version wir listen. In seltenen Fällen steht hinter Duplicate Content die Absicht, unsere Rankings zu manipulieren und unsere User zu täuschen. Falls wir dies feststellen, nehmen wir entsprechende Anpassungen der Indizierung und des Rankings der beteiligten Websites vor. Wir konzentrieren uns jedoch lieber auf das Filtern als auf Anpassungen des Rankings … überwiegend ist also das „Schlimmste“, was Webmastern passieren kann, das Auftauchen der „weniger erwünschten“ Version einer Seite in unserem Index.

Wie können Webmaster Probleme mit Duplicate Content vermeiden?

  • Richtig blockieren: Anstatt unsere Algorithmen bestimmen zu lassen, welches die „beste“ Version eines Dokuments ist, könnt ihr uns bei der Auswahl der von euch bevorzugten Version helfen. Wenn ihr beispielsweise nicht möchtet, dass wir die Druckansichten eurer Artikel indexieren, dann setzt ein Disallow für die entsprechenden Verzeichnisse oder verwendet reguläre Ausdrücke in der robots.txt-Datei.
  • 301 Redirects nutzen: Wenn ihr eine Website umstrukturiert habt, nutzt 301 Redirects ("RedirectPermanent") in eurer .htaccess-Datei, um User, den Googlebot und andere Spider elegant weiterzuleiten.
  • Konsistenz: Bemüht euch darum, bei der internen Verlinkung einheitlich zu bleiben; linkt nicht zu /page/ , /page und /page/index.htm.
  • TLDs nutzen: Wann immer es möglich ist, nutzt Top Level Domains für landesspezifische Inhalte, um uns dabei zu helfen, die passendste Version eines Dokuments anzuzeigen. Wir gehen davon aus, dass .de eher auf Content für den deutschen Markt hinweist als z. B. /de oder de.example.com.
  • Beim „syndicaten“ achtgeben: Wenn ihr Content auf anderen Websites mittels Feeds zur Verfügung stellt, dann achtet darauf, dass immer ein Backlink zum Original-Artikel vorhanden ist. Seid euch auch dann bewusst, dass wir stets diejenige (nicht blockierte) Version anzeigen, die wir als am besten geeignet für die jeweilige Suchanfrage unserer User erachten. Dies kann, muss aber nicht mit der von euch bevorzugten Version übereinstimmen.
  • Das „Bevorzugte Domain“-Feature der Webmaster-Tools nutzen: Andere Websites, die euch verlinken, geben vielleicht eure URLs sowohl mit als auch ohne www an. Ihr könnt uns mitteilen, welche Version ihr bevorzugt im Index sehen möchtet.
  • Wiederholung von vorgefertigten Textstücken minimieren: Fügt z. B. anstelle eines langen Copyright-Textes am Ende jeder Seite eine kurze Zusammenfassung ein und linkt dann zu einer Seite, die alle Details enthält.
  • Baustellen vermeiden: User möchten keine „leeren“ Seiten sehen. Vermeidet also Platzhalter, wann immer es möglich ist. Dies heisst, Seiten mit null Rezensionen, nicht vorhandenen Immobilienlistings usw. sollten nicht veröffentlicht (oder zumindest blockiert) werden, so dass User (und Bots) nicht zum x-ten Mal auf Content stoßen wie „hier finden Sie unsere großartige Liste mit tollen Mietgelegenheiten in [Städtename]…“, während tatsächlich keine Einträge vorhanden sind.
  • CMS verstehen: Sorgt dafür, dass ihr damit vertraut seid, wie Content auf eurer Website dargestellt wird, vor allem wenn diese einen Blog, ein Forum oder ähnliche Systeme beinhaltet, die oftmals den gleichen Content in unterschiedlichen Formaten zeigen.
  • Don’t worry be happy: Regt euch nicht zu sehr über Websites auf, die euren Content „scrapen“, d. h. ihn sich widerrechtlich aneignen und neu veröffentlichen. Dies ist zwar ärgerlich, jedoch ist es sehr unwahrscheinlich, dass solche Websites einen negativen Einfluss auf die Präsenz eurer Website in Google haben. Wenn ihr einen besonders frustrierenden Fall entdeckt, reicht bitte einen DMCA Antrag ein, um Besitzanspruch auf den Inhalt geltend zu machen; wir befassen uns dann mit der Scraper-Site.

Kurz gesagt, durch ein generelles Bewusstsein für den Umgang mit Duplicate Content und ein paar Minuten für durchdachte, präventive Pflege eurer Website helft ihr uns dabei, unseren Usern einzigartigen und relevanten Content zu bieten.


Original



Posted:

V o r h a n g a u f -
Willkommen zur Premiere des deutschsprachigen Blogs der Google Webmaster-Zentrale!

Der erste Grundsatz unserer Philosophie lautet „Der Nutzer steht an erster Stelle und alles Weitere ergibt sich von selbst.“. Diesem Prinzip fühlen wir uns bei Google verpflichtet. Und genau deswegen wollen wir mit der deutschen Version unseres Google Webmaster Central Blogs eine Plattform zur Kommunikation mit unseren Usern schaffen.

An dieser Stelle werden wir Euch Informationen aus erster Hand zu Fragen der Indizierung, zum Ranking, zu unseren Qualitätsrichtlinien für Webmaster und zur Gestaltung von Webseiten im Sinne der Nutzer bieten. Anfänglich werden wir in diesem Webmaster Blog ausgewählte Einträge des englischen Webmaster Central Blogs in deutscher Übersetzung veröffentlichen. Im Laufe der Zeit werden auch Einträge erscheinen, die besonders für Webmaster des deutschen Sprachraums von Interesse sind.

Zwar haben wir Matts Cutts nicht zwischenzeitlich die Sprache von Goethe beigebracht; auch Adam Lasnik haben wir nicht geklont. Stattdessen werden verschiedene Googler aus den Bereichen Web Search und Search Quality an dieser Stelle in regelmäßigen Zeitabständen bloggen.

Stay tuned!