Posted:
Seit dem Launch von Sitemaps fragen uns Webmaster, ob sie ihre Sitemaps für mehrere Domains auch an einem bestimmten Standort speichern können. Eine berechtigte Frage – und jetzt ist es endlich möglich!

Warum wäre so etwas wünschenswert? Angenommen, ihr besitzt die Domains www.example.com und mysite.google.com, und ihr habt Sitemaps für beide Domains, z. B. sitemap-example.com und sitemap-mysite.xml. Bisher musstet ihr jede Sitemap auf der jeweils zugehörigen Domain ablegen. Der Versuch, sitemap-mysite.xml auf www.example.com einzureichen, hätte einen Fehler erzeugt, da eine Sitemap auf www.example.com aus Sicherheitsgründen nur URLs von www.example.com enthalten kann. Welche Lösung bieten wir also dafür an? Falls ihr „beweisen“ könnt, dass beide Domains euch gehören und ihr für beide Rechte besitzt, dann kann auf beiden Domains eine Sitemap gespeichert werden, die URLs der jeweils anderen enthält. Folgt einfach dem normalen Verifizierungsprozess in den Google Webmaster-Tools, und auf jeder verifizierten Website in eurem Konto können Sitemaps für jede andere verifizierte Site in demselben Konto abgelegt werden.

Hier ist ein Beispiel, in welchem beide Sites als überprüft angezeigt werden:


Jetzt könnt ihr unter einer einzigen Domain Sitemaps für beide Websites ablegen, ohne eine Fehlermeldung zu erhalten. Sitemap-example.xml enthält URLs von www.example.com und sitemap-mysite.xml enthält URLs von mysite.google.com, aber beide befinden sich nun auf www.example.com:


Wir haben auch mehr Informationen darüber, wie man Sitemaps für mehrere Websites verwaltet, unserer Hilfe für Webmaster hinzugefügt.

Welchen Einfluss hat dies nun auf andere Suchmaschinen, die das Sitemapprotokoll unterstützen? - Ihr könnt sicher sein, dass wir mit allen im Gespräch sind, damit diese Art der Verwaltung von Sitemaps für mehrere Websites übergreifend und reibungslos funktioniert. Bis dahin wird diese spezielle Lösung nur Benutzern der Google Webmaster-Tools zur Verfügung stehen.

Original

Post von Mickey Kataria, Google Zürich (Übersetzung von Claudia, Search Quality)

Posted:
Wie ihr wisst, können sich die Suchanfragen, für die eure Website in den Suchergebnissen erscheint, mit der Zeit ändern. Der Content eurer Site ändert sich ebenso wie die Bedürfnisse der stetig Suchenden dort draußen. Sowohl für kleinere als auch für dramatische Veränderungen ist es nützlich zu sehen, wie sich die Suchanfragen, mit denen eure Site gefunden wird, mit der Zeit wandeln.

Aufgrund dessen zeigen wir unter „Die häufigsten Suchanfragen“ in den Webmaster-Tools jetzt historische Daten und weitere Verbesserungen an. Schauen wir uns dies mal genauer an:



Historische Daten für bis zu 6 Monate:

Zuvor haben wir nur Abfragestatistiken der letzten 7 Tage angezeigt. Jetzt könnt ihr zwischen 9 Snapshots hin- und herspringen, die sich auf einen Zeitraum von vor 6 Monaten bis heute erstrecken. Die Zeitintervalle, die von den Snapshots abgedeckt werden, sind dabei unterschiedlich: In den Snapshots für 7 Tage, 2 Wochen und 3 Wochen zeigen wir die häufigsten Suchanfragen der vorherigen Woche an. In den Snapshots für 1 bis 6 Monate stellen wir die Statistik für den vorangegangenen Monat dar. Trotzdem kann es sein, dass sich einige von euch einloggen und feststellen, dass es keine Abfragestatistiken gibt, die 6 Monate zurückreichen. Wir hoffen, dies in Zukunft zu verbessern. :)

Die häufigsten Suchanfragen in Prozent:

Ihr habt vielleicht eine neue Spalte in den Abfragestatistiken entdeckt. Wir haben bisher nur die häufigsten Suchanfragen, für die eure Website in den Ergebnissen erschienen ist, sowie die häufigsten Suchanfragen, von denen aus User auf eure Seite geklickt haben, gerankt. Obwohl dies nützlich war, konntet ihr daraus nicht wirklich ersehen, in welchem Ausmaß eine Suchanfrage höher als eine andere gerankt war. Jetzt zeigen wir an, mit wie viel Prozent jedes Suchergebnis oder jeder Klick in den Top 20 der häufigsten Suchanfragen vertreten ist. Dies sollte euch dabei helfen zu sehen, wie sich das Ergebnis- oder Klickvolumen auf die Top 20 verteilt.

Downloads:

Da wir jetzt unter „Die häufigsten Suchanfragen“ historische Daten anzeigen, haben wir uns gedacht, dass es gemein wäre, euch nicht die Möglichkeit zum Download zu bieten, so dass ihr damit herumspielen könnt (Spreadsheet-Masochisten, ihr seid gemeint). Wir haben den Link „Daten herunterladen“ hinzugefügt, unter dem ihr alle Statistiken als CSV herunterladen könnt. Ihr exportiert damit die gesamten Abfragestatistiken: die historischen Daten quer durch alle Snapshots sowie für den Suchmodus und die Sprache der Suchanfragen - ihr könnt also nach Herzenslust experimentieren. Der Link „Alle Abfragestatistiken für diese Website herunterladen (einschließlich Unterordner)“ zeigt jedoch weiterhin nur Abfragestatistiken der letzten 7 Tage für eure Site und Unterordner an.


Aktualität:

Wie bereits einige Male zuvor haben wir die Aktualität der Daten in den Webmaster-Tools verbessert. Die neuen Statistiken zu den häufigsten Suchanfragen werden jetzt andauernd aktualisiert. Das Ranking der Suchanfragen und Klicks kann sich nun sichtlich häufiger ändern, manchmal täglich.


Genug gesagt. Loggt euch ein und probiert die neuen Verbesserungen selbst aus. Wie immer ist euer Feedback willkommen, schaut einfach im Diskussionsforum für Webmaster vorbei und teilt uns eure Meinung mit.

Original

Post von Sahala Swenson, Webmaster Tools Team (Übersetzung von Johanna, Search Quality)

Posted:
Das Sitemaps-Team arbeitet weiterhin daran, das Sitemapprotokoll auf bestimmte Produkte und Content-Typen auszuweiten. Durch unsere jüngste Zusammenarbeit mit dem Team von Google Codesuche habt ihr nun eine neue Möglichkeit: Ihr könnt Sitemaps erstellen, die Informationen über öffentlichen Sourcecode enthalten, den ihr hostet und gerne in der Codesuche zur Verfügung stellen möchtet. Mehr Informationen zu dieser neuen Funktionalität findet ihr auf dem Google Code Blog. Wenn ihr gleich loslegen wollt, dann schaut einfach in unsere Hilfe für Webmaster, erstellt eine Sitemap für die Codesuche, geht zu den Google Webmaster-Tools und ladet eure Sitemap für die Codesuche hoch!



Original

Post von Mickey Kataria, Google Zürich (Übersetzung von Claudia, Search Quality)

Posted:
Sitelinks sind zusätzliche Links, die bei Google unterhalb einiger Suchergebnisse angezeigt werden. Sie funktionieren wie Shortcuts, um es den Usern zu ermöglichen, schnell und problemlos zu den wichtigen Seiten auf eurer Site zu navigieren.


Die Auswahl der Seiten, die als Sitelinks erscheinen, erfolgt vollkommen automatisiert. Unsere Algorithmen analysieren die Struktur und den Content eurer Sites und identifizieren die Seiten, die eine schnelle Navigationshilfe und gleichzeitig relevante Informationen zur jeweiligen Suchanfrage des Users bieten. Da unsere Algorithmen verschiedene Faktoren bei der Erzeugung von Sitelinks in Betracht ziehen, erscheinen Sitelinks nicht für alle Websites.

Jetzt gibt es in den Webmaster-Tools die Möglichkeit, potentielle Sitelinks auf eurer Website zu sehen und alle Sitelinks, die ihr nicht in den Suchergebnissen sehen wollt, zu entfernen. Da Sitelinks sehr nützlich sind, Usern die Navigation auf eurer Site zu erleichtern, empfehlen wir im Allgemeinen nicht, vorgeschlagene Sitelinks zu entfernen. Trotzdem kann es natürlich sein, dass ihr gelegentlich eine Seite von den Sitelinks ausschließen möchtet, da diese z. B. veraltet oder nicht mehr verfügbar ist oder einfach Informationen enthält, die ihr nicht hervorgehoben präsentieren möchtet. Wenn ihr eine Seite von den Sitelinks ausschließt, wird sie bei den Sitelinks über einen Zeitraum von 90 Tagen nicht angezeigt, ausser ihr entscheidet euch vor Ablauf der 90 Tage, die Seite doch hinzuzufügen. Es kann etwa eine Woche dauern, bis die gewünschte Seite aus den Sitelinks entfernt wird. Wir arbeiten jedoch daran, diesen Prozess zu beschleunigen.

Um eure Sitelinks anzuzeigen und zu verwalten, müsst ihr zunächst das Webmaster-Tools Dashboard aufrufen und dann die gewünschte Site auswählen. Klickt danach im Menü auf der linken Seite auf Links und anschließend auf Sitelinks.


Danke für euer Feedback und bleibt gespannt auf weitere Updates!

Original


Post von Stacey Kuznetsov, Search Quality (Übersetzung von Sven, Search Quality)

Posted:
Wenn ihr an eurer Website arbeitet, wünscht ihr euch vielleicht manchmal die eine oder andere Funktionalität, die ihr selbst nicht erstellen könnt oder für deren Programmierung euch einfach die Zeit fehlt. Meist ist das kein besonderes Problem, da im Internet viele vorgefertigte Codeschnipsel bereitstehen, die ihr sofort in den Quellcode eurer Site einbauen könnt.

Aber Moment - ist das wirklich immer eine so gute Idee? Manche Anbieter, die euch mit coolen, kostenlosen Features locken, können im Verborgenen ganz eigene Interessen verfolgen. Wenn ihr Derartiges in euren Quellcode einbaut, ist das ungefähr so, als würdet ihr ganz begeistert das Trojanische Pferd empfangen.

Angenommen, ihr wollt eurer Site einen Besucherzähler hinzufügen. Nach einer Suche im Internet findet ihr etwas Passendes, was ungefähr so aussehen kann:
<table width="100" border="1">
<tr><td>
<a href="http://counter.xy">
<img src="http://counter.xy/zaehler.php?1234"></a>
</td></tr>
</table>
In diesem Beispiel findet sich nur ein Link auf die Website des Anbieters, was vollkommen in Ordnung ist. Doch stellen wir uns den Fall vor, dass der Link auf irgendeine willkürliche Site verweist, die nichts mit dem Besucherzähler oder eurer Site zu tun hat. Dann hättet ihr einen externen Link in eure Site eingebaut, ohne zu wissen, wohin der Link führt und wahrscheinlich auch ohne zu wissen, dass es diesen Link überhaupt gibt. Ein solcher versteckter Link könnte in eine "Bad Neighborhood" verweisen, was wiederum negative Folgen für das Ranking eurer eigenen Site haben kann.

Wie ihr seht, kann ein solcher externer Code im Quellcode eurer Site Elemente enthalten, die im Widerspruch zu unseren Richtlinien für Webmaster stehen.

Und wie könnt ihr ein solches Trojanisches-Pferd-Erlebnis verhindern?


Ganz einfach, indem ihr jeden fremden Code, den ihr verwenden wollt, nochmals genau prüft und sicherstellt, dass dieser nicht auf völlig irrelevante Sites verweist. Falls ihr die Code-Bestandteile bereits eingebaut habt, könnt ihr versteckte Links häufig ganz einfach erkennen, wenn ihr mit dem Mauszeiger über das eingefügte Element fahrt und in der Statuszeile des Browsers einen unerwarteten Link seht (in einigen Fällen müsst ihr JavaScript deaktiviert haben, um einen Link in der Statuszeile zu sehen).

In der Regel ist es recht einfach, solche Probleme zu entdecken. Indem ihr sie rechtzeitig bemerkt, könnt ihr leicht vermeiden, versteckte Elemente in eure Sites einzubauen! Falls ihr dieses Thema weiter diskutieren möchtet, könnt ihr eure Kommentare und Fragen in unserem Diskussionsforum posten.

Post von Sven, Search Quality

Posted:
Ein häufiges Feedback von Webmastern ist, dass ihr euch Verbesserungen in Bezug auf die Aktualität der Daten in den Webmaster-Tools wünscht. Die Botschaft ist angekommen :) Wir haben die Häufigkeit der Aktualisierungen für Daten eurer überprüften Sites erhöht, was z. B. die Statistiken zum Crawling, Indexstatistiken und die Abfragestatistik betrifft. Die meisten dieser Daten hängen vom Content auf eurer Site ab, denn wenn sich euer Content nur selten ändert oder wenn ihr keine neuen Links auf eure Site bekommt, dann kann es sein, dass ihr nicht jedesmal Updates seht, wenn ihr euch in den Webmaster-Tools anmeldet.

Wir freuen uns, wenn ihr weiterhin eure Vorschläge und Wünsche für neue Features im Diskussionsforum für Webmaster postet. Das Forum ist eine unserer wichtigsten Quellen für Feedback aus der Webmaster-Community. Wir nehmen euer Feedback ernst!

Original

Post von Ríona MacNamara, Webmaster Tools Team, (Übersetzung von Sven, Search Quality)

Posted:
In unseren Richtlinien für Webmaster empfehlen wir, Websites mit relevantem Content zu erstellen, die einen Mehrwert für eure User bieten. Das gilt besonders für Websites, die Content aus einem Affiliate-Programm bereithalten, da viele der im Partnerprogramm angebotenen Produktbeschreibungen mehrfach im Internet vorhanden sind.
Affiliate-Programme sind Partnerschaften zwischen einem kommerziellen Anbieter und einer nicht-kommerziellen oder privaten Website. Die private Website (Affiliate) bietet den Content oder die Produkte und Services des kommerziellen Anbieters an und erhält dafür eine Vermittlungsprovision. Die Höhe der Umsatzbeteiligung bestimmt sich durch geschaltete Werbebanner auf der privaten Website, die Anzahl der Besucher, die über den Affiliate zum kommerziellen Anbieter gelangen oder durch die Menge des Umsatzes, den der Affiliate mit dem Verkauf der Produkte des Partnerprogramms generiert.
Aus unserer Sicht trägt eine Website, die ausschließlich Affiliate-Content bereitstellt und somit nur den kommerziellen Content einer anderen Website spiegelt, nicht sehr zur Vielfältigkeit der Suchergebnisse bei. Dies trifft besonders dann zu, wenn ein Partnerprogramm seinen Content auf mehrere hundert Affiliate-Websites verteilt. Stellt euch vor, ihr geht in ein Musikgeschäft und wollt eine CD kaufen. Obwohl alle CDs äußerlich unterschiedlich sind, beispielsweise verschiedene Farben und Booklets haben, enthält jede CD immer wieder das gleiche Lied. Das wäre eine unbefriedigende Erfahrung für euch und genauso frustrierend wäre es, wenn alle Suchresultate denselben Content hätten. Deswegen solltet ihr euren Usern auf eurer Website relevanten Content anbieten, anstatt sie durch bloßen Affiliate-Content zum schnellen Weiterklicken zu veranlassen.
Hier sind einige Vorschläge, wie ihr eure Website von anderen abheben und so möglicherweise auch euer Ranking verbessern könnt:
  • Das Partnerprogramm sollte ein zusätzlicher Service für User mit Kaufabsichten sein und nicht der hauptsächliche oder gar einzige Content eurer Website.
  • Wählt eine zu eurer Website und eurem Publikum passende Kategorie. Je gezielter das Programm auf euren Content ausgerichtet ist, desto mehr wird es diesen bereichern und umso wahrscheinlicher könnt ihr Geld damit verdienen. Wenn ihr beispielsweise eine gut gepflegte Website zum Thema "Wandern in den Alpen" habt, solltet ihr eher ein Partnerprogramm eines Outdoor-Ausstatters in Betracht ziehen als eines, das Büromaterial anbietet.
  • Baut euch eine Community auf, die euch dabei helfen kann, den Bekanntheitsgrad eurer Website zu steigern und sie als Informationsquelle zu eurem Thema zu etablieren. Ein Forum, Berichte und Bewertungen von Usern oder ein Blog sind nur einige Ideen, die ihr auf eurer Seite umsetzen könnt, um einzigartigen Content anzubieten.
  • Eine Website mit aktualisierten und dem Thema eurer Website angepassten Informationen spricht sich schnell herum und erhöht die Wahrscheinlichkeit, dass eurer Content öfter gecrawlt wird, in den Suchresultaten auftaucht und von den Usern ausgewählt wird.
Wenn ihr diese Punkte berücksichtigt, besteht die Aussicht, dass User relevante Informationen auf eurer Website finden und auch in Zukunft gern eure Site besuchen und sie anderen Usern empfehlen. Euer Partnerprogramm kann eine hilfreiche Komponente eurer Website werden und zur Relevanz und Bedeutung eures Contents beitragen. Wenn ihr Fragen dazu habt, so postet diese bitte in unserem Diskussionsforum für Webmaster. In diesem Forum sind erfahrene Webmaster und auch einige Googler aktiv, die euch mit ihrem Wissen gerne weiterhelfen.

Post von Juliane, Search Quality

Posted:
Die Qualität eurer Snippets – die kurze Textvorschau, die wir für jedes Suchergebnis anzeigen – kann die Chance, dass eure Seite angeklickt wird (d. h. den Traffic von Google) direkt beeinflussen. Wir haben unterschiedliche Strategien, um das Snippet auszuwählen, und ihr könnt eine davon kontrollieren, indem ihr eine informative Meta-Description für jede URL schreibt.

Warum beachtet Google Meta-Descriptions?

Wir möchten, dass das Snippet das Suchergebnis präzise wiederspiegelt. Wir ziehen es oft vor, die Meta-Descriptions der Seiten anzuzeigen (sofern diese erhältlich sind), da sie dem User eine klare Vorstellung vom Content der URL vermitteln. Dies führt den User schneller zu guten Ergebnissen und reduziert das Click- und Backtrackverhalten, welches auf Dauer frustriert und die Web-Traffic-Statistik aufbläht. Behaltet im Hinterkopf, dass Meta-Descriptions, die aus einer langen Kette von Keywords bestehen, dieses Ziel nicht unterstützen und mit geringerer Wahrscheinlichkeit anstelle eines normalen Snippets, welches nicht auf der Meta-Description basiert, angezeigt werden. Achtet auch darauf, dass akkurate Meta-Descriptions zwar die Clickthrough-Rate verbessern können, jedoch keinerlei Einfluss auf das Ranking innerhalb der Suchergebnisse haben.

Snippet von guter Qualität:






Snippet von geringer Qualität:



Wie könnt ihr Meta-Descriptions geschickt einsetzen?

Unterschiedliche Beschreibungen für verschiedene Seiten sind von Vorteil
Es ist nicht sehr hilfreich, identische oder ähnliche Beschreibungen für jede Seite einer Website zu verwenden, sobald einzelne Seiten in den Suchergebnissen auftauchen. In diesen Fällen ist es weniger wahrscheinlich, dass wir auf die uniforme Meta-Description zurückgreifen. Am besten sind Meta-Descriptions, die jede einzelne Seite akkurat beschreiben. Verwendet Beschreibungen auf Website-Ebene auf der Hauptseite oder anderen zentralen Seiten, und denkt daran, an allen anderen Stellen Page-Level-Descriptions einzubauen. Sofern ihr keine Zeit habt, Meta-Descriptions für jede einzelne Seite zu erstellen, raten wir dazu, den Schwerpunkt auf Teile eurer Website zu setzen; ihr solltet aber zumindest Beschreibungen für die entscheidenden URLs erstellen, wie z. B. für eure Homepage und besonders beliebte Seiten.


Verwendet klar markierte Fakten in den Beschreibungen
Die Meta-Description muss nicht unbedingt dem Satzformat entsprechen; sie bietet auch eine gute Gelegenheit, um Strukturdaten über die Seite mit einzuschließen. News oder Blog-Posts können den Autor anzeigen, das Erscheinungsdatum oder eine Verfasserzeile. Dies kann potentiellen Besuchern sehr relevante Informationen vermitteln, die ansonsten nicht im Snippet angezeigt würde. Ebenso können Produktseiten Schlüsselinformationen enthalten, wie etwa Preis, Alter und Hersteller. Sind diese Informationen über eine Seite verteilt, ist es unwahrscheinlich, dass im Snippet alles erfasst wird. Meta-Descriptions können all diese Informationen zusammenbringen.
Schaut euch beispielsweise folgende Meta-Description für den siebten Harry Potter Band an, die von der Website eines großen Versandhauses stammt.

Nicht besonders wünschenswert:

<META NAME="Description" CONTENT="[Name der Domain anonymisiert]
: Harry Potter and the Deathly Hallows (Book 7): Books: J. K. Rowling,Mary GrandPré by J. K. Rowling,Mary GrandPré"
>

Es gibt eine Anzahl von Gründen, warum diese Meta-Description nicht als ein gutes Snippet in unseren Suchergebnissen funktionieren würde:
  • Der Titel ist eine reine Doppelung der Information, die bereits im Seitentitel vorkommt.
  • Informationen innerhalb der Beschreibung selbst sind redundant (J. K. Rowling, Mary GrandPré werden jeweils zweimal gelistet).
  • Keine der Informationen in der Beschreibung ist klar zu identifizieren: Wer ist Mary GranPré?
  • Der fehlende Zeilenabstand und der übermässige Gebrauch von Doppelpunkten macht es schwierig, die Beschreibung zu lesen.
Dies bedeutet, dass die Durchschnittsperson, die Google Suchergebnisse anschaut – und die in der Regel weniger als eine Sekunde für das Lesen pro Snippet aufbringt - dieses Ergebnis überspringen wird.

Viel besser:

<META NAME="Description" CONTENT="Author: J. K. Rowling, Illustrator: Mary GrandPré, Category: Books, Price: $17.99, Length: 784 pages">

Was hat sich geändert? Keine Doppelungen mehr, mehr Informationen, und alles ist deutlich markiert und voneinander getrennt. Es verlangt nicht wirklich viel mehr Arbeit, um diese Qualität zu erreichen: der Preis und das Volumen sind die einzigen neuen Daten, und diese werden bereits auf der Seite angezeigt.

Programmatisch erzeugte Meta-Descriptions
Für manche Websites ist es einfach, präzise und individuelle Beschreibungen für jede Seite zu kreieren, wie beispielsweise für News- und Media-Sites: da jeder Artikel von Hand geschrieben ist, bedarf es nur minimalen Aufwand, um auch Zusammenfassungen von einem Satz hinzuzufügen. Für größere Websites, die wie Versandhäuser auf einer Datenbank basieren, sind handgeschriebene Beschreibungen schwieriger. Eine programmatische Erzeugung der Textvorschau kann in solchen Fällen angebracht sein kann und wird auch unterstützt – stellt jedoch sicher, dass eure Beschreibungen nicht „spammy“ sind. Gute Zusammenfassungen sind von Menschen lesbar und vielfältig, wie wir bereits unter dem ersten Punkt oben erwähnt haben. Die seitenspezifischen Daten, auf die wir im zweiten Punkt hinweisen, eignen sich gut für programmatische Erzeugung.

Verwendet qualitativ gute Meta-Descriptions
Stellt letztendlich auch sicher, dass eure Beschreibungen wirklich deskriptiv sind. Es passiert schnell, dass man lax mit der Qualität der Meta-Descriptions umgeht, da diese nicht direkt im UI für die Besucher eurer Website sichtbar sind. Die Meta-Descriptions können jedoch in den Google Suchergebnissen angezeigt werden – sofern sie von entsprechend hoher Qualität sind. Ein bisschen extra Arbeit an euren Snippets kann den positiven Effekt haben, dass in den Suchergebnissen relevante Snippets angezeigt werden. Dies erhöht wahrscheinlich sowohl die Qualität als auch die Quantität eures Traffics.

Original

Übersetzung von Claudia, Search Quality)