Posted:
Nachdem wir im letzten Post über "Mehr Transparenz bei Anträgen auf erneute Überprüfung" informiert haben, gibt es heute ein Video, in dem zwei Mitarbeiter des Search Quality Teams etwas genauer erklären, wie Anträge auf erneute Überprüfung bei Google bearbeitet werden.



Michael:
Hallo zusammen, meine Name ist Michael und bei mir ist Tiffany. Wir gehören beide zum Search Quality Team von Google. Heute wollen wir auf eine Webmaster-Frage eingehen. Sie kommt von Matt Cutts. Matt möchte wissen, wie das Verfahren zur erneuten Überprüfung auf der Seite von Google abläuft. Hat es kürzlich Änderungen am Verfahren gegeben?

Tiffany:
Angenommen, ich bin ein Webmaster. In welchen Fällen sollte ich einen Antrag auf erneute Überprüfung stellen?

Michael:
Okay. Es gibt dafür ein paar Anhaltspunkte. Falls ihr wisst, dass ihr gegen die Google-Richtlinien für Webmaster verstoßen habt, solltet ihr die Gelegenheit nutzen und zunächst einmal eure Website in Ordnung bringen. Achtet also darauf, die Webmaster-Richtlinien einzuhalten. Informiert uns dann über eure Änderungen. "Ich habe den verborgenen Text gelöscht", so in der Art. Und nun stellt ihr den Antrag auf erneute Überprüfung.

Wir benachrichtigen Webmaster mittlerweile, um sie auf Probleme mit ihrer Website hinzuweisen. Etwa wenn wir feststellen, dass die Website gehackt und gespammt wurde. Wir senden häufig Benachrichtigungen über die Webmaster-Tools, um euch über Probleme mit eurer Website zu informieren. Daraufhin solltet ihr eure Website in Ordnung bringen und einen Antrag stellen.

Es kommt auch vor, dass eure Website nicht in den Suchergebnissen erscheint oder weniger Zugriffe verzeichnet. Manchmal ist Spam die Ursache. Auch hier empfiehlt es sich, einen Antrag auf erneute Überprüfung zu stellen. Vorher solltet ihr allerdings den Hilfeartikel zu folgendem Thema lesen: "Meine Website schneidet in den Suchergebnissen nicht gut ab." Darin werden mögliche Gründe für das schlechte Abschneiden genannt, die über das Spamproblem hinausgehen. Das sind also Fälle, in denen sich eine erneute Überprüfung anbietet. Tiffany, vielleicht kannst du noch darauf eingehen, wie so ein Antrag aussehen sollte? Wie sollte er formuliert sein?

Tiffany:
Gute Frage. Erwähnt unbedingt, um welches Spamproblem es sich handelt und welche Schritte unternommen wurden, um das Problem zu beheben. Es ist nicht hilfreich, das Problem nicht anzugeben, denn wir wissen ja bereits, was los ist. Es bringt also nichts, die Angelegenheit zu vertuschen. Gebt einfach an, worin genau der Verstoß bestand. Möglicherweise wurdet ihr ja in Sachen SEO schlecht beraten. Worum es sich auch handelt, beschreibt immer das Problem und die Schritte, die ihr unternommen habt, um es zu beheben.

Ein Antrag mit dem Wortlaut: "Meine Website entspricht den Richtlinien." ist weniger aufschlussreich als die Erläuterung "Auf meiner Website befand sich verborgender Text, den ich inzwischen entfernt habe." Im zweiten Beispiel wird das Problem klar angegeben und beschrieben, wie es gelöst wurde. Ein solcher Antrag kann von uns zügig bearbeitet werden, weil wir genau wissen, worum es geht. Michael, erkläre uns doch, was bei Google mit meinem Antrag passiert, wenn er dort eingeht.

Michael:
Gern. Im Fall einer manuellen Spam-Maßnahme auf der Website überprüft ein Mitglied des Webspam-Teams den Antrag und schaut sich dabei an, von welcher manuellen Spam-Maßnahme die Website betroffen ist. Das Teammitglied sieht sich auch an, was ihr in den Webmaster-Tools bei der Antragsstellung vermerkt habt. Außerdem kann natürlich die Website überprüft und wie über den Googlebot aufgerufen werden. Darüber hinaus stehen dem Team noch einige andere Tools zur Verfügung, mit denen die Qualität von Websites bewertet werden kann.

Es soll schlicht und einfach herausgefunden werden, ob die Website noch gegen die Richtlinien verstößt oder noch Spam enthält. Sollte der Webmaster die Website nicht bereinigt haben, wird der Antrag natürlich abgelehnt. Hat der Webmaster jedoch eine Benachrichtigung über die Manipulation seiner Website erhalten, z. B. durch Hacking oder eine schlechte SEO, daraufhin das Problem behoben und dies auch entsprechend im Antrag beschrieben, dann stellt unser Mitarbeiter dies fest und kann dann die Maßnahme aufheben. So läuft im Großen und Ganzen die Bearbeitung eines Antrags auf erneute Überprüfung ab. Was erwartet nun den Webmaster, sobald die Maßnahme aufgehoben wurde?

Tiffany:
Das ist eine gute Frage. Wir wissen natürlich, dass das es für den Webmaster schwierig ist, die Antwort abwarten zu müssen, nachdem er seinen Antrag eingereicht hat. In der Vergangenheit haben wir nicht besonders viel kommuniziert. Das haben wir nun geändert. Viele Webmaster haben um mehr Informationen zum Status ihres Antrags gebeten. Nach diesem Feedback suchen wir nun nach Möglichkeiten, das Verfahren zu optimieren.

Früher haben wir die Webmaster nach der Bearbeitung des Antrags nicht informiert. Vor einiger Zeit begannen wir jedoch mit dem Versenden von Nachrichten und teilten den Webmastern mit, dass der Antrag bearbeitet wurde, gaben aber keine Information zum Ergebnis. Seit Kurzem können wir manchmal die Webmaster auch über das Ergebnis informieren. Beispielsweise können wir im Fall von manuellen Spam-Maßnahmen, die wir wieder aufgehoben haben, die Webmaster über den Status informieren. Wir senden auch eine Benachrichtigung, wenn Richtlinienverstöße weiterhin bestehen und die Website vom Webmaster noch einmal dahingehend überprüft werden muss – möglicherweise weil die Website gehackt wurde, der Webmaster das auch weiß, es ihm aber nicht gelungen ist, den Content vollständig zu entfernen.

In den meisten Fällen besagt der Inhalt unserer Benachrichtigungen, dass keine Spam-Maßnahme erfolgt ist. Dann könnt ihr anhand der Artikel in der Hilfe herausfinden, wo das Problem liegt. Vielleicht bestehen Zugangsprobleme, weil URLs eurer Website für unser Crawling durch die robots.txt-Datei blockiert sind. Eine gute Anlaufstelle ist außerdem das Forum. Dort könnt ihr eure Fragen stellen und trefft auf eine Menge hilfsbereiter Leute. Die Foreneinträge werden zudem von vielen externen Nutzern und Google-Mitarbeitern gelesen. Und auch wenn sie keine Beiträge posten, geben sie Fragen an interne Teams weiter, die die Anträge auf erneute Überprüfung bearbeiten. Das ist also auch eine Möglichkeit, Hilfe zu erhalten.

Michael:
Ich hoffe, wir konnten euch damit ein paar interessante Einblicke dazu vermitteln, wie die erneute Überprüfung bei Google abläuft.

Veröffentlicht von Daniela Loesser, Search Quality Team

Posted:
Falls eure Website nicht in den Google-Suchergebnissen erscheint oder schlechter abschneidet als sie es bisher tat, die Website eurer Meinung nach aber unseren Richtlinien für Webmaster nicht widerspricht, könnt ihr bei Google eine erneute Überprüfung eurer Website beantragen. Der Prozess für Webmaster-Anträge auf erneute Überprüfung hat sich kontinuierlich verbessert. Seit zwei Jahren senden wir zusätzlich zur Eingangsbestätigung eine zweite Nachricht mit einer Bestätigung an die Webmaster, dass ihr Antrag verarbeitet wurde. Dies war eine wichtige Neuerung für Webmaster, die ungeduldig auf eine Antwort warteten. Anschließend erhielten wir das Feedback, dass die Webmaster auch gerne das Ergebnis ihrer Anfragen erfahren würden. Anfang des Jahres versendeten wir testweise detailliertere Antworten auf Anträge auf erneute Überprüfung. Die Rückmeldung, die wir bekamen, war sehr positiv.

Wenn eure Website von einer manuellen Spam-Maßnahme betroffen ist, erhaltet ihr unter Umständen die Mitteilung, dass die manuelle Aktion entsprechend eurem Antrag auf erneute Überprüfung aufgehoben wurde. Oder ihr erhaltet den Hinweis, dass eure Website noch immer gegen unsere Richtlinien verstößt. Dies mag vielleicht zunächst unangenehm sein, aber wenn ihr wisst, dass es noch ein Problem gibt, könnt ihr den Fehler besser diagnostizieren.

Falls eure Website von keiner manuellen Maßnahme betroffen ist (und dies ist das häufigste Szenario), teilen wir euch dies ebenfalls mit. Möglicherweise wird eure Website von unseren Algorithmen nicht hoch gerankt. In diesem Fall reagieren unsere Systeme auf die Verbesserungen, die an der Website vorgenommen werden, ohne dass ein Antrag auf erneute Überprüfung gestellt werden muss. Vielleicht kann der Googlebot eure Website auch aufgrund von Zugriffsproblemen nicht crawlen und indexieren. Weitere Informationen zum Debuggen von Ranking-Problemen findet ihr in dem Artikel über die möglichen Gründe, aus denen eine Website nicht in den Google-Suchergebnissen erscheint.

Der gesamte Prozess der erneuten Überprüfung ist inzwischen sehr viel transparenter geworden. Wir können auf einzelne Anträge nicht mit spezifischem Feedback antworten, aber viele Webmaster erhalten jetzt eine Mitteilung darüber, ob ihre Website von einer manuellen Maßnahme betroffen ist und zu welchem Ergebnis die erneute Überprüfung geführt hat. Idealerweise würde Google die Funktionsweise der einzelnen Ranking-Faktoren komplett transparent machen. Auf der einen Seite möchten wir Webmastern möglichst viele Informationen zukommen lassen, auf der anderen Seite möchten wir aber Spammern nicht die Gelegenheit geben, den Nutzern noch mehr zu schaden. Obwohl Google bereits einen beispielhaften Standard hinsichtlich der Tools, Transparenz und Kommunikation mit Website-Inhabern gesetzt hat, möchten wir in Zukunft noch besser werden.

Gepostet von Michael Wyszomierski und Tiffany Oberoi, Search Quality Team (Veröffentlicht von Dominik Zins, Search Quality)

Posted:
Google News hat kürzlich seine Infrastruktur verbessert und crawlt nun mit dem Googlebot, dem primären User-Agent von Google. Was bedeutet das? Für die meisten Publisher bringt dies keine großen Veränderungen mit sich. Nachrichtenanbieter können sich immer noch jederzeit aus Google News abmelden. Google News akzeptiert auch weiterhin den Eintrag unseres ehemaligen User-Agents Google News, wenn dieser restriktivere Einstellungen aufweist, als der robots.txt-Eintrag für den Googlebot.

In unserer Hilfe erhaltet ihr eine detaillierte Anleitung zur Verwendung des Robots-Ausschlussprotokolls für Google News. Publisher können sich bei Fragen mit dem Google News-Support-Team in Verbindung setzen. Zuerst möchten wir jedoch Folgendes anmerken:

  • Obwohl in den Protokollen eurer Website nur noch der Googlebot-User-Agent zu sehen ist, ist die Anzeige des Googlebots anstelle des Googlebot-News unabhängig von unseren Richtlinien. Mit einer Suche mit dem Operator "site:" könnt ihr jederzeit überprüfen, ob eure Website in Google News enthalten ist. Gebt ihr in das Suchfeld von Google News beispielsweise "site:eurenewssite.com" ein und euch werden Ergebnisse angezeigt, wird eure Nachrichten-Website derzeit von uns indexiert.
  • Über euer Analysetool wird weiterhin unterschieden, ob Nutzer über die Google-Suche oder über Google News auf eure Website zugreifen. Diesbezüglich gibt es also keine Änderungen. Der Hauptunterschied besteht darin, dass euch keine gelegentlichen automatisierten Besuche eurer Website vom Googlebot-News-Crawler angezeigt werden.
  • Wenn ihr derzeit unsere Googlebot-Richtlinien befolgt, müsst ihr keine Code-Änderungen an eurer Website vornehmen. Für Websites, die gebührenpflichtige Abonnements oder First Click Free implementiert haben, ergeben sich keine Änderungen. Für Websites, auf denen vor dem Lesen eines vollständigen Artikels eine Registrierung, Zahlung oder Anmeldung erforderlich ist, kann Google News nur die Titel und Snippets crawlen und indexieren, die allen Besuchern eurer Website angezeigt werden. In unseren Richtlinien für Webmaster findet ihr zusätzliche Informationen zum Thema "Cloaking", der unterschiedlichen Präsentation einer Website für den Bot und den Nutzer. Weitere Informationen über Google News und Abonnement-Publisher findet ihr in diesem Hilfeartikel.
  • Keine Sorge, eure Sitemap wird weiterhin gecrawlt. Diese Änderung betrifft nicht das Crawlen von News-Sitemaps. Publisher in Google News, die noch keine News-Sitemap eingerichtet haben, jedoch Interesse daran haben, finden weitere Informationen über diesen Link.
  • Publisher, die sich aus Google News abmelden, die Google-Suche jedoch weiterhin nutzen möchten, können den Googlebot-News ausschließen und dem Googlebot den Zugriff erlauben. Weitere Informationen hierzu findet ihr in unserer Hilfe.

Wie jede andere Website müssen wir auch die Infrastruktur von Google News gelegentlich aktualisieren. Gleichzeitig möchten wir aber weiterhin eine optimale Kontrolle der Nachrichten-Websites ermöglichen. Wir hoffen, alle Fragen zu diesem Update beantwortet zu haben. Weitere Informationen erhalten ihr in unserer Hilfe.

Autor: David Smydra, Google News Product Specialist (Veröffentlicht von Dominik Zins, Search Quality)

Posted:
Letzte Woche haben wir hier einen Videobeitrag von Matt Cutts veröffentlicht, indem er erklärt welche Unterschiede zwischen der Indexierung von PDFs und HTML bestehen. Heute gehen wir detailliert auf Fragen zu dem Thema ein, die uns häufig im Webmaster-Hilfeforum begegnen.

Unser Ziel besteht darin, Informationen weltweit zu organisieren und sie universell zugänglich und nutzbar zu machen. Bei diesem ambitionierten Unterfangen stoßen wir häufig auf andere Formate als HTML, etwa PDFs, Tabellen oder Präsentationen. Unsere Algorithmen werden durch diese unterschiedlichen Dateitypen jedoch nicht abgebremst. Wir arbeiten intensiv an der Extraktion der relevanten Inhalte, um entsprechende Indexe für unsere Suchergebnisse zu erstellen. Wie funktioniert aber die Indexerstellung für diese Dateitypen? Welche Richtlinien gelten für diese Dateien, die weit vom HTML-Standard abweichen? Was passiert, wenn ein Webmaster nicht möchte, dass wir sie indexieren?



Google erstellte 2001 erstmals Indexe für PDF-Dateien und hat bis jetzt mehrere hundert Millionen PDF-Dateien indexiert. Wir haben die am häufigsten gestellten Fragen zur Indexerstellung aus PDFs gesammelt. Die Antworten findet ihr hier:

F: Kann Google jede Art von PDF-Dateien indexieren?
A: Im Prinzip können wir Textinhalte in jeder beliebigen Sprache aus PDF-Dateien indexieren. Die Datei kann verschiedene Zeichencodierungen enthalten, darf jedoch nicht passwortgeschützt oder verschlüsselt sein. Sollte der Text als Bild eingebettet sein, können wir diese Bilder zur Extraktion des Textes mit OCR-Algorithmen bearbeiten. Die Faustregel lautet: Wenn der Text aus einem PDF-Dokument kopiert und in ein Standard-Textdokument eingefügt werden kann, ist die Indexierung des Texts möglich.

F: Werden Bilder in PDF-Dateien indexiert?
A: Derzeit werden Bilder nicht indexiert. Zur Indexierung eurer Bilder solltet ihr entsprechende HTML-Seiten erstellen. Weitere Informationen darüber, wie ihr die Wahrscheinlichkeit einer Anzeige eurer Bilder in unseren Suchergebnissen erhöhen könnt, findet ihr in unserer Webmaster-Tools-Hilfe.

F: Wie werden Links in PDF-Dokumenten behandelt?
A: In der Regel werden Links in PDF-Dateien ähnlich wie Links in HTML behandelt. Sie können PageRank und andere Indexierungssignale weitergeben und wir folgen ihnen möglicherweise, nachdem die PDF-Datei gecrawlt wurde. Es ist derzeit nicht möglich, "nofollow" für Links innerhalb von PDF-Dokumenten zu verwenden.

F: Wie kann ich es verhindern, dass meine PDF-Datei in den Suchergebnissen angezeigt wird bzw. wie kann ich sie nachträglich daraus entfernen?
A: Die einfachste Methode, um zu vermeiden, dass eure PDF-Dokumente in den Suchergebnissen angezeigt werden, ist das Hinzufügen eines X-Robots-Tags "noindex" im HTTP-Header, mit dem die Datei bereitgestellt wird. Sollte die Datei bereits indexiert worden sein, wird sie mit der Zeit entfernt, wenn ihr das X-Robot-Tag mit der Anweisung "noindex" verwendet. Für eine schnellere Entfernung könnt ihr das Tool zum Entfernen von URLs in den Google Webmaster-Tools verwenden.

F: Können PDF-Dateien in den Suchergebnissen hoch eingestuft werden?
A: Klar! Das Ranking für PDF-Dateien gleicht in der Regel dem Ranking anderer Websites. Zum Beispiel werden in den Suchergebnissen für [mortgage market review], [irs form 2011] oder [paracetamol expert report] zum Zeitpunkt der Veröffentlichung dieses Posts (im englischsprachigen Blog) PDF-Dokumente ganz oben angezeigt. Dies ist aufgrund ihres Inhalts, ihrer Einbettung und Verlinkung von anderen Webseiten möglich.

F: Wird es als duplizierter Inhalt angesehen, wenn ich sowohl eine HTML- als auch PDF-Version meiner Seiten habe?
A: Wir empfehlen, Inhalte wenn möglich immer nur in einer Version bereitzustellen. Sollte das nicht möglich sein, legt am besten eure bevorzugte Version fest, indem ihr die URL dieser Version in eurer XML-Sitemap oder die autorisierte URL im HTML-Code oder HTTP-Header der PDF-Datei angebt. Weitere Tipps zur Autorisierung findet ihr in der Webmaster-Tools-Hilfe.

F: Wie kann ich die in den Suchergebnissen angezeigten Titel meines PDF-Dokuments beeinflussen?
A: Wir verwenden hauptsächlich zwei Elemente zur Bestimmung der angezeigten Titel: die Metadaten des Titels in der Datei und den Ankertext von Links, die auf die PDF-Datei verweisen. Aktualisiert am besten beide Elemente, damit macht ihr es unseren Algorithmen einfacher, den richtigen Titel zu ermitteln.


In der Webmaster-Tools-Hilfe findet ihr weitere Tipps zu den Inhaltstypen, die indexiert werden können. Solltet ihr Feedback oder Fragen haben, teilt uns dies bitte über das Webmaster-Hilfeforum mit.


Gepostet von Gary Illyes, Webmaster Trends Analyst (Veröffentlich von Dominik Zins, Search Quality)

Posted:
Das Thema des heutigen Videos sind Trennzeichen in URLs. Matt Cutts erklärt, wie Google Unterstriche im Vergleich zu Bindestrichen in URLs interpretiert und erläutert dabei auch den geschichtlichen Hintergrund, warum das so gemacht wird.



Hallo zusammen. Ich möchte euch ein Update zum Unterschied zwischen Unterstrichen und Bindestrichen in URLs geben. Dazu habe ich viele Fragen erhalten. Und es ist schon lange her, dass ich dieses Thema angesprochen habe. Daher dachte ich,es sei an der Zeit für ein Update.

Zunächst möchte ich euch die Hintergründe erläutern, warum ein Unterstrich in einer URL für uns kein Trennzeichen, sondern ein verbindendes Zeichen ist. Was meine ich damit? Falls ihr in einer URL "rotes Bindestrich Widget" verwendet, betrachten wir diesen Bindestrich als Trennzeichen. Wir indexieren also das Wort "rotes" und wir indexieren das Wort "Widget". Und zwar separat. Wenn ihr hingegen Krieg von 1812 mit Unterstrichen verwendet - d. h. Krieg_von_1812 - sind die Unterstriche für uns keine Trennzeichen, sondern ein Signal, dass die Wörter gemeinsam zu betrachten sind. Es ist also ein Begriff, den ihr durch eine Suche nach "Krieg Unterstrich von Unterstrich 1812" finden könntet. Seltsam, oder? Warum macht Google das so?

Als wir anfingen, spielte AltaVista eine große Rolle. Wir waren nur dieses kleine, winzige Unternehmen. Und wir waren alle Technikfreaks. Ein Haufen Computerprogrammierer. Und wir wollten Begriffe genau wie eingeben finden. Genauigkeit war uns sehr wichtig. Wenn ihr also Programmierer seid, z.B. falls ihr C-Programmierer seid, sagt euch z. B. bestimmt TMP_MAX etwas. Als Programmierer möchtet ihr nach diesem Begriff suchen können und TMP_MAX finden - und zwar genau diesen Begriff. Nicht nur TMP und MAX, die zufällig auf der gleichen Seite sind. Da also die ursprünglichen Entwickler Programmierer waren und die Programmierer in der Lage sein wollten, nach Programmierbegriffen zu suchen, nahmen wir den Unterstrich als verbindendes Zeichen und nicht als Trennzeichen.

In der Praxis macht das keinen großen Unterschied. Es ist beim Ranking eher ein sekundärer Faktor. Keine große Sache, es macht keinen großen Unterschied. Wikipedia hat z. B. viele Seiten mit "Krieg Unterstrich von Unterstrich 1812". Das hält Wikipedia nicht vom Ranking ab. Es gibt nämlich PageRank, Nachbarschaft, Titel usw. Es gibt all die anderen Signale, die wir verwenden, über 200 insgesamt.

Falls ihr jedoch eine Website erstellt und bei Null anfangt - sozusagen ein leeres Blatt Papier vor euch habt - würde ich mich wahrscheinlich für Bindestriche entscheiden. Und ich würde zumindest in der nächsten Zeit auch weiterhin Bindestriche verwenden.

Vor einigen Jahren dachten wir über ein Projekt nach, Unterstriche als Trennzeichen zu verwenden. Aber es stellte sich heraus, dass es sich in unseren Rankings kaum bemerkbar macht. Und es zeigte sich: Es gab für die Entwickler einige andere, wichtigere Projekte - Projekte mit größeren Auswirkungen - an denen sie arbeiten konnten. Zumindest im Moment gilt also noch: Unterstrich = verbindendes Zeichen, Bindestrich = Trennzeichen. Einige Leute haben gefragt: "Ihr habt doch darüber nachgedacht, den Unterstrich als Trennzeichen zu verwenden - macht ihr das schon?" Die Antwort lautet nein. Ich weiß nicht, wann wir das tun werden. Niemand ist für die Arbeit daran vorgesehen. Daher ist es zumindest vorerst besser, bei einem Bindestrich zu bleiben.

Falls ihr bereits eine Website habt, falls sie bereits Unterstriche verwendet, und falls sie bereits so funktioniert, wie ihr möchtet: fangt nicht von vorn an und schreibt jede einzelne URL um. Das würde ich nur tun, wenn es eine ganz neue Website ist, wenn ihr wirklich an etwas Neuem arbeitet. Wenn ihr euch sagen könnt: "Ich kann das so machen, wie ich möchte", ist das ein guter Zeitpunkt, um Bindestriche zu verwenden. Falls ihr euch bereits entschieden habt, und zufällig Unterstriche verwendet, würde ich mir wirklich keine großen Sorgen darüber machen. Es fällt nicht groß ins Gewicht. Ich wollte euch jedoch die Hintergründe erläutern, warum wir es am Anfang so gemacht haben und euch etwas Kontext und ein kurzes Update geben. Ich hoffe, das erklärt es ein bisschen besser. Vielen Dank.

Veröffentlicht von Daniela Loesser, Search Quality Team

Posted:
In den letzten paar Monaten habt ihr vielleicht die +1-Schaltfläche verwendet, damit eure Besucher eure Inhalte in der Google-Suche oder in ihren Google-Profilen einfacher empfehlen können. Wir haben unlängst einige Änderungen vorgestellt, die die +1-Schaltfläche noch nützlicher machen.

Erstens können Besucher über die +1-Schaltfläche jetzt Links zu euren Seiten auf Google+ teilen. Falls jemand eine Unterhaltung über eure Inhalte beginnen möchte, kann er das jetzt ganz einfach tun. Zweitens könnt ihr mit +Snippets den Namen, das Bild und die Beschreibung anpassen, die angezeigt werden, wenn eure Inhalte geteilt werden. Außerdem tragen die neuen Inline-Vermerke dazu bei, das Interesse der Nutzer zu steigern, wenn diese die Empfehlung eines Freundes auf eurer Seite sehen.

Hier einige Tipps, wie ihr diese Verbesserung optimal einsetzt:

+Snippets
Die +1-Schaltfläche macht die Nutzung einer wertvollen neuen Quelle für Zugriffe möglich: das Teilen auf Google+. Mit +Snippets könnt ihr euch von eurer Schokoladenseite zeigen, denn ihr könnt festlegen, was genau beim Teilen eurer Inhalte angezeigt wird.

Wenn ihr beispielsweise eine Website für Filmkritiken betreibt, solltet ihr dafür sorgen, dass eure Besucher Posts mit dem Titel, Filmplakat und einer kurzen Inhaltsangabe teilen:


Möglicherweise nutzt ihr diese Auszeichnungen schon zur Erstellung komplexer Vermerke für eure Seiten in der Google-Suche. Falls nicht, solltet ihr damit beginnen. Die Auszeichnung eurer Seiten ist ganz einfach. Fügt einfach die richtigen schema.org-Attribute zu den bereits auf euren Seiten vorhanden Daten hinzu. In eurem Code legt ihr einen Namen, ein Bild und eine Beschreibung fest:

<body itemscope itemtype="http://schema.org/Article">

<h1 itemprop="name">Dies ist der Name des Artikels</h1>

<img itemprop="image" src="thumbnail.jpg" />

<p itemprop="description">Dies ist die Beschreibung des Artikels</p>

</body>

Beispielcode mit den einzelnen +Snippet-Attributen

Nähere Informationen über alternative Auszeichnungstypen findet ihr in unserer technischen Dokumentation.

Inline-Vermerke
Wenn ein Nutzer nun eine Seite besucht, der ein Freund +1 gegeben hat, sieht er einen Namen und ein Gesicht, das ihn daran erinnert, dass er euren Inhalten besondere Aufmerksamkeit widmen sollte. Das Ganze sieht dann so aus:


Inline-Vermerke zeigen Nutzern, welche ihrer Freunde eurem Inhalt +1 gegeben haben.Damit ihr Inline-Vermerk hinzufügen könnt, müsst ihr den Code für eure +1-Schaltfläche aktualisieren. Ruft das Konfigurationstool auf, wählt aus dem Menü "Annotation" die Option "Inline" und holt euch ein neues Code-Snippet.Falls ihr Anregungen oder Feedback habt, setzt doch die Unterhaltung auf Google+ fort.

Gepostet von Daniel Dulitz, Group Product Manager (Veröffentlicht von Dominik Zins, Search Quality)

Posted:
Heute beschäftigt sich Matt Cutts in seinem Video mit PDFs: Wie kann man diese optimieren? Wie werden PDFs von Google gerankt?



Die heutige Frage kommt aus San Francisco, Kalifornien. Sie lautet: "Was sind die Best Practices im Hinblick auf die Optimierungvon PDFs und anderen Dokumenten? Wann entscheidet Google, diese Dateien anstelle anderer Webseiten anzuzeigen?"

Das ist eine gute Frage. Bei PDF-Dateien gibt es nur wenig, was ihr zur Optimierung beitragen könnt. Ihr könntet sicherstellen, dass das PDF aus Text besteht. PDFs mit Bild-Content eignen sich schlecht. Vielleicht können wir in Zukunft die OCR-Technologie dafür verwenden. Aber die Indexierung eures Dokuments ist definitiv leichter, wenn Text darin enthalten ist. Ihr solltet gute Titel wählen. Eine riesige Anzahl an PDFs gleicht vielleicht eher Shovelware und es hat den Anschein, als würdet ihr den Content automatisch generieren und ihn einfach dort ablegen.

Eine interessantere Frage lautet jedoch: Wie rankt man PDF-Dokumente im Vergleich zu Webseiten? PDF-Dokumente sind normalerweise länger. Nutzer verlinken weniger darauf, denn andere finden es womöglich merkwürdig, wenn ihnen durch einen Klick auf einen Link sofort eine PDF-Datei in einem Reader angezeigt wird. Das ist wie mit Äpfeln und Birnen. Bei Google möchten wir herausfinden, wie nützlich das Ergebnis ist. Ist die Anzeige von PDFs besser für den Nutzer? Oder sind Web-Dokumente hilfreicher? Das ist wirklich schwierig, denn es handelt sich um verschiedene Datentypen wie ein Buch im PDF-Format oder eine Webseite mit 400 Wörtern. Es ist sehr schwierig, den relativen Nutzender beiden Typen zu ermitteln. Es gibt da unterschiedliche Meinungen. Jede Suchmaschine hat ihre eigene Philosophie.

Anhand unseres Wissens über den Nutzer und aller weiteren relevanten Signale versuchen wir einzuschätzen, ob eine PDF-Datei oder eine Webseite nützlicher ist. Es ist eine Wissenschaft für sich. Es ist eher eine Kunst als eine Wissenschaft, da verschiedene Menschen auch unterschiedliche Philosophien haben. Manche möchten keine PDFs als Suchergebnis erhalten. Einige PDFs enthalten lediglich ein paar Übereinstimmungen, sind aber so lang wie ein Buch. Ein paar Treffer in einer PDF-Datei sind daher oft nicht so hilfreich, wie dieselbe Anzahl an Treffern in einem Webdokument. Es ist wirklich ein großes Problem.A ber wir tun unser bestes, trotz dieser verschiedenen Medien und Dokumenttypen das beste Ergebnis für den Nutzer zu ermitteln. Was ist für den Nutzer am nützlichsten und liefert ihm die Informationen, die er benötigt?

Veröffentlicht von Daniela Loesser, Search Quality Team

Posted:
Wir haben ein Update zu Sitelinks herausgebracht, um die Organisation und Qualität unserer Suchergebnisse zu verbessern. Sitelinks sind die beiden Spalten mit Links, die unter manchen Suchergebnissen und Anzeigen angezeigt werden. Dadurch können Nutzer leichter zu passenden Inhalten auf eurer Website navigieren. Sitelinks wurden nicht grundlegend verändert. Sie werden noch immer basierend auf der Link-Struktur eurer Website algorithmisch generiert und eingestuft, und nur angezeigt, wenn sie für eine bestimmte Suchanfrage hilfreich sind.


Sitelinks vor den aktuellen Änderungen

Die Sitelinks wurden in Hinblick auf folgende Faktoren verbessert:
  • Sichtbarkeit. Der Text der Links wird nun in Vollgröße dargestellt. Außerdem wurden die Links mit einer grünen URL sowie einem einzeiliges Text-Snippet erweitert, damit sie den normalen Suchergebnissen ähnlicher sind. Hiermit werden sowohl die einzelnen Sitelinks als auch die Top-Website auffälliger und können besser gefunden werden.
  • Flexibilität. Bislang hatte jede Website eine feste Liste mit Sitelinks, von denen entweder alle angezeigt wurden oder keine. Es gab kein bestimmtes Ranking der Links, das sich nach den Suchanfragen richtete. Durch die Einführung können sich Auswahl und Ranking der Sitelinks bei jeder Suchanfrage ändern. Dies trägt zu optimierteren Suchergebnissen bei. Des Weiteren wurde die maximale Anzahl an Sitelinks, die für eine Website angezeigt werden können, von acht auf zwölf erhöht. Diese Zahl ist ebenfalls von der Suchanfrage abhängig.
  • Deutlichkeit. Bisher wurden Seiten eurer Website entweder in Sitelinks und/ oder in den regulären Suchergebnissen angezeigt. Ab sofort wird die Top-Domain deutlicher von den anderen Domains getrennt. Werden Sitelinks für das Top-Suchergebnis angezeigt, stammen die übrigen Ergebnisse darunter von anderen Domains. Dies trifft jedoch nicht zu, wenn das Top-Suchergebnis einer Anfrage Teil einer Domain ist. Beispielsweise wird als Top-Suchergebnis für die Anfrage [the met exhibitions] www.metmuseum.org/special/ angezeigt und die Sitelinks stammen alle aus dem Website-Bereich www.metmuseum.org/special. Die übrigen Suchergebnisse können jedoch auch aus anderen Teilen der Domain metmuseum.org stammen wie zum Beispiel store.metmuseum.org oder blog.metmuseum.org/alexandermcqueen/about.
  • Qualität. Zusätzlich zu diesen für den Nutzer sichtbaren Änderungen wurden auch einige qualitative Verbesserungen vorgenommen, die optisch nicht zu erkennen sind. Die wichtigste Verbesserung besteht darin, dass wir die für die Generierung und das Ranking der Sitelinks verwendeten Signale, wie beispielsweise die Link-Struktur der Website, mit unserem traditionelleren Ranking-System kombiniert haben. Somit konnten wir einen besseren und einheitlicheren Algorithmus erstellen. Im Ranking gibt es nun keine Trennung mehr zwischen "normalen" Suchergebnissen und Sitelinks.


Sitelinks nach den aktuellen Änderungen

Diese Änderungen werden auch in Webmaster-Tools angezeigt, wo ihr die Sitelinks verwalten könnt, die für eure Website angezeigt werden. Ihr könnt nun auch eine Abwertung für einen Sitelink vorschlagen, wenn ihr diesen als unpassend oder nicht korrekt erachtet. Diese Abwertungen werden von den Algorithmen bei Anzeige und Ranking der Links berücksichtigt. Eine Entfernung ist jedoch nicht garantiert. Da sich Sitelinks im Laufe der Zeit oder abhängig von der Suchanfrage ändern können, ist die Auswahl aus einer festgelegten Link-Liste nicht länger sinnvoll. Ab sofort könnt ihr für jede URL einer beliebigen übergeordneten Seite eine Abwertung vorschlagen. Pro Website werden ca. 100 Abwertungen zugelassen. Außerdem werden alle aktuellen Sitelink-Blockierungen in Webmaster-Tools automatisch für das Abwertungssystem genutzt. Weitere Informationen findet ihr in der Webmaster-Tools-Hilfe.

Wir möchten auch einige Dinge erwähnen, die nicht geändert wurden. Einzeilige Sitelinks, bei denen Sitelinks in einer Reihe für mehrere Suchergebnisse angezeigt werden, und Sitelinks für Anzeigen sind nicht von den Änderungen betroffen. Die vorhandenen bewährten Vorgehensweisen für die Link-Struktur eurer Website gelten noch immer, damit hochwertige Sitelinks generiert werden und eine hohe Nutzerfreundlichkeit gewährleistet bleibt. Ihr könnt eure Fragen oder Kommentare natürlich wie üblich in unserem Webmaster-Hilfeforum posten.

Autoren: Harvey Jones, Software Engineer und Raj Krishnan, Product Manager, Sitelinks Team (Veröffentlicht von Dominik Zins, Search Quality)

Posted:
Vor kurzem hat Matt Cutts wieder eine ganze Menge Webmasterfragen in neuen Videos beantwortet, die jetzt nach und nach veröffentlicht werden. In unserem Webmaster-Zentrale-Blog geht es heute mit der ersten dieser Fragen los: Gibt es eine Obergrenze für die Anzahl von 301-Weiterleitungen sowie für die Anzahl von Verkettungen dieser?



Hallo, ich bin's, Matt Cutts. Willkommen bei einer neuen Webmaster-Fragerunde. Bis jetzt haben wir eure Fragen in über 375 Videos beantwortet. Jetzt dachten wir, wir sollten zu den Anfängen zurückkehren, indem wir die Infovideos mehr als Anleitung gestalten, damit ihr über alles Wichtige Bescheid wisst, auch über die Dinge, die etwas grundlegender sind als zufällige Fragen, die uns jemand gestellt hat, und die wir in zwei Minuten beantworten.

Heute geht es um 301-Weiterleitungen. Die Frage habe ich selbst eingegeben. Sie lautet: Wie viele 301- oder permanente Weiterleitungen kann ich auf einer Website erstellen? Wie viele Weiterleitungen kann ich verknüpfen?

Okay. Schauen wir uns das mal auf dem Whiteboard an. Man kann eine Website auf tausend verschiedene Arten darstellen. Bei Google machen wir das gerne so. Hier habt ihr eure URL-Struktur und darunter euer Unterverzeichnis und auch die einzelnen Seiten auf einer Website. Schauen wir uns jetzt 301-Weiterleitungen an. 301-Weiterleitungen erstellt ihr normalerweise, um von einer Website zur anderen zu gelangen. Dabei könnt ihr 301-Weiterleitungen zur Homepage der neuen Domain erstellen. Aber das ist ziemlich nutzlos. Wenn man nach einerganz bestimmten Seite sucht und auf der Homepage der neuen Domain landet, bringt einem das nicht viel. Deshalb unsere Empfehlung: Erstellt eine 301-Weiterleitung von der alten Seite zur neuen Seite auf der neuen Website.

Die Frage ist jetzt, ob es dafür eine Begrenzung gibt. Kann man zu viele 301-Weiterleitungen erstellen? Was ist, wenn meine Website 100.000 Seiten hat? Steht irgendwo, dass ich keine 100.000 301-Weiterleitungen machen darf? Die Antwort lautet: Nein. Es gibt keine Warteschlange. Es gibt keine Begrenzung. Nirgendwo steht, dass nur 10.000 301-Weiterleitungen von einer Website zur anderen möglich sind. Das ist gut zu wissen. Wir crawlen genauso viele Seiten wie auf der alten Domain. Wenn wir auf eine 301-Weiterleitung stoßen, wird sie in die Crawling-Warteschlange für die neue Location gestellt und verarbeitet.

Nur zur Erinnerung: 301- oder permanente Weiterleitungen solltet ihr nur verwenden, wenn ihr für immer und ewig umziehen wollt und nie wieder zurückkehrt. Wenn es nur vorübergehend sein soll oder ihr es später rückgängig macht, nehmt besser eine 302-Weiterleitung oder eine vorübergehende Weiterleitung.

Okay. Jetzt habt ihr eure 301-Weiterleitungen. Das geht problemlos von jeder Seite aus. Es ist sogar besser, das von jeder Seite zur entsprechenden neuen Seite zu machen. Es gibt keine Begrenzung beider Anzahl der 301-Weiterleitungen, die wir innerhalb einer Website crawlen. Ein Limit gibt es jedoch. Angenommen, ihr fangt auf einer Seite an und erstellt eine 301-Weiterleitung zu einer anderen Seite, und dann zu einer anderen Seite, und dann, ihr ahnt es schon, erstellt ihr eine 301-Weiterleitung zu noch einer Seite und noch einer. An welchem Punkt hält der Googlebot an und sagt: "Weißt du was? Jetzt ist Schluss mit Weiterleitungen."

Es wäre toll, wenn ihr das in einem Sprung hinbekommt. Dann müsst ihr euch keine Sorge machen, dass sich Leute verirren. Die Latenz ist viel geringer usw. Aber wir folgen mehreren Sprüngen, mehreren Ebenen von Weiterleitungen. Aber bei zu vielen Weiterleitungen, also bei über vier oder fünf Sprüngen, ist das ein bisschen riskant, weil Google vielleicht nicht allen Weiterleitungen folgt.

Es gibt also keine Begrenzung pro Seite oder Website. Es gibt pro Website keine Begrenzung für die Zahl der permanenten 301-Weiterleitungen, denen wir folgen. Es gibt aber eine Begrenzung für die Zahl der verknüpften Sprünge, denen wir folgen. Wenn ihr die auf ein oder zwei, vielleicht drei begrenzt, ist das viel besser. Bei fünf oder sechs verknüpften Weiterleitungen stehen eure Chancen fast bei null, dass der Googlebot allen Weiterleitungen folgt, um zum neuen Ziel zu gelangen.

Das war eine kurze Erläuterung. Ich hoffe, sie war einigermaßen verständlich. Wenn ihr mit Weiterleitungen auf Seitenebenen verknüpft, erzeugt ihr eine tolle Nutzererfahrung. Und auch der PageRank sollte gut auf die neue Website fließen. Und so funktioniert alles ziemlich reibungslos. Vielen Dank.

Veröffentlicht von Daniela Loesser, Search Quality Team

Posted:
Die Communities rund um die Produkte und Services von Google sind in den vergangenen Jahren gewaltig gewachsen. Zu sehen, wie viele Nutzer wie Du zu unseren Foren beitragen, ist für uns sehr inspirierend und motivierend. Wir denken schon seit einer Weile darüber nach, wie wir uns bei den Top-Beitragenden bedanken können. Das sind engagierte, hilfreiche, freundliche und sehr aktive Nutzer, die mit ihrem großen Einsatz für unsere Communities den Unterschied ausmachen, in dem sie mit ihrem weitreichenden Wissen beharrlich die Fragen von sehr vielen Menschen in den Foren beantworten.

Top-Beitragende aus der ganzen Welt kommen in Californien zum ersten globalen Treffen zusammen.

Wir haben uns dazu entschieden das Online-Leben für einen Moment beiseitezulassen, um uns in der realen Welt zu treffen, unsere vergangenen Erfolge zu feiern und zukünftige Bemühungen in Angriff zu nehmen. Google-Mitarbeiter und Top-Beitragende kommen am 13. und 14. September in Santa Clara und Mountain View in Kalifornien zum ersten globalen Treffen zusammen. Während der von Google organisierten Veranstaltung treffen Top-Beitragende auf die Mitarbeiter aus den Foren, Software-Ingenieure und Produkt Manager, um sich persönlich kennenzulernen, Feedback zu geben und Ideen auszutauschen. Wir werden hier nach der Veranstaltung ein paar Ideen und Erkenntnisse mit euch teilen. Wenn ihr die Veranstaltung online verfolgen wollt, haltet nach dem #TCsummit Tag auf Twitter und unseren News auf Google+ Ausschau.

Autoren: Esperanza Navas und Kaspar Szymanski, Search Quality Team (Übersetzung von Dominik Zins, Search Quality)

Posted:
Jeder im Web weiß, wie frustrierend es ist, wenn Suchergebnisse von Websites manipuliert werden. Diese Websites können auch als Webspam bezeichnet werden. Sie verstoßen gegen die Google-Richtlinien für Webmaster und versuchen, Google mit Tricks dazu zu veranlassen, in den Suchergebnissen weiter vorne zu erscheinen. Wir bei Google arbeiten intensiv daran, diese Websites aus euren Suchergebnissen auszuschließen. Sollten sie euch jedoch immer noch angezeigt werden, könnt ihr uns dies über unser Webspam-Formular mitteilen. Wir haben ein neues, verbessertes Webspam-Formular eingeführt, mit dessen Hilfe es noch einfacher ist, uns bei der Aufrechterhaltung der Qualität unserer Suchergebnisse zu unterstützen. Sehen wir uns einige Funktionen unseres neuen Formulars an:

Möglichkeit zum Melden verschiedener Probleme bei der Suche
Viele Suchergebnisse, wie Websites mit Malware und Phishing, bei denen es sich nicht unbedingt um Webspam handeln muss, beeinträchtigen die Qualität der Suchergebnisse. Unsere Nutzer teilen uns gelegentlich auch diese Probleme über unser Webspam-Berichtsformular mit. Dadurch kommt es zu einer Verzögerung zwischen der Meldung durch den Nutzer und der Bearbeitung des Problems durch das zuständige Team bei Google. Auf der Zwischenseite des neuen Formulars könnt ihr diese oder andere Probleme bei der Suche direkt den entsprechenden Teams zuweisen. Dadurch können sie zügig verarbeitet werden.

Vereinfachtes Formular mit informativen Links
Zur Verbesserung der Lesbarkeit des Formulars wurde der Text verkürzt. Außerdem wurden hilfreiche Links zu den Anweisungen des Formulars hinzugefügt. Ab sofort könnt ihr per Mausklick unsere Richtlinien für Webmaster durchsuchen, euch darüber erkundigen, wie umsetzbare Formulareinträge zu verfassen sind, und Websites für eure personalisierten Suchergebnisse blockieren.

Dankesseite mit personalisierten Optionen
Einige der wertvollsten Informationen erhalten wir von unseren Nutzern. Wir schätzen die Webspam-Berichte, die ihr uns schickt. Auf der Dankesseite wird erklärt, wie wir nach Erhalt eures Webspam-Berichts vorgehen. Wenn ihr noch mehr Webspam-Berichte einreichen möchtet, klickt auf den Link zurück zur Formularseite. Ihr könnt euch auch die Anweisungen zum effizienteren Melden von Webspam mithilfe der entsprechenden Chrome-Erweiterung ansehen. Außerdem informieren wir euch darüber, wie ihr eine entsprechende Website direkt aus euren Suchergebnissen entfernt, zum Beispiel über die Verwaltung blockierter Websites in eurem Google-Konto.

Wir bei Google streben stets danach, euch die qualitativ hochwertigsten und relevantesten Suchergebnisse zur Verfügung zu stellen. Daher nehmen wir eure Webspam-Berichte sehr ernst. Wir hoffen, das Melden von Webspam durch unser neues Formular so einfach wie möglich zu gestalten. Solltet ihr dennoch nicht zufrieden sein, teilt es uns bitte in euren Kommentaren mit.

Gepostet von Jen Lee und Alissa Roberts, Search Quality Team, (Veröffentlicht von Dominik Zins, Search Quality)