Montag, 30. November 2009

Anzeige der Website-Hierarchie in den Suchergebnissen

Google zeigt gewöhnlich in der letzten Zeile eines jeden Suchergebnisses eine grüne Webadresse oder URL an, damit User nachvollziehen können, wohin ein Klick führt. Seit kurzem ersetzen wir die URL für einige Suchresultaten durch eine Hierarchie, die den genauen Platz einer Seite innerhalb der Website darstellt. Die neue Anzeige vermittelt hilfreichen Kontext und eröffnet neue Möglichkeiten der Navigation.

Einige Webadressen helfen dabei, die Struktur einer Website zu verstehen. Sie verdeutlichen, wie eine bestimmte Seite in die Gesamthierarchie einer Website passt. Sucht man beispielweise nach der Biographie von Vint Cerf ("Internet Evangelist" von Google), dann zeigt die URL für das Ergebnis "www.google.com/corporate/execs.html," dass sich der Content auf einer Seite über "execs" unter "corporate" auf der Website "google.com" befindet. Das kann hilfreichen Kontext für die Entscheidung liefern, auf das Ergebnis zu klicken.

Oft sind die URLs aber zu lang, zu kurz oder zu wenig informativ, um nützliche Informationen zu vermitteln. Schaut euch zum Beispiel dieses Ergebnis von ProductWiki für die Suche [spidersapien reviews] an:


Die URL dieses Ergebnisses ist "www.productwiki.com/spidersapien" und enthält somit nicht viele zusätzliche Informationen über die Website oder das Suchergebnis. Schauen wir uns das Suchergebnis mit der neuen Darstellung der Hierarchie der Website an:


Der neue Text enthält sinnvolle Informationen über die Seite. Ihr könnt erkennen, dass ProductWiki Informationen zu vielen unterschiedlichen Produkten enthält, die in unterschiedlichen Kategorien organisiert sind, und sogar, dass Spidersapien ein Spielzeugroboter ist. Zusätzlich ist jede Wortgruppe innerhalb der grünen Zeile ein Link. Klickt man beispielsweise auf "Toys & Games", kommt man zu einer Liste mit allen Spielzeugprodukten auf ProductWiki, und klickt man auf "Robots", bekommt man eine Liste aller Spielzeugroboter. Ist man an einer allgemeineren Kategorie interessiert, kann man diese so einfach erreichen. (Es gibt ja jede Menge cooler Spielzeugroboter.)

Der Host- und Domainname für die Website (in diesem Fall www.productwiki.com) wird immer angezeigt. Ihr wisst also immer, auf welche Website ihr kommt, bevor ihr auf den Link klickt. Es ist nicht immer genügend Platz, um die komplette Hierarchie anzuzeigen, deshalb verwenden wir manchmal Auslassungspunkte statt einiger der Zwischenstufen wie im Resultat für [how to make granola]:


Die Informationen in diesen neuen Hierarchien stammen aus einer Analyse der Zielseiten. Wenn ihr beispielsweise die ProductWiki-Spidersapien-Seite anseht, werdet ihr eine Reihe von ähnlichen Links ganz oben entdecken: "Home> Toys & Games> Robots". Diese im Web weit verbreiteten Hilfsmittel für die Navigation nennt man "Breadcrumbs" oder "Brotkrumen" und sie werden von vielen Webmastern zur Unterstützung der User eingesetzt. Durch eine Analyse der Breadcrumbs einer Website war es uns möglich, die Snippets für einen kleinen Anteil von Suchergebnissen zu verbessern. Wir hoffen, dies in Zukunft ausbauen zu können.

Wenn wir an der Darstellungsart von Suchergebnissen auf Google arbeiten, ist es unser Ziel, die gesuchten Informationen so schnell wie möglich zu vermitteln. Manchmal versuchen wir das über verbesserte Darstellung von Websites zu erreichen und manchmal darüber, dass wir neue Wege für die User suchen, Content zu erforschen. Wir freuen uns immer, wenn wir ein neues Feature vorstellen, das beide Ansätze vereint - wie es etwa die Hierarchien für Websites tun.

Post von Harvey Jones und Daniel Rocha, Software Engineers, Result UI Team (Übersetzung von Jörg, Search Quality Team)

Donnerstag, 26. November 2009

"Neue Software-Version"-Benachrichtigungen in den Webmaster-Tools

Einer der Gründe, weshalb es Spaß macht, bei Google zu arbeiten, ist, dass wir Zugriff auf eine riesige Rechenleistung haben und einige wirkliche coole Sachen machen können. Eine Idee, an der wir vor kurzem gearbeitet haben, war es, Webmaster darüber zu informieren, dass sie eine potentiell hackbare Website haben. Diese Initiative war so erfolgreich, dass wir das Ganze jetzt noch etwas ausbauen möchten, indem wir weitere Arten von Webanwendungen abdecken - z. B. mehr Content-Management-Systeme (CMS), Forums- und Messageboard-Systeme, Statistik-Tracker etc.

Dieses Mal geht es uns jedoch nicht nur darum, verwundbare oder hackbare Software-Systeme zu erkennen, sondern auch darum, Webmaster zu informieren, falls es neuere Versionen ihrer Software-Systeme oder Plug-ins gibt. So kann es beispielsweise ein Update eines Drupal-Moduls oder einer Joomla-Extension geben, aber viele Leute verwenden trotzdem noch die alte Version. Es gibt einige Gründe dafür, weshalb ein Webmaster vielleicht nicht auf eine neuere Version updated und einer davon ist, dass das neue Update möglicherweise einfach nicht bekannt ist. Wir denken, dass wir an dieser Stelle helfen können: Wir wollen versuchen, Webmaster zu informieren, wenn eine neue Version ihrer Software bereitsteht, indem wir eine Nachricht in den Webmaster-Tools anzeigen. Auf diese Weise ist es Webmastern möglich, eine fundierte Entscheidung zu treffen, ob sie updaten wollen oder nicht.

Eine der Methoden, Sites zu erkennen, die wir benachrichtigen wollen, besteht darin, den Quellcode der Webseiten beim Crawling zu parsen. So beinhalten z. B. Wordpress und andere CMS-Systeme ein "generator"-Meta-Tag, das die Versionsnummer angibt. Dies hat sich bei unseren Bemühungen, Webmaster über Updates zu benachrichtigen, als äußerst hilfreich erwiesen. Falls ihr Software-Entwickler seid und uns dabei unterstützen wollt, eure User zu informieren, wenn eine neue Software-Version bereitsteht, könnt ihr das tun, indem ihr einen "generator"-Meta-Tag mit der Versionsnummer eurer Software bereitstellt. Plug-in- oder Widget-Entwickler können ebenfalls durch die Platzierung einer Versionsnummer im von den Usern verwendeten Quelltext helfen.

Im Lauf der Zeit haben wir unterschiedliche Meinungen darüber gehört, ob es in Bezug auf die Sicherheit sinnvoll ist, eine Versionsnummer im Quelltext anzugeben - schließlich kann ein Hacker oder Virenschreiber daran erkennen, welche Website gegenüber einer bestimmten Attacke verwundbar ist. Dazu hat sich beispielsweise Matt Mullenweg von Wordpress geäußert: "Während die Version 1.0 [eines Virenautors] vielleicht nur auf Versionsnummern hin geprüft hat, kann seine Version 2.0 vielleicht bereits die Fähigkeiten [einer Website] prüfen...". Währenddessen besteht der Vorteil in der Angabe einer Versionsnummer darin, dass sie dabei helfen kann, die Besitzer der Seite darüber zu informieren, wann sie ihre Site updaten sollten. Im Endeffekt glauben wir, dass bei der Nennung der Versionsnummer die Vorteile gegenüber den Nachteilen überwiegen.

Wir versuchen, die ersten Nachrichten bald zu verschicken und hoffen, dass sie hilfreich sein werden! Falls ihr dazu Fragen oder Feedback habt, könnt ihr hier kommentieren oder auf unserem Forum für Webmaster diskutieren.

'New software version' notifications for your site (English version)

Post von Patrick Chapman, Search Quality Team (Übersetzung von Sven, Search Quality Team)

Montag, 23. November 2009

Videoergebnisse in der Universellen Suche

Heute spricht Matt Cutts darüber, welche Faktoren ein Videoergebnis in der Universellen Suche beeinflussen können.



Transkript:
Wir haben eine Frage von No Pork Pies aus Brighton, für die nächste Fragerunde werde ich einen richtige Namen verlangen müssen, anstelle von Spitznamen.

"Welche Faktoren beeinflussen ein Video in den Universellen Ergebnissen in Google? Ich habe das gleiche Video, eins auf Youtube mit vielen Views, Kommentaren und Bewertungen, dennoch ist das andere mit wenigen Views und keinen Kommentaren dasjenige, das rankt, wie kommt das?"

Also, meine erste Vermutung, ohne Genaueres zu wissen, ist, dass dieses Video evtl. Links von einer sehr angesehenen Site bekommt und daher mehr PageRank hat.
Wir schauen immer noch auf Links; wir schauen immer noch auf PageRank, wann immer wir Dinge ranken. Falls dieses Video Erwähnung auf einer sehr angesehenen Site findet, dann könnte es sein, dass es mehr PageRank hat und daher besser rankt. Es ist seltsam - wenn das eine Video mehr Views, Kommentare und Bewertungen hat, dann bekommt es wohl Empfehlungen von irgendwoher, aber vielleicht war dort ein wirklich guter Link, der auf die andere Site verweist, und diese hier hat nicht so viele Links o. ä.
Weisst du, die Faktoren, die ein Video in den universellen Ergebnissen beeinflussen, sind oft sehr ähnlich zu denen, die die Websuche beeinflussen. Wir schauen beispielsweise darauf, wie gut ein bestimmtes Ergebnis zum Thema oder den Textergebnissen passt. Und dann müssen wir auch einen Eindruck von der Reputation der Seite haben. Und solche Dinge wie Links können in diesem Beispiel einen Einfluss haben.

Übersetzung von Claudia, Search Quality

Freitag, 20. November 2009

So erleichtert ihr Google die Indexierung eurer Site für mobile Endgeräte

Es scheint als ob die ganze Welt mobil erreichbar ist - viele Leute nutzen ihr Handy täglich und immer mehr Menschen nutzen Googles Suchseite für mobile Endgeräte. Als Webmaster ist es jedoch nicht so einfach, eine Site für die Darstellung auf Handys zu betreiben und Traffic von mobilen Nutzern zu bekommen. Mobile Sites verwenden nicht nur ein anderes Format als eine normale Site für den Computer sondern sie erfordern auch ganz andere Management-Methoden und neue Fachkenntnis. Dies führt zu einer Anzahl an neuen Herausforderungen. Als Entwickler im Bereich der mobilen Suche, kann ich beobachten, dass mobile Sites klar mit dem Fokus auf die mobile Darstellung entwickelt wurden, dabei jedoch nicht unbedingt suchmaschinenfreundlich erstellt wurden. Ich möchte euch dabei helfen, sicher zu stellen, dass eure mobile Site auch für die Nutzer der mobilen Suche auffindbar ist.

Hier sind einige Tipps, damit eure Site korrekt gecrawlt und indexiert wird:

Prüft, ob eure mobile Site von Google bereits indexiert ist

Falls eine Site nicht in den Ergebnissen einer mobilen Suche auftaucht, sogar wenn ihr den "site:-Operator" verwendet, dann kann es sein, dass bei der Site eines oder beide der folgenden Probleme bestehen:
Möglicherweise kann Googlebot die Site nicht finden
Unser Crawler, Googlebot, muß eine Site erst crawlen, bevor diese in unseren Suchindex aufgenommen werden kann. Wenn die Site gerade erst erstellt worden ist, kann es sein, dass wir einfach noch nicht über diese Site Bescheid wissen. In diesem Fall, könnt ihr eine mobile XML-Sitemap erstellen, bei Google einreichen und uns so über die Existenz der Site informieren. Eine mobile Sitemap kann mittels der Webmaster-Tools eingereicht werden - so wie das bei gewöhnlichen Sitemaps auch der Fall ist.

Möglicherweise kann Googlebot nicht auf die Site zugreifen
Einige mobile Internetseiten blockieren den Zugriff für alles außer Mobiltelefone, wodurch es für Googlebot unmöglich wird, auf diese Site zuzugreifen - dadurch bleibt eine solche Site durch die Suche unauffindbar. Unser Crawler für mobile Sites heisst "Googlebot-Mobile". Falls ihr möchtet, dass eure Site gecrawlt wird, solltet ihr jeden User-Agent, einschließlich "Googlebot-Mobile", zulassen. Der genaue Name unseres User-Agents kann sich jedoch jederzeit ohne Vorankündigung ändern. Deshalb ist es nicht empfehlenswert zu prüfen, ob der User-Agent exakt "Googlebot-Mobile" (was gegenwärtig verwendet wird) entspricht - stattdessen solltet ihr prüfen, ob der User-Agent-Header den String "Googlebot-Mobile" enthält. Ihr könnt auch DNS-Lookups verwenden um Googlebot zu verifizieren.

Prüft, ob Google eure mobilen URLs erkennen kann

Sobald Googlebot-Mobile eure URLs crawlt, prüfen wir auch, ob die jeweilige URL auf einem mobilen Endgerät darstellbar ist. Die Seiten werden nicht in unseren mobilen Index aufgenommen, wenn wir erkennen, dass sie sich nicht auf mobilen Endgeräten darstellen lassen (sie werden aber möglicherweise in unseren regulären Index aufgenommen). Diese Bestimmung erfolgt anhand zahlreicher Faktoren, wobei einer davon die "DTD" (Doc Type Definition) ist. Stellt sicher, dass die DTDs eurer mobilen URLs in einem passenden mobilen Format sind, wie z. B. XHTML Mobile oder Compact HTML. Falls ein kompatibles Format vorliegt, ist die Seite für den mobilen Suchindex geeignet. Weitere Informationen dazu könnt ihr in unseren Richtlinien für Webmaster mobiler Websites finden.

Falls ihr weitere Fragen dazu habt, könnt ihr diese auf unserem Forum für Webmaster stellen wo euch viele erfahrene Webmaster und auch einige von uns gerne weiterhelfen.

Help Google index your mobile site (English version)

Post von Jun Mukai, Software Engineer, Mobile Search Team (Übersetzung von Sven, Search Quality Team)

Donnerstag, 19. November 2009

Wie man Googlebot authentifizieren kann

Immer wieder fragen Webmaster nach, wie sie überprüfen können, ob ein Bot nicht unter falscher Flagge auftritt. Wie soll man auch wissen, ob ein Spammer seinen Bot "Googlebot" nennt und dann so tut, als wäre er Google? Welchen Bots kann man also vertrauen und welche kann man ruhigen Gewissens blockieren?

Wir werden regelmäßig darum gebeten, eine Liste von den IP-Adressen zu veröffentlichen, die der Googlebot benutzt. Das Problem daran: sollten wir die IPs unserer Crawler ändern, werden das viele verpassen. Vor einigen Jahren hat das Crawl-Team die IP-Adressen für den Googlebot tatsächlich geändert und es war ein großer Aufwand Webmaster, die nur für den alten IP-Bereich konfiguriert hatten, auf die Änderung aufmerksam zu machen. Deshalb hat das Crawl-Team eine andere Möglichkeit gefunden, um den Googlebot zu authentifizieren. Hier findet ihr ein (übersetztes) Zitat vom Crawl-Team:

Es scheint am besten zu sein, wenn Webmaster DNS benutzen, um bestimmte Fälle zu verifizierenn. Ich würde einen umgekehrten DNS-Lookup empfehlen und sicherstellen, dass es sich um die Domain googlebot.com handelt. Daraufhin sollte man einen entsprechenden vorwärtsgerichteten DNS->IP-Lookup mit dem Namen googlebot.com vornehmen. Beispielsweise:

> host 66.249.66.1
1.66.249.66.in-addr.arpa domain name pointer crawl-66-249-66-1.googlebot.com.

> host crawl-66-249-66-1.googlebot.com
crawl-66-249-66-1.googlebot.com has address 66.249.66.1

Ich glaube nicht, dass bloß ein umgekehrter DNS-Lookup genug wäre, denn ein Betrüger könnte es so einrichten, dass ein umgekehrter DNS-Lookup auf crawl-a-b-c-d.googlebot.com verweist.

Diese Antwort findet sich auch in der Hilfe für Webmaster. Sie kann daher als die offizielle Methode dafür gelten, den Googlebot zu authentifizieren. Bots, die aus dem "offiziellen" Googlebot-IP-Bereich heraus crawlen, müssen außerdem die robots.txt und unsere internen Hostload-Konventionen respektieren, damit Google beim Crawlen nicht übertreibt.

How to verify Googlebot (English version)

Übersetzung von Jörg, Search Quality Team

Mittwoch, 18. November 2009

Die Position von Keywords in der URL

Hat die Anordnung der Keywords in einer URL erkennbare Auswirkungen aufs Ranking? Mit dieser Frage setzt sich Matt Cutts im heutigen Video auseinander.



Transkript:
Eine interessante Frage von Adeel aus Manchester, UK:

"Hat die Position von Keywords in der URL eine erkennbare Auswirkung? Ist zum Beispiel example.com/keyword/London besser als example.com/London/keyword?"

Ehrlich gesagt würde ich mir wegen solcher Details keinen Kopf machen. Es hilft ein wenig, Keywords in der URL zu haben. Es hat keine so große Auswirkung; ihr braucht also eure URLs nicht mit unzähligen Keywords vollzustopfen.

Wenn es eine bequeme Möglichkeit gibt, vier oder fünf Keywords unterzubringen, die für den User relevant sind, kann sich das auszahlen, aber ich würde mir nicht zu viele Gedanken über Details wie die Anzahl der Verzeichnisse in der URL oder ihre Kombination machen. Auf meinem Blog zum Beispiel, wenn ich einen Post veröffentliche, nehme ich die ersten vier oder fünf Worte oder zwei bis drei Worte mit Bezug zum Post und benutze die als URL.

Aber: ihr müßt nicht sieben, acht, zehn oder zwanzig Worte verwenden, denn das sieht für User nur nach Spam aus und sie werden wahrscheinlich gerade deshalb nicht so oft darauf klicken. Deshalb ist die Position eine sehr unbedeutende Sache, wenn es um Keywords in den URLs geht. Ich würde mir da keine Sorgen machen, sondern eher auf guten Content setzen, zu dem die Leute verlinken wollen und der sie interessiert.

Übersetzung von Jörg, Search Quality Team

Dienstag, 17. November 2009

SES Berlin, wir kommen!

Am 23.-25. November findet die Search Engines Strategies Konferenz in Berlin statt.
Und nach der gelungenen Veranstaltung letztes Jahr in Hamburg, wollen wir uns das natürlich nicht entgehen lassen!


Falls ihr auch dabei seid, heissen wir euch in unseren Sessions willkommen und freuen uns auf viele Unterhaltungen zwischen den Panels!

Post von Uli Lutz, Search Quality Strategist

Texterkennung bei Bildern

Heute beantwortet Matt Cutts die Frage, ob Google eines Tages Text in Bildern erkennen wird.



Transkript:
Pigatto aus Erechim, Brasilien, fragt: "Wird Google eines Tages Text in Bildern erkennen?"

Also, das wäre wirklich ein riesiges Vorhaben. Ich denke, es wäre lustig - wir haben schon mal bei einer Runde Billard gescherzt: "Wäre es nicht super, das Web zu crawlen und für alle Bilder, die wir finden, eine optische Zeichenerkennung (OCR) laufen zu lassen?"

Das wäre wirklich eine Menge Arbeit. Ich meine, es ist eine lustige Idee, aber ich glaube nicht, dass ihr bei Google in nächster Zeit darauf zählen solltet.

Übersetzung von Sven, Search Quality Team

Freitag, 13. November 2009

Neue Keywords-Benutzeroberfläche in den Webmaster-Tools

Wir hatten viel Spass an Halloween und wir hoffen, dass es euch ähnlich ging. Wie das Bild zeigt, haben wir uns auch mit den Kostümen ernsthaft Mühe gegeben. :)


Wir haben auch eine kleine Überraschung für euch. Wir freuen uns, eine komplett neue Benutzeroberfläche für die Keywords-Funktion in den Google Webmaster-Tools präsentieren zu können: ab sofort gibt es ein tägliches Update dieser Daten. Es wird angezeigt, wie oft ein bestimmtes Keyword von uns gefunden wurde. Außerdem scheint eine Handvoll von URLs von Seiten, die das Keyword enthalten, auf. Die Spalte "Bedeutung" vergleicht die Häufigkeit der Keywords mit der Häufigkeit des beliebtesten Keywords auf eurer Website. Wenn ihr auf ein Keyword klickt, um mehr Details zu sehen, bekommt ihr eine Liste von bis zu 10 Seiten, die das entsprechende Wort enthalten.

Dies ist besonders hilfreich, wenn ihr eure Website mit einem neuem Framework aufsetzt, oder um gehackte Seiten ausfinding zu entdecken. Wenn ihr beispielsweise feststellt, dass für eure Website Begriffe in den Suchergebnissen auftauchen, die überhaupt keinen Bezug zum Inhalt haben (möglicherweise "Viagra" oder "Casino"), dann könnt ihr diese Funktion verwenden, um diese Keywords und die betroffenen Seiten ausfindig zu machen. So könnt ihr gehackten Content schnell beseitigen.




Teilt uns mit, was ihr davon haltet!

Post von Kurt Dresner, Tanya Gupta und Sagar Kamdar, Webmaster Tools Team (Übersetzung von Jörg, Search Quality Team)

Donnerstag, 12. November 2009

Was tun, wenn die Konkurrenz spammt?

Matt spricht in diesem Video über "Crap Hat"-SEO und erwähnt, dass ihr uns einen Spam-Bericht schicken könnt, wenn ein Konkurrent solche Methoden anwendet.



Laura Thieme aus Columbus, Ohio sagt:

"Der Konkurrent eines Kunden hat rund 100 Blogs mit kaum echtem Content erstellt.
Er wird bei Google für alle wichtigen Keywords seiner Branche super gerankt.
Warum kommt man mit dieser Taktik immer noch durch? Ich dachte, das sei eine "Crap Hat"-Taktik?"

"Crap Hat" ist ein Ausdruck, den Danny Sullivan kürzlich auf einer Konferenz verwendet hat. "Crap Hat" drückt die Verärgerung darüber aus, wenn jemand nur so spammigen Schund produziert, der keinem was bringt. Laura, schick uns doch einen Spam-Bericht mit Details, denn hey, das würde ich mir gern mal näher ansehen.
Ich glaube, dass unsere Algorithmen ziemlich gut darin sind zu definieren, welche Links nicht zählen sollten, aber wir freuen uns immer über neue Daten in Bereichen, wo wir uns verbessern können oder zu Linktauschprogrammen, die wir anscheinend nicht entsprechend gewichten, sofern sie sehr ausufernd sind. Also, schick uns einen Bericht, damit wir da einen Blick drauf werfen können, denn sowas bekommen wir liebend gern. Und dann mal schauen, wie es damit weitergeht. Danke.

Übersetzung von Johanna, Search Quality Team

Mittwoch, 11. November 2009

Blogrolls und die Reputation von Blogs

Im heutigen Video befasst sich Matt Cutts mit der Frage, ob Blogroll-Links zu befreundeten Websites den PageRank der eigenen Site beinflussen können.





Transkript:

Remiz Rahnas aus Kerala in Indien fragt:

"Ich habe auf meinem Blog eine "Blogroll"-Seite mit Links zu den Blogs aller meiner Freude. Beeinflusst das die Reputation meines Blogs in Google? Vor kurzem wurde bei einem Freund von mir wegen einer solchen Seite der PageRank von 5 auf 0 herabgesetzt."

Sicher haben eure Links Einfluss auf eure Reputation. Wenn ihr zu Spam-Seiten verlinkt, also zu Seiten, die wir als Müll ansehen, kann das die Reputation beeinträchtigen. Und wenn ihr Links in der Blogroll verkauft, stellt das sicherlich ein großes Risiko dar. Aber nur weil ein Freund beim PR von 5 auf 0 abgerutscht ist, bedeutet das nicht unbedingt, dass es an der Blogroll lag. Es heißt auch nicht unbedingt, dass wir annehmen, er verkaufe Links. Es könnte ein zeitweiliges Problem
mit der Kanonisierung sein. Deshalb würde ich nicht automatisch annehmen "Oh, das lag also an der Blogroll."

Das war's schon. Wenn ihr eine Blogroll habt, sollten allerdings echte, organische Links enthalten sein, nicht Links, die ihr heimlich verkauft und als Blogroll oder so ähnlich bezeichnet.

Im Allgemeinen ist es gut, eine Blogroll zu haben. Ich habe eine auf meinem Blog. Also seid nicht besorgt, eine zu führen. Aber, falls ihr zu Spam verlinkt oder zu Sites, die ihr selbst als qualitativ minderwertig anseht, seid euch darüber im Klaren, dass dies beeinflussen kann, wie wir die Qualität eurer Website einschätzen.

Übersetzung von Jörg, Search Quality Team

Dienstag, 10. November 2009

Können Produktbeschreibungen Duplicate Content sein?

Matt beantwortet heute wieder eine Frage zum Thema "Duplicate Content". Diesmal geht es darum, ob Produktbeschreibungen manchmal als Duplicate Content betrachtet werden können.



Transkript:
Mani aus Dehli fragt:

"Sind Produktbeschreibungen auf E-Commerce-Seiten Duplicate Content, falls die gleichen Produktbeschreibungen auf anderen Seiten auftauchen? Dies passiert bei vielen Markenartikeln."

Mani, du hast Recht - so etwas kommt vor. Und meistens liegt es daran, dass es sich nicht um eigenen Content handelt. Wenn man z. B. einen Affiliate-Feed nimmt, der vielleicht Bilder hat oder auch nicht und man dann den gleichen Content auf einer E-Commerce-Seite zeigt wie 400 andere Sites auch, dann ist es wirklich sehr schwer, sich von den anderen abzuheben.

Man sollte sich fragen:
"Wo ist bei mir der Mehrwert? Was hat meine Affiliate-Site oder Site ohne eigenen Content an Mehrwert im Vergleich zu den hunderten anderer Sites?"

Wenn möglich, versucht eigenen Content zu erstellen und einen einzigartigen Mehrwert zu bieten. Nehmt nicht einfach einen Affiliate-Feed und schustert damit eine billige Site zusammen. Sowas möchte doch eigentlich niemand sehen. Im Allgemeinen ist es also am Besten, wenn ihr einen eigenen Blickwinkel bietet und nicht bloß genau das Gleiche, was alle anderen auch haben.

Übersetzung von Sven, Search Quality Team

Freitag, 6. November 2009

Welche Website-Struktur ist besser?

In diesem Video gibt Matt Cutts Tipps zur Platzierung von Seiten innerhalb der Website-Struktur.



Transkript
Hier ist eine Frage aus London. Katy Bairstow fragt:

"Es scheint von geringer Bedeutung für Besucher zu sein, wo genau sich eine Seite innerhalb der Sitestruktur befindet. Ist es besser, Content-Seiten nahe an der Root zu platzieren, oder sollten sie in eine tiefere, themenbezogene Struktur eingeordnet sein?"

Dies ist kein SEO-Tipp. Dies ist ein rein praktischer, allgemeiner Tipp. Je weniger Klicks benoetigt werden,
um eine Seite von der Root aus zu erreichen, desto wahrscheinlicher ist es, dass Besucher sie finden. Falls jemand achtmal klicken muss, um die Registrierungsseite für eure Konferenz zu finden, anstatt sich gleich auf der Hauptseite registrieren zu können, dann werden weniger Leute diese durch so viele Klicks entfernte Seite finden.
Es ist also relativ egal, wo sich die Seite im Pfad befindet, ob sie nun auf der Hauptebene oder acht Ebenen tiefer ist. Es könnte für andere Suchmaschinen eine Rolle spielen. Aber zumindest im Hinblick auf Google würde ich eher darauf achten, ob eure Besucher sie finden können. Und das ist kein Ranking-Tipp für Suchmaschinen. Es ist eher ein allgemeiner Tipp, wie ihr euren ROI verbessern könnt.

Mittwoch, 4. November 2009

Zwei Fragen zum Operator "link:"

Heute spricht Matt Cutts über den "link:"-Operator, auf Englisch auch "Link-Colon" genannt, also wörtlich "Link-Doppelpunkt".



Transkript:

Sven Heß aus Wiesbaden fragt:

"Wie genau geht Google beim Backlink-Check mit [link:...] vor? Werden alle Nofollow-Backlinks ausgefiltert oder warum zeigen Yahoo/MSN mehr Backlinks oder Ergebnisse?"

Die kurze Antwort lautet: Früher hatten wir nur für einen kleinen Anteil der Backlinks Platz, weil die Websuche im Mittelpunkt stand und wir nicht so viele Server für diese Link-Doppelpunkt-Anfragen hatten.
Im Laufe der Zeit haben wir die Anzahl der Backlinks, die wir mit Link-Doppelpunkt anzeigen, stark vergrößert. Es ist aber immer noch nur ein Ausschnitt, ein relativ kleiner Anteil. Und ich denke, dass es so gut ausgewogen ist, denn wenn wir einfach automatisch massenhaft Backlinks für jede Website anzeigen, dann können Spammer und Konkurrenten diese Informationen verwenden, um aus dem Ranking Rückschlüsse zu ziehen. Und ihr wollt nicht unbedingt, dass jemand euer Ranking ausspioniert und versucht herauszukriegen, wie er mit euch konkurrieren kann, indem er jeden einzelnen Link, den ihr habt, zurückverfolgt. Stattdessen versuchen wir einen guten Kompromiss zu machen.
Wenn eure Website bei google.com/webmasters in unserer Webmaster-Zentrale registriert ist, dann könnt ihr alle oder fast alle Backlinks, die wir von euch kennen, sehen. Also: der allergrößte Anteil eurer Backlinks, über die wir Bescheid wissen, ist in der Google Webmaster-Zentrale einsehbar. Ihr könnt also einen Ausschnitt für jede Website oder jede Seite im Web sehen, aber wenn ihr wirklich so gut wie alles sehen wollt, was wir wissen, könnt ihr es für eure eigene Website überprüfen, jedoch nicht unbedingt für die Konkurrenz. Wir meinen, dass dies ein ziemlich guter Kompromiss ist und es ist wahrscheinlich der Grundsatz, dem wir auch in Zukunft folgen.

Tim aus San Diego fragt:

"Wenn man eingehende Links von Websites mit gutem Ruf kriegt, aber diese Websites nicht in einer Suche mit [link:webname.com] auftauchen, heißt das, dass aus der Perspektive von Google diese eingehenden Links nicht zählen?"

Nein, das tut es nicht. Link-Doppelpunkt zeigt nur einen Ausschnitt, einen Teilausschnitt von den Backlinks, die wir kennen. Und es ist ein zufälliger Ausschnitt. Deshalb zeigen wir nicht nur die Backlinks mit hohem PageRank. Das haben wir früher so gemacht - und dann konnten alle mit PageRank 4 oder darunter ihre Backlinks nicht sehen, weil sie nicht als hoher PageRank zählten. Deshalb haben wir es fairer gestaltet, indem wir zufällig bestimmen, welche Backlinks wir zeigen. Wir haben zu dem Zeitpunkt auch die Anzahl der gezeigten Backlinks ungefähr verdoppelt. Was interessant ist: wenn nur Links angezeigt werden, die PageRank vererben oder denen wir vertrauen oder die nicht auf Nofollow gestellt sind, dann werden daraus Rückschlüsse gezogen und Leute sagen: "Oh, ich versuche die Links zu kriegen, die wirklich Wert haben." Deshalb zeigen wir Links, die in unserem System viel Wert haben und wir zeigen auch solche Links, denen wir nicht trauen und die in unserem System kaum was wert sind.
Es ist also tatsächlich eine zufällige Auswahl von Links mit Nofollow, Links, denen wir folgen, solche, denen wir vertrauen, und solche, denen wir nicht so viel Vertrauen schenken.
Also, nur weil ihr einen bestimmten Link nicht seht, bedeutet das nicht, dass etwas fließt oder nicht fließt - Reputation, PageRank - oder wie auch immer ihr es nennen wollt.
Sofern es sich um eure eigene Site handelt, könnt ihr in der Google Webmaster-Zentrale nachschauen. Meldet euch an, und ihr bekommt eine ziemlich vollständige Übersicht, mit zumindest dem Großteil der Links. Ihr könnt die sogar als CSV-Datei runterladen.
Wenn ihr also einen wirklich guten Eindruck erhalten wollte, wie es um eure Backlinks steht, ist das der Ort, den ihr aufsuchen solltet, dann ist das eine gute Anlaufstelle für eine ziemlich vollständige Liste der Links zu eurer Site aus der Sicht von Google.

Übersetzung von Jörg, Search Quality Team

Montag, 2. November 2009

Das Crawling neuer URLs über Feeds

Google verwendet unzählige Quellen, um neue Seiten im Netz ausfindig zu machen. Dazu gehören etwa Links, auf die wir im Netz stoßen, oder Seiten, die wir über das Tool zum Hinzufügen von URLs entdecken. Unser Ziel ist es, neue Seiten schnell zu entdecken, damit User diesen Content möglichst schnell in den Google-Suchergebnissen finden können. Vor kurzem haben wir ein Feature gelauncht, das RSS- und Atom-Feeds nutzt, um neue Seiten zu entdecken.

RSS/Atom-Feeds haben sich in den letzten Jahren als sehr beliebt erwiesen, wenn es darum ging, neuen Content anzubieten. Sie bieten Lesern die Möglichkeit, sich über neuen Content verschiedener Websites zu informieren. Die Verwendung von Feeds erlaubt es uns, neue Seiten schneller in den Index aufzunehmen als über traditionelles Crawling. Wir können viele potentielle Quellen nutzen, um auf Updates aus Feeds zuzugreifen. Dazu gehören Reader, Benachrichtigungsdienste oder das direkte Crawling der Feeds. In Zukunft könnten wir auch Protokolle wie PubSubHubbub verwenden, um Updates von Seiten zu registrieren.

Damit wir eure RSS/Atom-Feeds benutzen können, ist es wichtig, dass ihr das Crawling dieser Dateien nicht über robots.txt verbietet. Um herauszufinden, ob der Googlebot eure Feeds crawlen kann und so eure Seiten so schnell wie möglich entdeckt, verwendet für eure Feed-URLs. Mithilfe des robots.txt-Testers in den Google Webmaster-Tools könnt ihr feststellen, ob der Googlebot eure Feeds crawlen und so eure Seiten so schnell wie möglich entdecken kann.

Using RSS/Atom feeds to discover new URLs (English version)

Post von Raymond Lo, Guhan Viswanathan, und Dave Weissman, Crawl and Indexing Team (Übersetzung von Jörg, Search Quality Team)