Content oder Links? Was ist wichtiger?

In diesem Video spricht Matt Cutts darüber, ob es für eine Website besser ist auf Content oder auf Links zu setzen.



Transkript:
Hier ist eine spannende Frage von Jeff aus New York:

"Googles Algorithmus wird ständig weiterentwickelt. Ist es da besser, außergewöhnliche Links und mittelmäßigen Content zu haben oder außergewöhnlichen Content und mittelmäßige Links?"

Also, ich höre hier auf, anstatt die Frage fertigzulesen. Google muss immer die Balance zwischen der Autorität einer Quelle und ihrem Bezug zum Thema halten. Wenn jemand "viagra" eintippt, was einer der meistgespammten Begriffe der Welt ist, will er Ergebnisse, die von Viagra handeln und nicht nur solche, die zwar wie "Newsweek" oder die "Times" viel Autorität haben, die aber in einem Artikel Viagra vielleicht nur am Rande erwähnen. Beispielsweise: "Oh, das ist wie Viagra", also nur so als Redewendung. Also, der User will Autorität, er will Sites, denen er trauen kann, die Reputation haben, aber auch zum Thema passen. Er will nichts, das keinen Bezug zum Thema hat. Er will, das es davon handelt, was er eingetippt hat. Deshalb suchen wir nach einer guten Balance. Also würde ich Folgendes sagen: Schaut, dass ihr gehaltvolle Websites habt. Guter Content muss die Grundlage jeder guten Website sein, weil mittelmäßiger Content eben keine außergewöhnlich guten Links anzieht, und wer versucht solche Links für wirklich schlechten Content zu gewinnen, macht es sich echt schwer. Ihr würdet zu Techniken greifen müssen, die wir als anrüchig oder schlecht fürs Web halten: beispielsweise Linkkauf.
Deshalb ist es viel besser, guten Content zu erstellen, um diese Links auf natürliche Art und Weise zu erhalten und so beides zu haben: guten Content und dadurch gute Links. Besser als etwas zu versuchen, das nicht wirklich interessant ist, und dann zu versuchen das auf Biegen und Brechen zu pushen, Leute zu nerven, Spam-E-Mails zu verschicken, nach Links zu fragen und all diese Dinge. Also, ihr wollt eine gehaltvolle Website haben und einer der besten Wege dazu ist es, interessanten und nützlichen Content, tolle Hilfsmittel und gute Informationen anzubieten und das führt dann logischerweise auch zu Links. Und dann wollen Suchmaschinen die Tatsache widerspiegeln, dass das Web euch für interessant und wichtig oder hilfreich hält.

Übersetzung von Jörg, Search Quality Team

Montag, 28. September 2009 um 16:53

Empfehlungen für webmasterfreundliche Freehosts

Die meisten Themen, die wir bis jetzt auf unserem Blog besprochen haben, waren an einzelne Webmaster mit eigener Website gerichtet. Wir dachten, wir reden jetzt auch mal über Best Practices für Websites, die es Usern anbieten, eine eigene Website zu erstellen, oder die Content für User hosten, wie beispielsweise Blogger oder Google Sites. Solche Websites werden oft als "Freehosts" bezeichnet; unsere Empfehlungen beziehen sich jedoch sowohl auf kostenlose als auch auf bestimmte kostenpflichtige Provider.
  • Stellt sicher, dass eure User ihre Website in Website-Management-Suites, z. B. Google Webmaster-Tools, überprüfen können.
In den Webmaster-Tools können eure User detaillierte Berichte über die Präsenz ihrer Website in Google abrufen. Bevor wir den Zugang zu diesen Daten freischalten können, müssen wir sicherstellen, dass eure User Eigentümer der jeweiligen Website sind. Die Bestätigung der Inhaberschaft einer Site in den Webmaster-Tools kann mittels einer HTML-Datei oder einem Meta-Tag erfolgen, oder durch Google Services for Websites, einem Service, der eine nahtlose Integration in euer System ermöglicht. Andere Website-Management-Suites wie Yahoo! Site Explorer und Bing Webmaster Tools verwenden möglicherweise ähnliche Methoden; wir empfehlen euch sicherzustellen, dass eure User auf jede dieser Suites zugreifen können.
  • Wählt ein eindeutiges Verzeichnis oder einen eindeutigen Hostnamen für jeden User.
Die Inhaberschaft einer Website wird in den Webmaster-Tools anhand einer einzelnen URL überprüft. Dabei nehmen wir jedoch an, dass User in der Lage sein sollten, die Daten für alle URLs einzusehen, die sich in der URL-Hierarchie der Site "unter" dieser URL befinden. In unserem Hilfe-Artikel über die Überprüfung von Subdomains und Unterverzeichnissen findet ihr mehr Informationen dazu. Darüber hinaus wird diese Struktur von vielen automatisierten Systemen im Web - beispielsweise Suchmaschinen oder Aggregatoren - erwartet, und wenn ihr eure Website entsprechend anlegt, macht ihr es diesen Systemen leichter, euren Content zu finden und zu organisieren.
  • Erstellt nützliche und aussagekräftige Seitentitel.
Gebt euren Usern die Möglichkeit, eigene Titel zu erstellen, oder stellt die Seitentitel der Websites eurer User automatisch so ein, dass sie den Content der jeweiligen Seite beschreiben. Zum Beispiel sollte es nicht so sein, dass alle User-Seiten mit "Blogger: Kostenlos ein Blog anlegen" betitelt sind. Genauso sollten, wenn die User-Website mehr als eine Seite mit unterschiedlichem Content beinhaltet, nicht alle Seiten denselben Titel - "Homepage von User XYZ" - haben.
  • Erlaubt das Hinzufügen von Tags zu einer Seite.
Bestimmte Meta-Tags sind recht gut brauchbar für Suchmaschinen, und vielleicht wollen User sie selbst festlegen. Darunter fallen Tags mit den name-Attributen "robots", "description", "googlebot", "slurp" oder "msnbot". Klickt auf die spezifischen name-Attribute, um mehr darüber zu erfahren, wofür diese Tags benutzt werden.
  • Erlaubt euren Usern, Webanalyse-Lösungen von Drittanbietern wie z. B. Google Analytics zu verwenden.
Google Analytics ist eine kostenlose Unternehmenslösung für Webanalysen. Die Google Analytics- Software kann auf einer Website laufen, indem einfach ein JavaScript-Codesnippet zu der Seite hinzugefügt wird. Falls ihr aus Sicherheitsgründen nicht möchtet, dass User beliebig JavaScript einfügen - der Google Analytics-Code ändert sich nur um eine einfache ID. Wenn eure User euch ihre Google Analytics-ID mitteilen, könnt ihr alles Weitere für sie einrichten. Euer Service ist für User von größerem Wert, wenn sie ihren Traffic besser verstehen. Ein Beispiel ist die Supportseite von Weebly für das Hinzufügen von Google Analytics. Wir empfehlen, die Verwendung ähnlicher Methoden in Erwägung zu ziehen, um den Zugang zu anderen Anwendungen von Drittanbietern zu ermöglichen.
  • Helft euren Usern dabei, flexibel zu sein.
Präferenzen ändern sich im Laufe der Zeit. User, die euren Service benutzen, wollen vielleicht den Namen ihres Benutzerkontos ändern oder sogar komplett auf eine andere Site umziehen. Ihr könnt dabei helfen, indem ihr Usern Zugriff auf ihre eigenen Daten gewährt, und indem ihr es ihnen ermöglicht, Suchmaschinen mithilfe von 301-Weiterleitungen über den teilweisen oder kompletten Umzug der Site in Kenntnis zu setzen. Genauso ist es hilfreich, einen 404 HTTP-Response-Code auszugeben, wenn eure User eine Seite/Website nicht umziehen, sondern entfernen wollen, um die Suchmaschinen wissen zu lassen, dass diese Seite/Website nicht mehr da ist. Eure User können dann in dringenden Fällen das Tool zum Entfernen von Webseiten verwenden (falls nötig), um sicherzustellen, dass diese Seiten so schnell wie möglich aus den Suchergebnissen entfernt werden.
  • Helft Suchmaschinen dabei, den guten Content eurer User zu finden.
Suchmaschinen crawlen ständig größere Teile des Webs. Helft unseren Crawlern, den besten Content auf eurer Site zu finden. Lasst uns User-Content crawlen, inklusive verschiedener Medien wie beispielsweise von Usern hochgeladene Bilder. Helft uns dabei, User-Content mittels XML-Sitemaps zu finden. Helft uns, duplizierte Versionen desselben Contents zu meiden, so dass wir mehr originalen Content eurer User crawlen können, und zwar dadurch, dass, soweit möglich, nur eine URL für den gleichen Content erstellt wird. Wenn dies nicht möglich ist, ist es hilfreich, die kanonischen URLs zu bestimmen. Wenn ihr Blogs hostet, stellt RSS-Feeds zur Verfügung, die wir mit der Google Blog-Suche entdecken können. Falls eure Site down ist oder Fehlermeldungen anzeigt, dann gebt bitte 5xx Response-Codes zurück. Indem ihr Crawler darüber informiert, dass der Content vorübergehend nicht verfügbar ist, helft ihr uns dabei, die Indexierung von "Wir sind bald wieder da"-Seiten zu vermeiden.

Fallen euch noch andere Best Practices ein, die ihr im Hinblick auf das Hosting von User-Content oder User-Seiten empfehlen würdet?

Recommendations for webmaster friendly freehosts (English version)

Post von Greg Grothaus, Staff Software Engineer, Search Quality Team (Übersetzung von Johanna, Search Quality Team)

Freitag, 25. September 2009 um 11:42

Verzeichnisse als Quellen bezahlter Links?

Heute beschäftigt sich Matt Cutts mit der Frage, ob bestimmte Verzeichnisse als Quellen bezahlter Links gelten oder nicht.
Falls ihr noch mehr zu diesem Thema lesen möchtet , könnt ihr einen noch ausführlicheren Blogpost hier finden: Webkataloge im Rampenlicht.



Transkript:
Wir haben eine Frage von Fabio Ricotta aus Brasilien. Fabio fragt:

"Betrachtet Google das Yahoo!-Verzeichnis oder Best of the Web als Quellen bezahlter Links? Falls nicht, weshalb ist dies dann anders als bei anderen Sites, die Links verkaufen?"

Nun, ich habe diese Frage früher bereits beantwortet, aber da viele Leute immer mal wieder danach fragen, mache ich das Ganze noch einmal. Wann immer wir danach schauen, ob ein Verzeichnis nützlich für User ist, fragen wir uns, o.k., was ist der eigentliche Nutzen dieses Verzeichnisses.
Also z. B. suchen die Betreiber selbst nach neuen Einträgen oder warten sie bloß darauf, dass Leute ihre Site besuchen oder wie viel kostet es und was ist die redaktionelle Dienstleistung, für die bezahlt wird. Wenn ein Verzeichnis 50 Dollar verlangt und jeder, der einen Eintrag wünscht, automatisch für die 50 Dollar Gebühr eingetragen wird, dann gibt es dort nicht so viel redaktionelle Auswahl wie z. B. beim Yahoo!-Verzeichnis, wo Einträge auch abgelehnt werden. Falls es also keinen zusätzlichen Nutzen aufgrund einer redaktionellen Auswahl gibt, dann ähnelt das eher bezahlten Links. Wenn wir z. B. unsere Richtlinien für Webmaster nehmen: Wir hatten früher einen Hinweis, der besagte: Hey, tragt eure Site in Verzeichnisse ein, und wir gaben sogar ein paar Beispiele für Verzeichnisse.
Was wir dann aber feststellten, war, dass die Leute sich zu sehr auf diesen Hinweis fixierten und dann nach wahnsinnig vielen Verzeichnissen suchten. Und dann gab es diejenigen, die meinten: "Oh, die Leute wollen Verzeichnisse - dann baue ich mal eben ein Verzeichnis".
Und so entstanden diese ganzen unverlässlichen Verzeichnisse, die aus dem Nichts auftauchten und anboten: "Na klar, ich bin ein PR6-Verzeichnis - gibt mir einfach 50 Dollar und du bekommst automatisch einen Eintrag bei mir."
Es ist aber nicht so, dass diese Art der Einträge etwas sind, das von Usern wirklich geschätzt wird oder was einen besonderen Nutzen für unsere Suchergebnisse bieten würde oder was wir besonders berücksichtigen wollten. Wir haben also schließlich diesen Hinweis aus unseren Richtlinien entfernt, so dass sich die Leute nicht mehr so stark auf Verzeichnisse konzentrieren und meinen: " Ja, ich muss eine Reihe an Verzeichnissen finden, in denen ich meine Site eintragen kann." Es gibt schon einige Verzeichnisse, die eine Bedeutung haben. Das Yahoo!-Verzeichnis z. B. hat eine gute redaktionelle Auswahl - sie schauen sich die Sachen an und lehnen einen nicht unerheblichen Anteil ab, falls die Qualität nicht stimmt. Was ihr euch also fragen solltet, wann immer ihr vor habt, ein Verzeichnis zu verwenden, ist, ob es dort einen tatsächlichen Nutzen und ob es hohe Standards gibt. Ich habe noch einen Blogpost geschrieben, in dem ich einige der weiteren zusätzlichen Faktoren diesbezüglich anspreche und was dabei eine Rolle spielt, welches Verzeichnis wir als "echt" betrachten - dies sind einige der Fragen, die ihr euch überlegen solltet. Unter diesem Gesichtspunkt ist das Yahoo!-Verzeichnis also keine bloße Quelle an bezahlten Links. Bezahlte Links sind in der Regel mit eher geringerer Qualität verbunden, sie sind meist mehr automatisiert - ihr bekommt jeden beliebigen Anchor-Text, den ihr wollt, all diese Dinge.
Das ist also der Unterschied. Deswegen solltet ihr euch nicht übermäßig Gedanken machen, dass ihr eure Site in möglichst jedes Verzeichnis eintragt - falls ihr eine gute Site erstellt und versucht sicherzustellen, dass die Leute mehr darüber erfahren, dann sind das die Dinge, die wirklich entscheidend sind.
Und nicht etwa: "Ok, ich muss jetzt meine Site bei mindestens 5 oder 10 Verzeichnissen anmelden" oder dergleichen.

Übersetzung von Sven, Search Quality Team

Donnerstag, 24. September 2009 um 15:58

Unterstriche oder Bindestriche in URLs?

In diesem Video spricht Matt Cutts darüber, ob es einen Unterschied macht Unter- oder Bindestriche in URLs einzusetzen.




Eine Frage aus Ontario, Kanada - tripstar sagt:

"Unterstriche oder Bindestriche in URLs, macht das einen Unterschied? my-page oder my_pages?"

Es macht einen Unterschied. Ich würde Bindestriche bevorzugen, und falls ihr Unterstriche verwendet und das für euch gut funktioniert, dann würde ich daran nichts ändern. Vor einiger Zeit habe ich gesagt, dass wir Unterstriche eventuell bald als Trennzeichen behandeln. Der Grund, weshalb wir so gut wie nie über zukünftige Pläne sprechen, ist, dass uns dies die Freiheit gibt, unsere Meinung zu ändern. Tatsächlich haben die Leute, die dieses Projekt begonnen hatten, einen leicht anderen Fokus gewählt, um die URL zu bewerten, was letztlich einen grösseren Einfluss hat. Eventuell werden wir die Sache wieder aufnehmen, danke für die Anregung. Ich werde ein paar Leute von unserem Quality Triage Team fragen, ob wir einen erneuten Blick darauf werfen können, aber im Moment werden Unterstriche als Trennzeichen behandelt, oh sorry, Bindestriche werden als Trennzeichen behandelt und Unterstriche nicht. Das könnte sich zukünftig zwar ändern, aber so sieht es im Moment aus.

Übersetzung von Claudia, Search Quality Team

Mittwoch, 23. September 2009 um 11:09

Google verwendet das "keywords"-Meta-Tag nicht beim Ranking

Uns wurden neulich einige Fragen dazu gestellt, wie Google das "keywords"-Meta-Tag beim Ranking der Suchergebnisse verwendet (oder genauer gesagt: nicht verwendet). Angenommen wir haben zwei Betreiber einer Website, Alice und Bob. Alice betreibt eine Firma mit dem Namen "AliceCo" und Bob eine Firma namens "BobCo". Als Alice eines Tages die Site von Bob betrachtet, findet sie heraus, dass Bob einige der Worte kopiert hat, die sie in ihrem "keywords"-Meta-Tag verwendet. Noch interessanter dabei: Bob hat auch das Wort "AliceCo" in seinem "keywords"-Meta-Tag hinzugefügt. Sollte sich Alice deshalb Sorgen machen?

Zumindest in Bezug auf Googles Suchergebnisse ist die Antwort aktuell (September 2009): Nein. Google verwendet das "keywords"-Meta-Tag nicht für das Ranking der Suchergebnisse. Im Video erfahrt ihr mehr dazu, oder schaut euch einfach die Fragen weiter unten an.



Frage: Verwendet Google jemals das "keywords"-Meta-Tag beim Ranking der Suchergebnisse?
Antwort: In einem Wort: Nein. Wir verkaufen auch die sog. Google Search Appliance - und dieses Produkt bietet die Möglichkeit, Meta-Tags zu matchen, was auch das "keywords"-Meta-Tag einschließen kann. Aber dies ist eine Search Appliance, gedacht als Unternehmenslösung, die vollständig getrennt von unserer eigentlichen Websuche ist. Unsere Websuche (die bekannte Suche auf Google.com, die Hunderte Millionen Menschen täglich nutzen) lässt die "keywords"-Meta-Tags völlig außer Acht. Diese Tags haben gegenwärtig einfach keinerlei Auswirkungen auf das Ranking.

F: Weshalb verwendet Google das "keywords"-Meta-Tag nicht?
A: Vor ungefähr einem Jahrzehnt bewerteten Suchmaschinen Seiten nur anhand des Inhalts auf diesen Seiten, ohne jegliche sog. "off-page"-Faktoren wie z. B. die Links, die auf eine Seite verweisen. Damals wurden die "keywords"-Meta-Tags schnell dazu missbraucht, um große Mengen an (häufig irrelevanten) Keywords unterzubringen, welche die meisten gewöhnlichen User nie zu Gesicht bekamen. Dadurch, dass das "keywords"-Meta-Tag so häufig missbraucht wurde, haben wir bei Google schon vor vielen Jahren damit begonnen, es zu ignorieren.

F: Bedeutet dies, das Google alle Meta-Tags ignoriert?
A: Nein, Google berücksichtigt einige der anderen Meta-Tags. Auf dieser Seite zu Meta-Tags könnt ihr weitere Informationen zu den Meta-Tags finden, die wir verwenden. Zum Beispiel verwenden wir gelegentlich das "description"-Meta-Tag als Text für unsere Suchergebnis-Snippets, wie im folgenden Screenshot zu erkennen ist:

Trotz dessen, dass wir gelegentlich das "description"-Meta-Tag für unsere Snippets verwenden, spielt das "description"-Meta-Tag keine Rolle beim Ranking.

F: Bedeutet das, dass Google das "keywords"-Meta-Tag für immer ignorieren wird?
A: Es kann sein, dass wir diese Informationen zukünftig nutzen - es ist aber unwahrscheinlich. Google hat das "keywords"-Meta-Tag seit Jahren ignoriert und wir sehen derzeit keinen Grund, dies zu ändern.

Google does not use the keywords meta tag in web ranking (English version)

Post von Matt Cutts, Search Quality Team (Übersetzung von Sven, Search Quality Team)

Dienstag, 22. September 2009 um 16:55

Domainalter und Ranking

Heute spricht Matt Cutts darüber, ob das Alter einer Domain einen Einfluss auf das Ranking hat.



Transkript:
Wir haben eine Frage von JZ aus Ohio:

"Welchen Einfluss hat es auf das Ranking, seit wie vielen Jahren eine Domain registriert ist?"

Kurz gesagt gibt es da nicht viel zu beachten, eigentlich so gut wie gar nichts. Danny Sullivan hat neulich danach gefragt, weil einige Registrare E-Mails verschickt hatten und sagten: "Wusstet ihr schon, dass Google beim Ranking einen Bonus vergibt, falls eure Site seit drei oder mehr Jahren registriert ist?" Nur um noch einmal deutlich zu machen: Das haben wir so nie gesagt.
Das Einzige, was damit zu tun haben kann, ist, dass wir ein Patent angemeldet hatten, das sich darauf bezog, historische Daten in unserem Ranking zu verwenden. Wir könnten also theoretisch schauen, wie viele Jahre eine Site registriert war, genauso wie wir auch die Geschichte einer Site anschauen könnten, um zu sagen, ob sie von hoher oder niedriger Qualität ist.
Wir haben viele Ideen und melden viele Patente an - das bedeutet aber nicht, dass all dies dann auch in unserem Ranking verwendet wird. Es wäre also falsch, zu der Annahme zu gelangen, dass bloß weil wir im Jahr 2002 ein Patent angemeldet hatten und irgendwo in Zeile 38 steht: "Nun, man kann schauen, wie viele Jahre eine Site registriert war" - daraus dann abzuleiten, dass wir dies in unserem Ranking verwenden.
Also, meine kurze Antwort ist: Erstellt guten Content und kümmert euch nicht darum, seit wie vielen Jahren eure Domain registriert ist - bloß weil euch jemand eine E-Mail geschickt hat mit der Aussage, dass Google dies im Ranking verwendet oder verwenden kann. Das bedeutet nicht, dass ihr das gleich für bare Münze nehmen solltet.
Was den eigentlichen Unterschied ausmacht, ist die Qualität eurer Site und die Art der Links, die auf eure Site verweisen und nicht, ob eure Site nun seit drei oder vier Jahren registriert ist oder bloß seit einem oder zwei Jahren.

Übersetzung von Sven, Search Quality Team

Montag, 21. September 2009 um 13:09

Haben Ladezeiten Einfluss auf das Google Ranking?

In diesem Video spricht Matt Cutts darüber, ob die Ladezeit von Websites Einfluss auf ihr Ranking im Google Index hat.




Transkript:
Es ist mal wieder Zeit für Fragen aus der Wundertüte. Wir nehmen alle diese Fragen an einem Tag auf und veröffentlichen sie über einen längeren Zeitraum. Das letzte Mal haben sich alle beschwert, dass sie 30 oder 40 Tage in Folge dasselbe rote Polohemd gesehen haben. Deshalb habe ich eine ganze Reihe von Hemden mitgebracht und wir mischen alles durcheinander und schaffen so mehr Abwechslung.
Also fangen wir mit der ersten Frage - von Deepesh aus New York - an. Deepesh fragt:

"Welchen Einfluss haben die Ladezeiten einer Website aufs Google Ranking?"

Die kurze Antwort lautet: im Moment keinen. Aber gehen wir ein wenig ins Detail. Natürlich: wenn eine Website so langsam lädt, dass wir sie nicht erreichen und der Googlebot keine Zugriff hat, dann wird das Auswirkungen aufs Ranking haben, weil die Website ein "Time out" produziert.
Also wenn eine Website 20 oder 30 Sekunden für eine Antwort braucht, könnte das ein Problem sein. Aber ob eine Website eine oder zwei Sekunden braucht, das macht überhaupt keinen Unterschied fürs Google Ranking.
Also das ist die kurze Antwort. Jetzt gehen wir weiter ins Detail. Wenn ihr es nicht gehört habt: Larry Page hat seine Vision des Webs vorgestellt. Er will ein wirklich schnelles Web haben - beinahe so schnell wie eine Zeitschrift: So dass nach dem Umblättern einer Seite die nächste bereits da ist. Und deshalb wurde Chrome nach der Philosophie geplant, dass wir das Web wirklich schnell machen und zu einem tollen Erlebnis.
Im Moment hat die Ladezeit keinen Effekt für das Google Ranking, aber wer weiß, was die Zukunft bringt? Ich weiß es nicht. Ich könnte mir vorstellen, dass Google sagt: "Wir hätten gerne ein schnelleres Web. Wie können wir Leute dazu ermutigen, ihre Websites zu beschleunigen?" Und wie können wir der Welt mitteilen, dass, wenn eine Website schneller ist, Leute damit zufriedener sind und sie wahrscheinlicher zurückkommen oder die Website öfters benutzen. Wir haben das an unserer eigenen Website bemerkt. Deshalb ist es interessant, dass wir das Web schnell haben möchten und dass Websites schnell laden.
Im Moment ist es wirklich kein Faktor in unseren Rankings. Wer weiß, was in Zukunft eine Rolle spielt? Ich persönlich bin der Meinung, dass es eine tolle Idee ist, einige Dinge zu beachten, die Websites ein wenig schneller machen. Zum Beispiel: verwendet nicht 40 unterschiedliche JavaScript-Files. Ihr könnt sie in ein JavaScript zusammenfassen oder in eine CSS-Datei. Oder verwendet keine riesigen Bilder, wenn die Bildgröße ohnehin winzig gestellt ist. Es gibt viele Möglichkeiten, Seiten zu verkleinern und kompakt zu halten, so dass sie schneller beim User sind. Ihr könnt Seiten zum Beispiel mit gzip packen. Also, es gibt jede Menge Möglichkeiten, die Benutzerfreundlichkeit zu verbessern.
Macht euch im Moment keinen Kopf in Hinsicht auf das Ranking, aber für eure User kann es wirklich einen gewaltigen Unterschied machen.

Übersetzung von Jörg, Search Quality Team

Freitag, 18. September 2009 um 16:16

Tipps für die News-Suche

Während meiner "How Google Works Tour: Seattle" bekam ich viele Fragen zur News-Suche von Vertretern der Presse wie z. B. The Stranger, The Seattle Times und Seattle Weekly. Nachdem ich mir in unseren Gesprächen sorgfältig Notizen gemacht hatte, haben das News Team und ich diese Präsentation erstellt, um Hintergrundinformationen und FAQs für Herausgeber und alle Interessierten zur Google News-Suche zu bieten.



Zusätzlich zu den FAQs über News-Sitemaps und PageRank im Video habe ich hier ein weiteres Q&A als Einstieg:

Wenn ich meiner Veröffentlichung den Namen einer Stadt hinzufüge, z. B. wenn ich unseren Namen von "The Times" in "The San Francisco Bay Area Times" ändere - würde mir das helfen, meine lokalen Leser besser in der News-Suche zu erreichen?
Nein, das würde in den News-Rankings nicht helfen. Wir ermitteln geografische und lokale Informationen anhand des Artikels selbst (siehe Video). Ein Namenswechsel damit relevante Keywords auftauchen oder das Hinzufügen einer lokalen Adresse im Footer werden euch nicht dabei helfen, ein spezifisches Publikum in unseren News-Rankings anzusprechen.
Was passiert, falls ich aus Versehen URLs zu meiner Sitemap hinzufüge, die älter als 72 Stunden sind?
Wir wollen nur die neuesten URLs in eurer News-Sitemap, da diese Googlebot zu den gerade aktuellen Informationen führen. Falls ihr ältere URLs hinzugefügt habt, ist das kein Problem (es gibt keine Penalty, außer wenn wir feststellen, dass vorsätzlich gespammt wurde - dies wird wohl eher die Ausnahme sein, also keine Sorge). In diesem Fall werden wir diese URLs einfach nicht in unserem nächsten News-Crawling aufnehmen.
Für alles Weitere schaut euch einfach das Video an!

Tips for News Search (English version)

Post von Maile Ohye, Developer Programs Tech Lead, gefilmt von Michael Wyszomierski, Search Quality Team (Übersetzung von Sven, Search Quality Team)

Donnerstag, 17. September 2009 um 16:20

Matt Cutts Video: Suchergebnisse auf Google vs. Twitter

Im heutigen Video geht es darum, ob Google oder Twitter verlässlichere Suchergebnisse liefert.



Transkript:
Hier ist eine witzige, spekulative Frage von Martino aus Trento, Italien.
Er fragt "Welches Suchmedium liefert verlässlichere Ergebnisse: Google oder Twitter?"

Ok, ergeht euch jetzt nicht in Schimpftiraden auf Twitter - Twitter bietet viele tolle Anwendungsmöglichkeiten. Es ist toll, um Nachrichten in Echtzeit zu erfahren und fantastisch, um Fragen an eure Freunde zu stellen. Und in Google versuchen wir hingegen, wirklich verlässliche und seriöse Informationen zu liefern. Wenn ihr also nach dem Datum sortiert, dann ist Twitter fantastisch.
Wenn ihr eine Antwort auf eine Frage sucht, die seit einiger Zeit besteht, dann ist Google großartig dafür. Probiert einfach beides für verschiedene Situationen aus. Falls ihr nicht so viele Kontakte habt, dann habt ihr vielleicht nicht die Möglichkeit, dass eure Fragen auf Twitter beantwortet werden.
Und ich wäre nicht überrascht, wenn Spammer schließlich Traffic auf Twitter sehen und sich denken "mwahahahaha." Die Tatsache, dass ihr nur nach dem Datum sortiert, könnte Spammer in Versuchung bringen, auf jeden neuen Trend aufzuspringen.
In diesem Sinne sind beide verschieden und eignen sich für verschiedene Dinge.
Ich würde sagen, verwendet das, was am besten für euch funktioniert.

Übersetzung von Claudia, Search Quality Team

Mittwoch, 16. September 2009 um 17:08

Support für Facebook Share und RDFa für Videos

Habt ihr euch jemals die Frage gestellt, wie ihr die Chancen verbessern könnt, dass eure Videos in den Google Suchergebnissen auftauchen? Während des letzten Jahres hat sich das Video Search Team darum bemüht, unseren Video-Index zu verbessern. Heute beginnen wir mit einer Serie von Posts über Best Practices für Websites, die Videos hosten.

Wir haben bereits darüber gesprochen, dass es hilfreich ist eine Video-Sitemap oder einen mRSS-Feed bei Google einzureichen und die Google Richtlinien für Webmaster zu befolgen. Wir wollen Webmastern aber noch ein zusätzliches Werkzeug anbieten. Deshalb blättern wir heute in unserem schlauen Büchlein zu Rich Snippets und geben den Support von Facebook Share und Yahoo! SearchMonkey RDFa bekannt. Diese beiden Markup-Formate (Auszeichnungsformate) erlauben es euch Informationen festzulegen, die zur Indexierung von Videos essentiell sind, wie beispielsweise Video-Titel und -Beschreibung innerhalb des HTML-Codes einer Seite. Wir sind zwar geschickter dabei geworden, so etwas selbst herauszufinden, aber wir freuen uns auf jeden Fall über direkte Hinweise von Webmastern. Außerdem solltet ihr sicherstellen, dass die Markups im HTML-Code ohne die Ausführung von JavaScript und Flash funktionieren, um die Erkennung der Markups auf euren Seiten mit Video noch wahrscheinlicher zu machen.

Also, schaut euch Facebook Share und RDFa an und unterstützt Google beim Finden eurer Videos!

Facebook Share:
<meta name="title" content="Baroo? - kleine Welpen" />
<meta name="description" content="Die liebste Welpenpurzelei des Internets!" />
<link rel="image_src" href="http://example.com/vorschaubild.jpg" />
<link rel="video_src" href="http://example.com/video_object.swf?id=12345"/>
<meta name="video_height" content="296" />
<meta name="video_width" content="512" />
<meta name="video_type" content="application/x-shockwave-flash" />

RDFa (Yahoo! SearchMonkey):
<object width="512" height="296" rel="media:video"
resource="http://example.com/video_object.swf?id=12345"
xmlns:media="http://search.yahoo.com/searchmonkey/media/"
xmlns:dc="http://purl.org/dc/terms/">
<param name="movie" value="http://example.com/video_object.swf?id=12345" />
<embed src="http://example.com/video_object.swf?id=12345"
type="application/x-shockwave-flash" width="512" height="296"></embed>
<a rel="media:thumbnail" href="http://example.com/vorschaubild.jpg" />
<a rel="dc:license" href="http://example.com/terms_of_service.html" />
<span property="dc:description" content="Nach Cute Overload ist Baroo? in Hundesprache 'Was zum...?'
Oft gibt es dazu treue Hundeblicke." />
<span property="media:title" content="Baroo? - kleine Welpen" />
<span property="media:width" content="512" />
<span property="media:height" content="296" />
<span property="media:type" content="application/x-shockwave-flash" />
<span property="media:region" content="us" />
<span property="media:region" content="uk" />
<<span property="media:duration" content="63" />
</object>
Post von Michael Cohen, Product Manager, Video Search Team (Übersetzung von Jörg, Search Quality)

Dienstag, 15. September 2009 um 15:16

Verwendet Google keine Meta-Descriptions mehr?

Im heutigen Video spricht Matt Cutts über die Bedeutung von Meta-Descriptions für die Snippets in den Google Suchergebnissen.



Transkript:

Wir haben eine gute Frage von Quentin aus Vancouver. Er möchte wissen:

"Google zeigt in den Suchergebnissen oft ein Snippet an, das zu der jeweiligen Suchanfrage passt - oft wird die Meta-Description gar nicht beachtet. Verwendet Google keine Meta-Descriptions mehr, so wie auch die Meta-Keywords nicht mehr von Bedeutung sind?"

O.k., Quentin, lass mich da ein bisschen ausholen. Tatsächlich haben wir lange Zeit überhaupt keine Meta-Descriptions benutzt. Wir haben nur das zu der spezifischen Suchanfrage passende Snippet genommen. Erst in den letzten Jahren haben wir damit angefangen, dass, wenn ihr eine Meta-Description habt, wir diese manchmal einem kleinen Snippet aus dem Page-Content vorziehen.
In Wirklichkeit geht es also in die andere Richtung. Anfänglich hatten wir nur Snippets vom Seiteninhalt. Jetzt ist es ein bisschen wahrscheinlicher, dass wir manchmal Meta-Descriptions verwenden. Aber wir benutzen sie nicht immer. Wenn wir denken, dass es für die Suchanfrage Sinn macht...Schreibt nicht dieselbe Meta-Description für jede einzelne Seite, denn wenn alle identisch sind, dann denken wir wahrscheinlich: hm, das sind keine sehr hilfreichen Meta-Descriptions.
Es ist also nicht so, dass wir Meta-Descriptions überhaupt nicht mehr beachten. Wir verwenden sie jetzt häufiger als vor sagen wir sieben oder acht Jahren. Gleichzeitig denken wir, dass eine Meta-Description nützlich sein sollte, damit wir sie benutzen. Das Beste, was ihr tun könnt, ist also wirklich nützliche Meta-Descriptions zu erstellen, und dann ist es wahrscheinlicher, dass ihr diese Beschreibung anstatt eines Snippets von der Seite seht. Dann wiederum, wenn ihr euch diese Mühe nicht machen wollt, ist das auch vollkommen in Ordnung. Wir versuchen dann einfach, das zu nehmen, was wir für das beste und hilfreichste Snippet für unsere User halten, und sie werden dann hoffentlich auf das Ergebnis klicken und euren Content finden.

Übersetzung von Johanna, Search Quality Team

Montag, 14. September 2009 um 14:20

Wie kann Google meine Unterseiten finden?

In diesem Video spricht Matt Cutts darüber, wie ihr sicherstellen könnt, dass Google eure tieferen Unterseiten crawlt.



Transkript:
Pai aus Portugal schreibt und fragt: "Wie kann ich sicherstellen, dass Google Seiten erreicht und indexiert, die weiter unten (tiefer) in die Hierarchie meiner Website eingebettet sind?"
Es ist nicht ganz klar, ob du fragst, wieviele Ebenen tief sich die Seite in Bezug auf die Verzeichnisstruktur befindet, oder wie weit sie von der Root-Page entfernt ist.
Eine Möglichkeit sicherzustellen, dass Google diese Seiten erreicht, ist es, von der Root-Page, der Hauptseite, direkt zu den tiefen Unterseiten, die gecrawlt werden sollen, zu verlinken.
Also, wir denken normalerweise nicht darüber nach, im wievielten Unterverzeichnis eine Seite ist, aber wir berücksichtigen, wie viel PageRank eine Seite hat. Also, wenn viele Leute auf die Root-Page verlinken, dann könnt ihr zu Unterseiten verlinken und dann diese Unterseiten zu weiteren Unterseiten und an irgendeinem Punkt hören wir dann mit dem Crawlen auf.
Also, eine Sache, die ihr ausprobieren könnt, ist es sicherzustellen, dass so viele Seiten wie möglich nur einige Klicks von der Root entfernt sind. Eine gute Möglichkeit damit umzugehen, ist jenen Seiten höhere Priorität zuzuordnen, die Conversions nach euren Vorstellungen generieren, oder die einen wirklichen gute ROI haben.
Also, behandelt eure Seiten nicht alle gleich, denn falls ihr ein paar echte Goldesel habt, rückt die in den Vordergrund und verlinkt darauf von eurer Root-Page, so dass ihr am meisten davon habt.

Übersetzung von Jörg, Search Quality Team

Donnerstag, 10. September 2009 um 15:26

Einfluss von Geo-Meta-Tags auf die Suchergebnisse

Haben die Geo-Meta-Tags einen besonderen Einfluss auf unsere Suchergebnisse?
Im heutigen Video von Matt Cutts erfahrt ihr mehr dazu.



Transkript:
Ihr könnt sehen, dass ich aus Kentucky komme, da ich nicht jeden Namen aussprechen kann. Ich versuche es mal - Jochen aus Stuttgart in Deutschland fragt:
"Welchen Einfluss haben Geo-Meta-Tags auf die Suchergebnisse?"
Die Geo-Meta-Tags haben für uns keine besondere Bedeutung. Wir achten eher auf die IP-Adresse und die gTLD (generische Top-Level-Domain) oder ccTLD, also die länderspezifische TLD. Also die Top-Level-Domain wie z. B. .fr oder .de. Es gibt auch eine Möglichkeit in den Google Webmaster-Tools, wo ihr sagen könnt, dass es sich
z.B. nicht um eine .com Domain für die ganze Welt handelt, sondern um eine britische .com. Oder eine .com mit Schwerpunkt auf Neuseeland oder Australien.
Ihr könnt also sagen:
Okay, diese .com richtet sich eigentlich an Deutschland oder Kanada oder welches Land auch immer.
Im Allgemeinen sind die Geo-Tags in den Meta-Tags nicht so nützlich und wir werten diese kaum, wenn überhaupt. Es ist also am besten, ihr verwendet eure Zeit darauf, einen passenden Domain-Namen zu haben und, falls möglich, eine passende IP-Adresse zu bekommen und, falls ihr Content mit einer bestimmten geografischen Ausrichtung habt, egal ob Subdomain oder Verzeichnis, dann könnt ihr in den Google Webmaster-Tools angeben, dass der Content für dieses bestimmte Land relevant ist.

Übersetzung von Sven, Search Quality Team

Mittwoch, 9. September 2009 um 13:15

SEO mit kleinem Budget?

Im heutigen Video spricht Matt Cutts darüber, wie man sich trotz kleinem Budget für SEO in einem überfüllten Industriezweig behaupten kann.



Transkript:
Keen Agents aus Glendale, Kalifornien fragt:
"Wie geht man es am besten an, mit kleinem Budget SEO für eine Site in einem überfüllten Industriezweig wie z.B. Immobilien zu machen?"
Ich werde euch dieselbe Antwort geben, unabhängig davon, ob es sich um Immobilien oder einen anderen Industriezweig handelt. Ich denke, ihr solltet ein paar Dinge beachten:
Erstens: Fangt mit einer kleinen Nische an. Sagt nicht einfach, ok, ich möchte auf dem ersten Platz für Immobilien ranken oder was auch immer eure bevorzugte Phrase ist. Es ist wahrscheinlich besser, sich auf ein bestimmtes Gebiet oder einen bestimmten Markt zu konzentrieren, eventuell ist der Konsumermarkt etwas zu groß, um ihn gleich vollständig zu erfassen. Ihr konzentriert euch vielleicht besser zunächst auf einen kleinen Teil des Marktes, beispielsweise auf eine Nische, in der ihr bekannt sein könntet, und von dort könnt ihr euch weiter hocharbeiten. Versucht euch eine Reputation aufzubauen und eure Rankings mit steigendem Bekanntheitsgrad zu verbessern
Der andere Faktor ist Kreativität, richtig? Wenn ihr dieselbe Broschüre auf eurer Site habt wie jeder andere in eurem Industriezweig, dann gibt es keine Grund für andere, eure Site zu verlinken oder sich überhaupt an euch zu erinnern. Wenn ihr jedoch etwas Besonderes auf eurer Website habt, wie etwa einen Blog mit speziellen Beiträgen, oder ihr erstellt sehr witzige Videos, oder ihr habt einige tolle Tipps anzubieten, achtet darauf, einen Unterschied zu machen.
Beginnt also mit einer einzigartigen Nische und versucht, sie kreativ auszugestalten. Und das kann euch wahrscheinlich ziemlich dabei helfen, euch von einigen Konkurrenten in eurem Industriezweig abzugrenzen.

Übersetzung von Claudia, Search Quality Team

Montag, 7. September 2009 um 14:27

Kurz-URL-Dienste und 301-Weiterleitungen

In diesem Video spricht Matt Cutts darüber wie Google Kurz-URLs, die 301-Weiterleitungen verwenden, crawlt und behandelt.



Transkript:
Okay, wir haben eine Frage von Brian aus Atlanta, Georgia:
"Crawlt und behandelt Google Kurz-URLs mit 301-Weiterleitung genau wie andere Links?"
Gut, lasst mich die Erwähnung von tinyURL.com zum Anlass nehmen, um über Kurz-URL-Dienste im Allgemeinen zu sprechen. Die Antwort darauf ist: jedesmal, wenn wir einen dieser Links crawlen, falls sie eine 301 benutzen, ja, wir folgen ihnen und der PageRank fließt so, wie er es normalerweise bei jeder 301 von einer anderen Website tun würde.
Danny Sullivan hat einen großartigen Post über Kurz-URL-Anbieter verfasst, in dem er die bekanntesten Dienste wie tinyURL.com, bit.ly listet und so ungefähr sagt: ok, machen die
eine 301 oder benutzen sie eine andere Art von Weiterleitung.
Also, wenn ein Dienst 301-Redirects verwendet, sollte der PageRank fließen, so wie er es bei jeder anderen Art von 301-Weiterleitung tut. Bei Kurz-URL-Diensten, die das richtig machen, sollten wir in der Lage sein zu folgen und die Ziel-URL ausfindig zu machen,
ohne Probleme.

Übersetzung von Jörg, Search Quality Team

Dienstag, 1. September 2009 um 18:05

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.