Dienstag, 19. April 2011

Sind 100 Links pro Seite zuviel?

Heute geht Matt Cutts auf eine (etwas veraltete) Empfehlung zur Anzahl von ausgehenden Links pro Seite ein.



Die heutige Frage ist von Blind Five Year Old in San Francisco, Kalifornien, der wissen möchte: "Gilt die 100-Links-pro-Seite-Richtlinie von Google noch immer, vor allem in Anbetracht der Tatsache, dass fortschrittliche CSS-Funktionen Tabs, Einblendungen und andere Möglichkeiten bieten, die mehr Inhalte und Links auf einer Seite ermöglichen, ohne die Nutzererfahrung negativ zu beeinflussen?"

Über diese Frage freue ich mich sehr. Der ursprüngliche Grund für die Empfehlung von 100 Links pro Seite ist ziemlich einfach. Zu einem bestimmten Zeitpunkt indexierte Google nur 101 Kilobyte einer Seite. Also brauchten wir eine Heuristik, um sagen zu können: "Macht eure Seite nicht so lang, dass wir sie nicht komplett indexieren können und Wörter am Ende weglassen müssen." Also legten wir fest: 101 Kilobyte, 100 Links. Das ist zwar eine recht grobe Schätzung, sollte man diese aber überbieten, ist dies doch ein wenig ungewöhnlich.

Diese 100-Links-pro-Seite-Richtlinie reicht allerdings 8 bis 9 Jahre zurück. Das Web hat sich verändert, und heutige Seiten sind oft viel reichhaltiger als früher. Sie beinhalten oft viel mehr Informationen. Vergleicht zum Beispiel Seiten von heute mit gängigen Seiten von vor 10 Jahren im Web. Wenn ihr euch also die Richtlinien noch einmal genau anseht, glaube ich, dass ihr die Richtlinie für 100 Links pro Seite nicht mehr finden werdet.

Bedeutet dies nun, dass ihr sofort 5000 Links auf eine Seite packen sollt? Das ist wohl eher eine schlechte Idee. Das wäre nicht nur schlecht für den Nutzer, es könnte auch der Eindruck entstehen, dass ihr eine Linkfarm betreibt oder einfach nur Links in die Seite stopft. Ich würde mich aber auch nicht unbedingt an dem Konzept von 100 Links auf einer Seite festhalten. Das stand auch schon immer in unseren Richtlinien. Damit möchte ich sagen, dass wir euch nicht für Spammer halten, wenn ihr mehr als 100 Links habt, möglicherweise aber nicht alle davon indexieren. Wir haben die Richtlinie jedenfalls entfernt. Es ist also absolut okay, wenn eine reichhaltige Seite viele Links enthält, bevor ihr euch Sorgen machen müsst, dass es ein Problem deshalb gibt oder wir nicht allen Links folgen.

Es sollte aber nicht vergessen werden, dass der PageRank einer Seite eine Rolle spielt. Die Formel für den PageRank besagt, dass eine Division durch die Anzahl ausgehender Links erfolgt. Wenn ihr also 500 Links auf einer Seite habt, führt dies zur Teilung des PageRank dieser Seite durch 500, wenn ihr euch die ausgehenden Links anseht. Dies findet gemäß der ursprünglichen PageRank-Spezifikation statt. Man sollte das also im Hinterkopf behalten. Es ist nicht unbedingt die beste Lösung, Hunderte oder Tausende von Links auf einer Seite zu platzieren. Denkt aber darüber nach, welche Seiten wirklich wichtig sind, und versucht, eure Nutzer nicht mit Links zu überschütten, die ihnen nicht unbedingt einen Mehrwert oder Vorteil bieten.

Veröffentlicht von Daniela Loesser, Search Quality Team

Freitag, 15. April 2011

Unsere Eindrücke von der SMX München 2011

Letzte Woche haben wir die SMX München besucht. Wie angekündigt, waren wir gleich mit mehreren Sprechern vor Ort.

Maile Ohye, die ihr wahrscheinlich aus unserem Blog kennt - wir haben unter anderem ihr Video zu SEO mit den Webmaster-Tools hier veröffentlicht - hielt eine der Keynotes. Thema: ”Das Aktuellste zur Google-Suche.” Sie betonte die Bedeutung von HTML5 für die Zukunft des Webs und machte vor allem eines klar, dass Suchmaschinen und Webmaster ein gemeinsames Ziel haben: die Aufmerksamkeit und das Wohlwollen der Nutzer. Wir hoffen natürlich, dass wir euch unter anderem mit unseren Tools dabei helfen, das zu erreichen und so zum weiteren Wachstum des Netzes beitragen können.

Johannes Müller, Webmaster Trends Analyst, der Besuchern unserer Hilfe-Foren ein Begriff sein sollte, kam auch mehrmals zu Wort. Er zeigte nicht nur, wie HTML5 einsetzbar ist, sondern gab auch Hinweise zu suchmaschinenfreundlichem Design.

Außerdem sprach Uli Lutz aus unserem Team über usergenerierten Content. Besonders seine Erfahrungen im Google-Hilfe-Forum, kamen dabei immer wieder zur Sprache. Wir werden in einem zusätzlichen Blogpost weiter darauf eingehen.

Uns hat es auch sehr gefreut, dass unsere neue und frisch übersetzte Einführung in Suchmaschinenoptimierung, unser SEO-Guide, bereits mehrfach in den Panels empfohlen und zitiert wurde. Selbst fortgeschrittene Webmaster scheinen da noch viele sinnvolle Tipps zu finden.

Auch unsere Position zu Linkkauf und Linktausch aus den Richtlinien für Webmaster ist zum Glück bei jedem angekommen. Die Sprecher in den großen Panels sehen die Zukunft von SEO eindeutig in kreativen Ideen und dem Anbieten von guten Inhalten.

Dass “Social” in der Zukunft der Suche eine große Rolle spielen wird, ist auch unübersehbar. Gute Inhalte werden auch durch Nutzerempfehlungen nochmals stärker in den Mittelpunkt rücken, so der Tenor der Panel-Sprecher.

Rich Snippets sind ein weiteres Thema, dass euch sehr interessiert. Falls ihr zu diesem Thema Fragen habt, zahlt sich ein Blick in die Dokumentation zur Auszeichnung von Websites aus. Unser (englischsprachiges) Testtool für Rich Snippets ist ebenfalls äußerst hilfreich. Ihr könnt damit auch deutschsprachige Inhalte testen.

Viele Webmaster machen sich zudem Gedanken darüber, Videoinhalte in ihre Website einzubauen. Auch zu Video-XML-Sitemaps könnt ihr bei uns Ressourcen finden.

Wir bedanken uns bei allen Leuten, mit denen wir uns nett unterhalten durften und hoffen, dass ihr viel Interessantes erfahren habt - sei es vor Ort bei der SMX München, oder hier im Blogpost. Weitere Fragen beantworten wir gerne im Hilfe-Forum.

Blogpost von Jörg Pacher (Search Quality Analyst) und Uli Lutz (Search Quality Strategist)

Mittwoch, 13. April 2011

Bessere englischsprachige Suchergebnisse dank des neuen Algorithmus - jetzt weltweit

Vor über einem Monat haben wir Verbesserungen am Algorithmus vorgenommen, sodass unsere Nutzer mehr qualitativ hochwertige Websites in den Suchergebnissen erhalten. Seitdem haben wir viel Zuspruch für die Veränderung erhalten: Die Suchergebnisse haben sich verbessert und viele gute Publisher verzeichnen höhere Zugriffszahlen.

Nach weiteren Tests auf internationaler Ebene führen wir diese Verbesserung nun global für alle Google-Nutzer in englischer Sprache ein. Zusätzlich verwenden wir auch neue Signale, die auf Nutzer-Feedback basieren. In einigen Fällen beginnen wir damit, die Daten über Websites, die von Nutzer geblockt werden, in unseren Algorithmus einzubauen. Zusätzlich betrifft die Änderung auch den Long Tail von Websites niedrigerer Qualität und führt so zu qualitativ besseren Ergebnissen in Bereichen, die der Algorithmus vorher nicht so gut einschätzen konnte. Der Einfluss dieser neuen Signale ist geringer als die Änderung vor einem Monat: ungefähr 2% der US-amerikanischen Suchanfragen sind merklich betroffen - im Vergleich zu den beinahe 12%, auf die die ursprüngliche Änderung Einfluss hatte.

Unsere Tests haben ergeben, dass der Algorithmus die Qualität einer Website äußerst genau erkennen kann. Falls ihr den Eindruck habt, dass eure Website von hoher Qualität ist, und dennoch von der Änderung betroffen ist, würden wir euch bitten die einzelnen Aspekte der Website genau zu überprüfen. Die Richtlinien für Webmaster von Google enthalten hilfreiche Information, wie ihr eure Website verbessern könnt. Änderungen auf Websites werden in den algorithmischen Rankings widergespiegelt. Wir freuen uns außerdem, wenn ihr zusätzlich einen Beitrag in unserem Webmaster-Forum postet. Wir machen zwar keine manuellen Ausnahmen, aber wir werden dieses Feedback bei der weiteren Verfeinerung unserer Algorithmen berücksichtigen.

Die Änderung wird weiter getestet und verfeinert, bevor sie auf zusätzliche Sprachen ausgeweitet wird. Natürlich halten wie euch diesbezüglich auf dem Laufenden.

High-quality sites algorithm goes global, incorporates user feedback (English version)

Blogpost von Amit Singhal, Google Fellow (Veröffentlichung der deutschen Fassung von Jörg Pacher, Search Quality Analyst)

Freitag, 8. April 2011

Sind Keywords im Domain-Namen ein Muss?

Heute beschäftigt sich Matt Cutts mit Domain-Namen und den Vorteilen und Nachteilen, die Keyword-Domains gegenüber eingängigeren Markennamen-Domains haben.



Die heutige Frage kommt von McDot aus Berlin. McDot fragt: "Wie würdest du jemandem, der sich für einen Domaintypen entscheiden möchte, die Vorteile von Keyword-Domains erklären?".

Was McDot damit meint, ist, dass ihr, wenn ihr einen neuen Domain-Namen registrieren und euch damit in einer bestimmten Nische der SEO durchsetzen möchtet, unterschiedliche Strategien verfolgen könnt. Ihr könnt euch etwas sehr Eingängiges überlegen, wie Twitter, etwas, das sich die Leute merken, wobei es sich aber nicht um Keywords im Domain-Namen handeln muss. Oder aber ihr konzentriert euch auf Keywords im Domain-Namen.

Die Leute machen das in den verschiedensten Bereichen. Etwa "kaufviagra.org" oder "kaufviagra.net". Es gibt verschiedene Meinungen darüber, ob es nun besser sei, eine mit Keywords gespickte Domain oder eine Domain zu nutzen, die nicht unbedingt die Keywords enthält, dafür aber eingängiger ist. Das muss man sich überlegen. Es ist auf jeden Fall und ohne Probleme möglich, ohne Keywords in der Domain Erfolg zu haben. Dafür gibt es einige gute Bespiele, etwa Zynga. Nichts in der Domain verrät etwas über den sozialen Aspekt oder Spiele. Twitter, Facebook, Google, Yahoo!. Ich meine, die Namen, die eingängig sind, an die ihr euch sofort erinnert, wenn ihr daran denkt, das sind garantiert keine Domains voll mit Keywords.

Für Keywords könnte sprechen, dass, wenn man auf den Namen eines Unternehmens verweist, ihr darauf verlinken könntet und anschließend mit denselben Wörtern, die sich im Keyword befinden. Die Sache ist also etwas ungewiss und hängt davon ab, welche Ziele ihr verfolgt und woran ihr interessiert seid. Ich persönlich tendiere eher zu den eingängigen Domains.

Wenn ihr zum Beispiel 15 Websites über Android habt und alle haben Android, Android, Android,Android, Android darin, könnte es etwas schwer fallen, sich hervorzutun und sich von den anderen abzugrenzen. Aber sobald etwas ein wenig eingängiger ist, werden sich die Leute daran erinnern und in der Lage sein, darauf zurückzukommen. Selbst bei Websites wie TechCrunch weist nichts auf TechNachrichten hin. Oder nehmen wir exotische URLs. Hacker News ist unter news.ycombinator.com zu finden. In Reddit steckt nichts, das suggeriert: "Hier gibt es sehr interessante Social News." Digg, absolut eingängig. Wenn ihr also den ganz großen Coup landen wollt, ist es vielleicht keine schlechte Idee, sich etwas Eingängiges zu überlegen.

Solltet ihr euch nun immer noch unsicher sein, dann lasst mich noch hinzufügen, dass wir uns die Rankings und Gewichtungen angesehen haben, die wir Keyword-Domains geben. Einige Leute haben sich beschwert, dass wir zu viel Wert auf Keywords in Domains legen. Daher haben wir uns überlegt, dass wir die Mischung etwas anpassen und sozusagen den Regler im Algorithmus herunterdrehen, sodass es bei zwei verschiedenen Domains nicht mehr unbedingt so sehr von Vorteil ist, eine Domain mit einem Haufen Keywords darin zu haben.

Dies sind also einige der Faktoren. So würde ich jemandem, der eine neue Domain starten und wissen möchte, welchen Weg er einschlagen soll, den Unterschied erklären.

Veröffentlicht von Daniela Loesser, Search Quality Team

Freitag, 1. April 2011

Jetzt auf Deutsch: unsere erweiterte Einführung in Suchmaschinenoptimierung

Wir freuen uns darüber, dass der vor einiger Zeit überarbeitete SEO-Guide ab jetzt in zehn weiteren Sprachen verfügbar ist: Spanisch, Französisch, Deutsch, Russisch, Türkisch, Finnisch, Schwedisch und Ungarisch, sowie in traditionellem, als auch vereinfachtem Chinesisch.

Für die jetzt erstmals auf Deutsch erhältliche 32seitige Fassung haben wir den Inhalt nochmals durchgesehen und aktualisiert. Außerdem gibt es ein völlig neues Kapitel über Mobile-Websiten.

Ihr könnte die PDF-Datei unter goo.gl/seoguide-de runterladen und ausdrucken, um sie so jederzeit griffbereit zu haben.

Blogpost von Esperanza Navas und Mariya Moeva, Dublin Search Quality Team (Veröffentlichung von Jörg Pacher, Search Quality)