Dienstag, 29. Dezember 2009

Willkommen zur Google Grants Site Clinic

Willkommen zu unserer Site Clinic im Rahmen von Google Grants! In der Google Einführung in Suchmaschinenoptimierung haben wir bewährte Vorgehensweisen zusammengefasst, um die Indexierbarkeit und Crawlability von Websites zu verbessern. Auf Basis dieses Dokuments haben wir nun die Website einer Nichtregierungsorganisation analysiert und geben Tipps, wie man die Website verbessern könnte.

Unser NGO-Partner ist das Projekt Schwarz-Weiß e.V., ein kleiner, gemeinnütziger Verein zum Wohle von Waisenkindern in Kenia. Die Website www.kenia-hilfe.com ist ein zentraler Bestandteil der Organisation, um Aktivitäten zu präsentieren sowie dringend notwendige Spenden zu sammeln.

Für die Analyse der Website haben wir einige Fragen gestellt: Kann der Googlebot auf alle Seiten zugreifen und sind diese korrekt bei Google indexiert? Wo liegen die Problemfelder? Hat die Website eine XML-Sitemap? Sind die Titel-Tags aussagekräftig? Ist die Meta-Description beschreibend? Wurde die Website benutzerfreundlich gestaltet? Schließt robots.txt wesentlichen Content aus? Gibt es auf der Website fehlerhafte Links? Haben die Bilder Alt-Text?

Wir werden hier im Google Webmaster-Zentrale Blog eine mehrteilige Analyse der Website auf Basis der Einführung in Suchmaschinenoptimierung veröffentlichen.

  • Im nächsten Post zum Thema gehen wir auf die technische Struktur der Website ein. Neben der URL-Struktur werden auch Titel- und Meta-Tags analysiert sowie Weiterleitungen überprüft.
  • Im dritten Blogpost untersuchen wir, wie der Content von www.kenia-hilfe.com "ins richtige Licht" gerückt werden kann.
  • Abschließend widmen wir uns potenziellen Problemen mit Duplicate Content.

Zwar beziehen wir uns in diesen Blogposts auf eine bestimmte Website, aber die Prinzipien, über die wir sprechen, sollten für alle Leser und die meisten Websites brauchbar sein.

Falls ihr Fragen habt, die sich direkt auf eure Website beziehen, schaut doch in unserem Forum für Webmaster vorbei!

Stay tuned!

Post von Michael Schwarz, Search Quality Team

Montag, 21. Dezember 2009

​Das Webmaster-Zentrale-Team wünscht frohe Festtage

2009 neigt sich langsam dem Ende zu. Wir möchten diese Gelegenheit nutzen, um uns bei allen Lesern zu bedanken!

Dieses Jahr ist viel passiert:

Die Hilfe für Webmaster ist auf eine neue Plattform umgezogen, die speziell für Google-Hilfe-Foren entwickelt wurde. Und erst kürzlich haben wir unsere Top-Beitragenden aus dem Forum auf unserem Blog vorgestellt.

Uli Lutz aus unserem Team hat die SES Berlin besucht, und bei der SMX München waren auch John Mueller und Kaspar Szymanski mit von der Partie. Bei beiden Events hatten wir die Möglichkeit, mit vielen von euch persönlich zu sprechen, was uns sehr gefreut hat!

Hier im Blog habt ihr regelmäßig Matt Cutts in Videos zu Gesicht bekommen. Wir haben euch außerdem über zahlreiche Neuerungen informiert.

Besonders interessiert haben euch:
  • Der neue Sitemap-Generator, der unterschiedliche Herangehensweisen zum Auffinden von URLs einsetzt
  • Die Vorstellung von Rich Snippets: sie bieten den Usern auf einem Blick eine praktische Zusammenfassung von Informationen zu ihrem Suchergebnis
  • Die Einführung kanonischer URLs, um Duplicate Content zu vermeiden

Wir hoffen, dass auch Themen wie “Was tun, wenn meine Website gehackt wurde?” oder die Tipps zum Reputationsmanagement hilfreich waren, und dass ihr auch weiterhin vorbeischaut.

Das gesamte Webmaster-Zentrale-Team wünscht euch frohe Festtage und viel Erfolg im neuen Jahr!

Das Webmaster Zentrale Team wünscht frohe Festtage

Post von Jörg Pacher, Search Quality Team

Freitag, 18. Dezember 2009

Wie stelle ich am besten Content abhängig vom Standort des Users zur Verfügung?

Heute spricht Matt Cutts über den Unterschied zwischen Cloaking, Geo- und IP-Delivery.






Wir haben eine Frage von Martokus aus Sofia, Bulgarien. Martokus fragt:

"Wie stelle ich am besten unterschiedlichen Content abhängig von der Länder-IP zur Verfügung, beispielsweise aus rechtlichen Gründen?"

Also, es gibt viele Missverständnisse über den Unterschied zwischen Cloaking und Geo- oder IP-Delivery.

IP-Delivery gibt den Content abhängig von der IP-Adresse aus. Das klingt logisch, oder?

Cloaking zeigt Usern anderen Content als Googlebot. Cloaking ist also eine Art von IP-Delivery, aber nicht jede IP-Delivery ist Cloaking.

Und eine besondere Art von IP-Delivery, die nicht unter Cloaking fällt, zeigt Usern unterschiedlichen Content in verschiedenen Ländern. Google macht das auch. Wenn ihr Google in Frankreich aufruft, dann leiten wir euch wahrscheinlich zu google.fr. Wenn ihr Google in Deutschland aufruft, dann leiten wir euch wahrscheinlich zu google.de. Wir schauen also auf die IP-Adresse des Users und wir sagen "Wisst ihr was? In Deutschland ist google.de wohl nützlicher für diesen User." Was aber wichtig zu verstehen ist, wir haben keine gesonderte Behandlung für Googlebot bei länderabhängiger IP-Delivery. Und genauso wenig solltet ihr gesondert mit Googlebot umgehen. Behandelt ihn nicht wie ein besonderes Land. Macht im Großen und Ganzen nichts anders für Googlebot. Nehmt einfach die IP-Adresse, über die Googlebot gekommen ist, und behandelt sie genauso, wie ihr irgendeinen anderen User von derselben IP-Adresse behandeln würdet. Wir würden also in der Regel von den USA aus das crawlen, was Content aus den USA enthält.

Es ist kein Cloaking, dem User Content abhängig von der IP-Adresse zu zeigen, da ihr Googlebot nichts anderes zeigt als einem normalen User. Ein User aus den USA und Googlebot aus den USA würden dieselbe Seite erhalten, und demnach ist es kein Cloaking. Macht euch also bei IP-Delivery keine Sorgen in Bezug auf die IP-Adresse eurer User, solange ihr sichstellt, dass ihr denselben Content an User und an Googlebot liefert, dann ist das in keiner Weise problematisch und gilt auch nicht als Verletzung unserer Qualitätsrichtlinien für Webmaster.

Übersetzung von Claudia, Search Quality Team

Donnerstag, 17. Dezember 2009

Bezahlte Links in JavaScript-Code

In diesem Video spricht Matt Cutts über bezahlte Links, die über JavaScript implementiert wurden.




Wir haben eine gute Frage von Majico aus London, UK. Majico fragt:

"Google kann jetzt JavaScript-Links finden. Was passiert mit all den gekauften Links, die in JavaScript-Code stecken. Wird Google diese Links von nun an abstrafen?"

Diese Frage wurde mir auf der SMX Advanced in Seattle gestellt, aber ich beantworte sie gerne nochmals.

Google ist beim Crawling von JavaScript immer besser geworden, bis zu dem Punkt, dass URLs, die sich innerhalb von JavaScript befinden und von denen ihr dachtet, sie würden nicht gecrawlt, jetzt möglicherweise indexiert werden. Es hat sich herausgestellt, dass hauptsächlich Werbe-Netzwerke Links in JavaScript verwenden und wir wissen mit den bekannten Fällen umzugehen. Also: wir wissen über alle bekannten Werbe-Netzwerke Bescheid und können sie auch sehr gut handhaben.

Nun zu den verkauften Links, die JavaScript-Code benutzen: Ihr könnt das Nofollow-Attribut auch in eurem JavaScript-Code einsetzen. Ihr könnt immer robots.txt verwenden und URLs blockieren, die andernfalls indexiert worden wären, oder eine URL-Weiterleitung, die erfolgen würde. Dann crawlt Google die blockierte Seite nicht, weil wir der blockierten URL-Weiterleitung nicht folgen und den JavaScript-Code nicht erreichen können. Das wären einige sichere Wege. Wir denken aber, dass der größte Anteil der gekauften Links ohnehin nicht über JavaScript erstellt wird. Normalerweise sind das völlig normale Textlinks oder ähnliches. Dafür haben wir einen Großteil unserer Zeit aufgewandt.

Aber wenn ihr gekaufte Links habt und diese momentan über JavaScript laufen, wäre es eine gute Idee, sie zu überprüfen und zu sagen:" Okay, habe ich etwas, das von robots.txt blockiert wird, damit Suchmaschinen es nicht versehentlich crawlen, ausführen, den JavaScript-Code entdecken und in Folge neue Link finden?" 2009 strafen wir das noch nicht ab, wir könnten damit aber anfangen, obwohl es meiner Erfahrung nach kein großes Problem ist, denn der größte Anteil davon sind große Werbe-Netzwerke und Dinge, mit denen wir bereits gut umgehen können. Also wie immer:

wenn ihr Textlinks verkauft, stellt sicher, dass diese Links keinen PageRank vererben, und dass sie Suchmaschinen nicht beeinflussen. Es gibt zahlreiche einfache Wege, dies zu bewerkstelligen. Die haben sich nicht geändert seit wir über bezahlte Links reden: die Verwendung von robots.txt, die Verwendung des Nofollow-Attributs, und so weiter.

Übersetzung von Jörg, Search Quality Team

Dienstag, 15. Dezember 2009

Kann ich davon profitieren, falls Content von der eigenen Site gescraped wurde?

Im heutigen Video spricht Matt darüber, ob es Situationen gibt, wo man davon profitieren kann, falls Content von der eigenen Site gescraped wurde.



Transkript:
Biz (USA) fragt: "Ist es möglich, davon zu profitieren, falls Content von der eigenen Site gescraped wurde?"

Nun, wenn ihr sicherstellt, dass eure Seiten Links zu euch haben oder die Artikel zu euch linken falls ihr gescraped wurdet, dann kann es passieren, dass der gescrapte Content zu euch verlinkt. Sollte es sich dabei um einen erfolgreichen Scraper oder Spammer handeln, dann können euch diese Links sogar weiter helfen.

Es gibt Leute, die Scraper wirklich hassen und versuchen, rigoros gegen sie vorzugehen und ihren gesamten Content zu eliminieren und vom Web-Host zu verbannen.
Ich neige eher dazu, mir keine allzu großen Sorgen darüber zu machen, weil in der absoluten Mehrzahl der Fälle, eure Originalseite vorn platziert wird - und nicht der Scraper. Außerdem: Wenn der gescrapte Content eure Links enthält, dann verlinkt er auch auf eure Site. Also im schlimmsten Fall wird es euch nicht wirklich schaden, aber in manchen Ausnahmen kann es euch sogar ein wenig helfen.

Normalerweise braucht ihr euch keine großen Sorgen über Scraper zu machen. Sie haben meist keinen großen Einfluß auf das, was User zu sehen bekommen. Wenn ihr also doch einen Scraper entdeckt, der besser rankt als ihr, dann könnt ihr eine "Digital Millennium Copyright Act"-Anfrage (DMCA request) stellen. Oder aber, falls es sich um einen echten Spammer mit wirren, sinnlosen Texten handelt, könnt ihr natürlich auch einen Spam-Report einschicken - das kann eine andere Möglichkeit sein, gegen diesen Scraper vorzugehen.

Übersetzung von Sven, Search Quality Team

Freitag, 11. Dezember 2009

Anzeige der Website-Performance in den Webmaster-Tools

Anmerkung: Dieser Post dient als Ergänzung unserer vorherigen Ankündigung des "Website-Leistung"-Features.

Hier folgt ein kurzer Blick auf die individuellen Bereiche des "Website-Leistung"-Features in den Webmaster-Tools:

Leistungsübersicht

Die Leistungsübersicht im Website-Leistung Feature der Webmaster-Tools.
Die Leistungsübersicht zeigt eine Kurve der aggregierten Geschwindigkeitswerte für die Website - basierend auf den Seiten, die am häufigsten von Besuchern mit der Google-Toolbar und aktiviertem PageRank-Feature besucht wurden. Da wir die Daten der Google-Toolbar verwenden, braucht ihr euch keine Sorgen darüber zu machen, dass wir eure Site von einem Ort aus testen, der nicht relevant für eure Besucher ist. Wenn eure Site z. B. in Deutschland gehostet ist und alle eure User aus Deutschland kommen, dann wird unsere Grafik die Ladezeiten darstellen, wie sie in Deutschland auftreten. Auf ähnliche Weise ist in diesen Werten sichtbar, ob eure Besucher meist Telefon- oder IDSN-Einwahl nutzen oder über einen Breitbandanschluß verfügen. Falls nur wenige eurer User die Google-Toolbar nutzen, kann es sein, dass wir keine Daten in den Webmaster-Tools anzeigen können.

Die Linie zwischen dem roten und grünen Bereich auf der Grafik ist das 20. Perzentil - nur 20 % der Sites, die wir geprüft haben, sind schneller. Die Website im Bild ist ziemlich nah an der 20 % Marke - an welchen Seiten sollten wir daher zuerst arbeiten?

Beispielseiten mit Ladezeiten

Beispielseiten mit Angabe der Ladezeiten.
In diesem Bereich sind Beispielseiten zu finden, mit der Angabe der durchschnittlichen, aggregierten Ladezeiten von Usern bei ihrem Besuch der Website. Diese Zahlen können von euren eigenen Aufrufen abweichen, da sie auf verschiedenen Browsern, Internetverbindungen und Orten beruhen. Mithilfe dieser Liste könnt ihr Seiten erkennen, die überdurchschnittliche Ladezeiten aufweisen, also Seiten, die die User bremsen.

Da die Ladezeiten der Seiten auf tatsächlichen Zugriffen der User basieren, kann es sein, dass es sich dabei auch um Seiten handelt, die vom Crawling ausgeschlossen sind. Auch wenn Googlebot diese Seiten nicht crawlen kann, ist es doch möglich, dass diese Seiten einen beträchtlichen Anteil der Nutzererfahrung auf eurer Site ausmachen.

Bedenkt dabei auch, dass es zu gelegentlichen Spitzen kommen kann - es ist also gut, die Ladezeiten über einen kurzen Zeitraum zu verfolgen, um zu erkennen, was normal ist. Wenn ihr dauerhaft hohe Ladezeiten seht, bedeutet das wahrscheinlich auch, dass eure User hohe Ladezeiten haben (ob aufgrund langsamer Netzwerkverbindungen oder aus anderen Gründen). Das ist also etwas, das ihr ernst nehmen solltet.

Vorschläge von Page-Speed

Vorschläge von Page-Speed in den Webmaster-Tools.
Diese Vorschläge basieren auf dem Page-Speed-Plug-in für Firefox / Firebug. Zur Ermittlung der Details für die Beispiel-URLs, rufen wir die Seite inklusive aller eingebetten Ressourcen mit Googlebot ab. Falls wir nicht in der Lage sind, den gesamten eingebetten Content mit Googlebot abzurufen, kann es sein, dass wir keine vollständige Analyse bieten können. Ähnlich verhält es sich, wenn die Server einen leicht veränderten Content für Googlebot als für User liefern - dies kann einen Einfluß darauf haben, was wir hier anzeigen. Es kann z. B. sein, dass manche Server unkomprimierten Content an Googlebot liefern, so wie das bei älteren Browsern passiert, die keinen gzip-komprimierten eingebetteten Content unterstützen (das passiert z. B. aktuell bei der "ga.js"-Datei von Google Analytics).

Wenn es um angezeigte Probleme im Zusammenhang mit Code von Drittanbietern geht, wie z. B. Websiteanalyse-Skripte, kann es auch ein Faktor sein, wie weitverbreitet diese Skripte im Web sind. Falls sie sehr verbreitet sind, ist die Wahrscheinlichkeit hoch, dass der Browser eines durchschnittlichen Users bereits den DNS-Lookup und Inhalt des Skriptes im Cache hat. Obwohl wir diese Skripte mit separaten DNS-Lookups anzeigen, werden sie in der Praxis (weil bereits gecacht) kaum eine Rolle für die eigentliche Ladezeit spielen.

Wir bieten diese Vorschläge als hilfreichen Leitfaden bezüglich erster Schritte der Performance-Verbesserung einer Site und empfehlen darüber hinaus die Nutzung des Page-Speed-Plug-ins (oder eines vergleichbaren Tools), wenn ihr direkt an eurer Site arbeitet. Dadurch seid ihr besser in der Lage, mögliche Schwachstellen zu erkennen und es ist einfacher, direkt zu sehen, wie bestimmte Modifikationen am Server die gesamte Ladezeit verändern können.

Bei Fragen zu den Webmaster-Tools oder diesem neuen Feature könnt ihr gern unseren Artikel in der Hilfe für Webmaster lesen oder in unserem Forum für Webmaster suchen und posten. Außerdem bieten wir eine Diskussionsgruppe zu Page-Speed (Englisch). Wir hoffen, diese Informationen sind euch dabei behilflich, eure Website noch schneller zu machen!

Your site's performance in Webmaster Tools (English version)

Post von John Mueller, Webmaster Trends Analyst, Google Zürich (Übersetzung von Sven, Search Quality Team)

Donnerstag, 10. Dezember 2009

Was mache ich, wenn meine Website gehackt wurde?

Das heutige Video mit Matt Cutts handelt von einer Website, die trotz Antrag auf erneute Überprüfung nach einem Hack-Angriff nicht mehr wie vorher in den Suchergebnissen erscheint.



Frage von Laura Thieme aus Columbus, Ohio:

"Ich habe einen Kunden, dessen Website gehackt wurde. Anscheinend hat der SEO-Berater gesagt, dass die Sache bereinigt worden sei, obwohl das nicht stimmte. Insgesamt 30 000 Viagra/Cialis-Seiten wurden entfernt, aber bei den SERPs, den Suchergebnissseiten, gab es keine Verbesserung. Wir haben auch eine erneute Überprüfung beantragt. Was sollen wir jetzt unternehmen?"

Ich würde noch einen Antrag auf erneute Überprüfung stellen. Ich würde auch eine "site:"-Suche machen und auf [site:example.com] nach [viagra], [cialis], [porn], [free sex] und anderen typischen Spam-Begriffen suchen, die euch einfallen, um sicher zu sein, dass wirklich alle Seiten weg sind. Ich würde mir auch die Keywords in den Webmaster-Tools anschauen, um zu sehen, für welche Keywords ihr auftaucht.
Wenn nur eines davon nach Spam oder Porn oder so aussieht, kontrolliert nochmals.

Ihr könntet auch jemanden bitten, einen Blick ins Forum für Webmaster zu werfen und zu fragen: "Ist was falsch mit meiner Website?", denn manchmal kann die Community dort was entdecken. Und vergewissert euch, dass ihr eine möglichst aktuelle Version eurer Software verwendet. Wenn ihr z. B. WordPress benutzt, stellt sicher, dass ihr das neustes Update für die WordPress-Installation habt. Denn manchmal räumt man alles auf, nur um wieder gehackt zu werden. Wenn ihr nach [google webmaster blog gehackt] sucht, findet ihr einige Posts, die wir zum Thema veröffentlicht haben und ihr könnt mehr dazu lesen.

Und wenn ihr sicher seid, dass alles völlig sauber ist, beantragt eine weitere Überprüfung und dann taucht die Website hoffentlich wieder auf.

Übersetzung von Jörg, Search Quality Team

Mittwoch, 9. Dezember 2009

Geben Google-Links PageRank weiter?

In diesem Video spricht Matt darüber, ob Links von Google auch PageRank vererben.




Robert Enriquez fragt:

"Zählt Google die eigenen Links für PageRank oder Linkjuice? Google Lesezeichen, Google Profile, etc.?
Ich frage danach, weil Links von Google nie in den Google Webmaster-Tools auftauchen."

Ich denke, es ist nicht ausgeschlossen, dass Links von Google in den Webmaster-Tools angezeigt werden. Ich glaube, ich bin in der Blogroll des Google-Blogs, ich habe also schon mal ein paar Links von Google gesehen.

Im Allgemeinen wird ein hoher Maßstab an Google angelegt. Wenn wir beispielsweise Suchergebnisse haben, die nicht durch robots.txt blockiert sind, dann bekommt das jemand mit und lässt es uns wissen, z. B. wird dann darüber gebloggt, und das erregt sehr viel Aufmerksamkeit. Wir versuchen also, ziemlich umsichtig zu sein.

Google-Suchergebnisse etwa vererben keinen PageRank. Wir bemühen uns, dass die Google-Webdienste so wenig wie möglich gespammt werden. Wenn wir also denken, dass etwas evtl. von Spammern ausgenutzt werden könnte, dann verwenden wir oft ein Nofollow-Attribut.

Wir versuchen außerdem, einer differenzierten Strategie zu folgen. Bei Google Knol z. B. hatten die meisten Links am Anfang ein Nofollow. Mit der Zeit konnten wir dann besser einschätzen, welche Knol-Autoren vertrauenswürdiger sind, und wir haben das Nofollow dann für diese Knol-Autoren entfernt.

Also, wir geben manchmal PageRank weiter, aber wir lassen da Vorsicht walten, weil wir auch bedenken, wie dies missbraucht werden könnte.


Übersetzung von Johanna, Search Quality Team

Montag, 7. Dezember 2009

Wie schnell ist meine Site?

Wir haben neulich das Feature "Website-Leistung" gelauncht. Es handelt sich dabei um eine experimentelle Funktion in den Webmaster-Tools, die euch Informationen über die Geschwindigkeit eurer Site und Vorschläge zur Geschwindigkeitsverbesserung bietet.

Dies ist ein kleiner Schritt in unserem generellen Anliegen, das Web schneller zu machen. Zahlreiche Studien haben gezeigt, dass die Verbesserung der Geschwindigkeit einer Site zu einer längeren Verweildauer der User bei gleichzeitig höherer Aktivität, höheren Einnahmen und geringeren Kosten führt. Um dem Ziel näher zu kommen, das Laden jeder Webseite so schnell wie das Umblättern von Seiten in einer Zeitschrift zu machen, haben wir bereits Artikel zu Best Practices sowie Diagnosetools bereitgestellt.

Jetzt wollen wir euch Daten und Statistiken speziell für eure Site bieten. Unter der Rubrik "Website-Leistung" könnt ihr sehen, wie schnell eure Seiten laden, wie sich die Ladezeit im Laufe der Zeit entwickelt hat und wie die Ladezeiten eurer Site im Vergleich zu anderen Sites aussehen. Außerdem geben wir Beispiele zu spezifischen Seiten, zeigen die tatsächliche Ladezeit an und bieten dazu Vorschläge aus Page-Speed, mit deren Hilfe ihr die vom User wahrgenommene Ladezeit senken könnt. Unser Ziel ist es dabei, spezifische und nachvollziehbare Geschwindigkeitsdaten zu liefern - bleibt also auf weitere Updates in diesem Bereich gespannt.

Ansicht des neuen
Die Daten zu den Ladezeiten beruhen auf aggregierten Informationen von Usern eurer Site, die die Google-Toolbar installiert und deren erweiterte Funktionen aktiviert haben. Wir zeigen die jeweiligen Performance-Charts und Tabellen nur, wenn genügend Daten vorliegen. Falls eure Site wenig Traffic hat, kann es also sein, dass nicht alles angezeigt wird. Die Daten stellen einen globalen Durchschnitt dar - für einzelne User kann eure Site schneller oder langsamer laden, abhängig von deren Ort und den jeweiligen Netzwerkbedingungen.

Es handelt sich bei diesem Feature um ein Labs-Produkt, das sich weiterhin in Entwicklung befindet. Wir hoffen, ihr findet es nützlich. Weiteres Feedback dazu könnt ihr gern auf unserem Forum für Webmaster diskutieren.

How fast is your site? (English version)

Post von Sreeram Ramachandran, Software Engineer und Arvind Jain, Director, Faster Web program (Übersetzung von Sven, Search Quality)

Neue Top-Beitragende auf dem Webmaster-Forum!

Auf unserem Forum für Webmaster gab es neulich einen Grund zum Feiern: Unser bisher einziger Top-Beitragender, luzie, hat jetzt Unterstützung bekommen - wir freuen uns über drei neue Top-Beitragende!
Wir möchten allen vieren die Möglichkeit geben, sich hier kurz selbst vorzustellen:

Herbert (luzie)
Ich beobachte täglich Sites und Suchmaschinen seit mehr als 12 Jahren. Ich weiß, wie sie funktionieren, und wie Websites für Nutzer und Suchmaschinen gleichermaßen freundlich zu gestalten sind. Ich betreibe SEO mit Technik und Verstand. Im großartigen Google-Webmaster-Help-Forum antworte ich zu Suchmaschinenfragen, wann immer mir Gutes dazu einfällt - was hoffentlich häufig der Fall ist ... ;-)

Michael (Phantastor)
Es hat mich seit gut 25 Jahren immer wieder zu den komischen Kästen mit dem Bildschirm (ganz früher sogar "nur" Fernseher) gezogen.
Beruflich hatte ich eigentlich als Kaufmann im Einzelhandel begonnen. Irgendwann habe ich einen Job als PC-Techniker angenommen - schließlich habe ich dann eine Umschulung zum Fachinformatiker Anwendungsentwicklung gemacht. Immer wieder kamen mir Angebote und Aufträge - oder eigene Wünsche in Bezug auf Internetseiten "in die Quere" und dann gab es plötzlich Dinge wie PHP, W3C und Google in meinem Leben ... :-D

Thomas (theylmdl)
Ich bin für ein besseres Web: für die Benutzer (uns) und unsere Kinder. Daher helfe ich gerne dabei, das wichtigste Kommunikations- und Informationsmedium unserer Welt zu verbessern. Mein Schwerpunkt ist die Zugänglichkeit (Benutzbarkeit) für jeden, ob eingeschränkt oder nicht. Information als Grundrecht muss gut und schnell vermittelt werden.

Uwe (uzimmi)
Ich entwickle bereits seit den 90er Jahren im Kundenauftrag Anwendungen für den Online-Bereich mit dem Schwerpunkt Server-Software. Erst durch ein eigenes Projekt habe ich mich mit dem Thema SEO intensiv beschäftigt, dabei aber die Sicht des Entwicklers nie abgelegt. Ich hinterfrage, wie Suchmaschinen technologisch arbeiten und versuche dabei auch, deren kommerzielles Interesse mit zu berücksichtigen.

Im Laufe der Zeit hat sich auf unserem Forum eine sehr aktive und freundliche Community entwickelt, was ohne den tatkräftigen Einsatz der Top-Beitragenden und vieler anderer, die regelmäßig posten, nicht möglich gewesen wäre. Deshalb vielen Dank an alle!

Post von Sven Naumann, Search Quality Team

Freitag, 4. Dezember 2009

Warum gibt es keine Benachrichtigung über abgestrafte Sites in den Webmaster-Tools?

Heute redet Matt Cutts darüber, in welchen Fällen Google Webmaster über abgestrafte Sites benachrichtigt.



Transkript:
Wir haben eine Frage von JP aus Los Angeles. JP fragt:

"Wenn eine Site von Google abgestraft wird, warum erhält der Inhaber keine Nachricht in den Google Webmaster-Tools, weshalb die Abstrafung erfolgt ist? Im Moment tappen Webmaster im Dunkeln, wenn es darum geht, die Ursache für eine Abstrafung herauszufinden."

Also, tatsächlich machen wir das schon. Wenngleich auch nicht für alle Abstrafungen, da es Spammer und Blackhats gibt, die wir nicht informieren möchten. Aber für Dinge wie etwa versteckten Text, falls wir denken, dass eure Site gehackt wurde oder anfällig für Hacker - wir haben sogar darüber nachgedacht, Nachrichten an Leute zu schicken, die möglicherweise alte Google Analytics-Pakete haben.

Wir schicken also einer großen Anzahl von Leuten Warnungen über ihre Site, um zu sagen, Vorsicht, wir mussten eure Site abstrafen, wegen verstecktem Text oder aus anderen Gründen. Wir machen dies nicht für jede einzelne Site und wir machen es nicht für jede einzelne Abstrafung, da es Leute gibt, die einfach sehen wollen, wie weit sie damit kommen, und sobald sie merken, dass sie erwischt wurden, dann fangen sie mit einer anderen Site an.

Wir suchen also nach Wegen, die "good Guys" wissen zu lassen, wenn es Probleme gibt, ohne dass die "bad Guys" benachrichtigt werden, aber wir werden wahrscheinlich nie in der Lage sein, jeder einzelnen Person mitzuteilen, dass sie abgestraft wurde. Wir bemühen uns jedoch weiterhin, hier Fortschritte zu machen.

Übersetzung von Claudia, Search Quality Team

Donnerstag, 3. Dezember 2009

Matt Cutts wartet auf eure Fragen

Wie ihr sicherlich bemerkt habt, posten wir regelmäßig kurze Videos von Matt Cutts. Wir wurden auch schon häufiger gefragt, wie man Matt Cutts selbst Fragen zukommen lassen kann.

Jetzt ist es endlich wieder so weit: Matt Cutts hat seine Wundertüte und einen Stoß Hemden vorbereitet und wird sich morgen wieder vor die Kamera setzen, um einige Fragen auszuwählen und zu beantworten. Hier, unter diesem Link, könnt ihr ihm jetzt Fragen zukommen lassen - allerdings nur auf englisch.

Schlagt also Themen vor, die Matt im Video behandeln sollte! Stellt am besten Fragen, die für möglichst viele Leute von Interesse sind, und nicht solche, die sich nur auf eine bestimmte Website beziehen. Es ist außerdem äußerst vorteilhaft, wenn ihr euren echten Namen angebt.

Die Frage muss nicht unbedingt Websuche oder SEO zum Thema haben. Matt beantwortet auch gerne Fragen á la "Was wäre ein Tipp, um sich möglichst schnell durch seine E-Mails zu ackern?" oder "Welche Chrome Extension würdest du gerne sehen?"

Sollte englisch nicht eure Stärke sein, könnt ihr Fragen auch gleich hier als Kommentar auf deutsch posten. Wir werden eine Auswahl davon übersetzen und ebenfalls einreichen.

Wenn ihr stattdessen spezifische Fragen zu eurer Website habt, freuen wir uns, euch in unserem Hilfeforum für Webmaster willkommen zu heißen. :)

Post von Jörg, Search Quality Team

Linkunabhängige Verweise als Ranking-Signal?

Wird Google vielleicht in Zukunft unverlinkte Hinweise auf Websites beim Ranking mit einbeziehen? Im heutigen Video redet Matt über diese Idee.



Eric Enge aus Boston fragt:

"Glaubst du, dass Verweise (Erwähnungen von Websites, ohne dass darauf verlinkt wird) eines Tages als Ranking-Signal für die Websuche Verwendung finden werden?"

Darauf habe ich zwei Antworten. Die erste ist, dass ich kein Ranking-Signal ganz ausschliessen will.
Wie ich spaßeshalber schon mal erwähnte: Wenn die Mondoberfläche uns beim Ranking helfen kann, dann bin ich gern bereit, sie miteinzubeziehen. Gleichzeitig ist aber zu bedenken, wie die Verwendung solcher Verweise missbraucht werden könnte.

Derzeit ist es so, dass viele Webmaster darauf bauen, viele Links zu bekommen. Wenn alles, was sie brauchen, "example.com" als Text ist, dann können sie das im ganzen Web verteilen, in Foren und Blogs usw. Überall dort, wo User die Möglichkeit haben, Content zu kreieren, würden solche Verweise gesetzt werden.

Wir sind also ein wenig skeptisch, ob wir diese Art von Ranking-Signal verwenden sollten, da das leicht missbraucht werden könnte. Man könnte einfach überall Verweise auf URLs hinterlassen, auch wenn man sie nicht verlinken kann.

Aber, wie ich schon sagte, wir schließen diese Idee nicht von vornherein aus, wir würden sie eingehender analysieren. Wir würden sagen: "Können wir irgendwie ein Signal aus diesem Datenwust herausziehen, das eine Verbesserung darstellen würde?" Das wäre aber auf jeden Fall so eine Sache, wo einige Leute versuchen würden, das zu ihrem Vorteil auszunutzen.

Übersetzung von Johanna, Search Quality Team

Mittwoch, 2. Dezember 2009

BUY VIAGRA auf meiner Website? Ich glaube, meine Site wurde gehackt!

Ist eure Site schon einmal ganz plötzlich auf mysteriöse Weise aus den Suchergebnissen verschwunden? Habt ihr jemals eine Benachrichtigung erhalten, dass eure Site Cloaking anwendet?
Unglücklicherweise werden Sites manchmal von böswilligen Angreifern "gehackt". Die Hacker überwinden dabei die Sicherheitsvorkehrungen einer Site und hinterlassen unerwünschten Content. Geschickte Angreifer sind in der Lage, diesen gefährlichen oder spammigen Content so zu tarnen, dass dieser für gewöhnliche User nicht sichtbar ist, sondern nur Googlebot präsentiert wird. Das kann einen negativen Einfluß auf eure Site in unseren Suchergebnissen haben.

In solchen Fällen war es bisher sehr schwierig, das Problem zu identifizieren, da die Site für User ganz normal wirkte. Es konnte sein, dass ausschließlich Anfragen mit dem User-Agent "Googlebot" die von typischen Googlebot-IPs kamen, den versteckten Content sehen konnten. Aber damit ist jetzt Schluß: Mit dem neuen Labs-Feature "Abruf wie beim Googlebot" in den Webmaster-Tools könnt ihr genau das sehen, was Googlebot sieht und damit alle Arten von Cloaking-Problemen vermeiden. Und so funktioniert's:

Angenommen Bob, der Administrator von www.example.com, sucht nach seiner Site und findet stattdessen das hier:

Suchergebnis mit gehackten Einträgen.
Das ist seltsam, weil der Quelltext von www.example.com ganz normal aussieht:

Quellcode der normal aussieht.
Bob ist dann auch sehr überrascht, als er von Google eine Benachrichtigung erhält, dass seine Site nicht unseren Qualitätsrichtlinien entspricht. Glücklicherweise hat er seine Site in den Webmaster-Tools registriert und kann so prüfen, was Googlebot sieht:

Zuerst meldet sich Bob in den Webmaster-Tools an und wählt die Site www.example.com. Das "Abruf wie beim Googlebot"-Feature befindet sich am unteren Ende des Navigationsmenüs, im Labs-Bereich:

Webmaster-Tools Dashboard mit
Diese Seite enthält ein Textfeld für die URL, die angefordert werden soll. Das Feld kann auch leer gelassen werden, um die Homepage der Site anzufordern.

Detailansicht der
Bob kann jetzt einfach auf "Abrufen" klicken und muss dann nur ein paar Augenblicke warten. Nachdem die Seite neu geladen wurde, ist der Status der Anfrage sichtbar - wenn die Meldung "Erfolgreich" lautet, kann er diesem Link zu einer Seite folgen...

Erfolgreicher Download einer Seite.
...welche die Details mit dem Inhalt der abgerufenen Seite darstellt:

Darstellung des Quelltextes wie Googlebot ihn sieht.
Aha! Hier ist also der Spam-Content! Jetzt kann sich Bob sicher sein, dass www.example.com gehackt wurde.

Herauszufinden, ob eine Website gehackt war (oder es immer noch ist), stellt einen wichtigen Schritt dar. Das ist jedoch nur der Anfang. Wir schlagen vor, dass ihr dann euren Server-Administrator oder Hoster um Hilfe bittet. Für weitere Informationen zum Thema Hacking könnt ihr auch einen Blick auf unsere früheren Posts werfen:

Solltet ihr weitere Fragen zum "Abruf wie beim Googlebot"-Feature haben, könnt ihr diese gern auf unseren Forum für Webmaster diskutieren.

GENERIC CIALIS on my website? I think my site has been hacked! (English version)

Post von Javier Tordable, Software Engineer, und John Mueller, Webmaster Trends Analyst (Übersetzung von Sven, Search Quality Team)

Dienstag, 1. Dezember 2009

Spielt die Reihenfolge von h-Tags eine Rolle?

Heute widmet sich Matt der Frage, ob die Reihenfolge bei h-Tags eine Rolle spielt.



Transkript:
Nik aus London fragt:

"Ich verwende ein Website-Template (ich bin Anfänger). Das h1-Tag erscheint bei mir nach dem h2-Tag im Code. Kann der Spider damit umgehen?"

Ja - ich würde mir da nicht so viele Gedanken machen. Wir können mit h1- und h2-Tags ganz gut umgehen. Vermeidet die Verwendung von h1 oder h2 für den gesamten Content einer Seite. Ihr könnt euch nicht vorstellen, was Leute alles für Zeug ins Web stellen. Es gab vor einigen Jahren mal eine Studie, die besagte, dass 40 % der Webseiten Syntaxfehler aufweisen.

Wenn jetzt nur ein h1 unter einem h2 steht - also das würde mich nicht beunruhigen.
Es gibt so viele defekte oder unschöne Webseiten sowie Seiten, die gar kein HTML sind. Wir versuchen, diese Seiten dennoch zu verarbeiten, weil es sich trotzdem um gute Informationen handeln kann.

Also, wenn nur die Reihenfolge einiger h1- oder h2-Tags durcheinander ist, würde ich mir darüber keine allzu großen Sorgen machen.

Übersetzung von Sven, Search Quality Team