Ihr möchtet Inhalte aus unserem Index entfernen?

Als Besitzer einer Website bestimmt ihr, welche Inhalte eurer Site von den Suchmaschinen indexiert werden. Der einfachste Weg, Suchmaschinen darüber zu informieren, was ihr nicht indexiert haben möchtet, ist eine robots.txt-Datei oder ein robots Meta-Tag. Aber manchmal möchtet ihr vielleicht Inhalte entfernen, die bereits im Index vorhanden sind. Wie läßt sich dies am besten erreichen?

Wie immer gilt: Es hängt davon ab, welche Art von Inhalten ihr entfernen wollt. In den Webmaster-Tools könnt ihr eine genaue Beschreibung der verschiedenen Möglichkeiten finden. Beim erneuten Crawlen der jeweiligen Seite wird der Inhalt dann automatisch aus dem Index entfernt. Wenn es jedoch etwas schneller gehen soll und ihr nicht auf den nächsten Crawl warten möchtet, gibt es jetzt eine einfache Lösung.

Für Websites, bei denen ihr in den Webmaster-Tools als Besizter verifiziert seid, findet ihr jetzt eine neue Option im Diagnose-Tab „URL-Löschungen“. Um loszulegen, klickt einfach auf URL-Löschungen und dann auf Neuer Antrag auf Entfernung. Wählt dann die Option, die am besten beschreibt, was ihr entfernen möchtet.

Einzelne URLs: Webseiten, Bilder oder andere Dateien

Wählt diese Option, wenn ihr eine einzelne URL oder z.B. einzelne Bilder entfernen möchtet. Damit eine URL entfernt werden kann, muss eine der folgenden Bedingungen zutreffen:

  • Die URL muss den Status-Code 404 oder 410 zurückgeben.



Sobald ihr wisst, welche URL entfernt werden soll, fügt ihr diese in das Eingabefeld ein und wählt aus, ob die URL in der Google-Websuche oder in der Google-Bildersuche auftaucht. Dann einfach auf Hinzufügen klicken. Innerhalb eines Antrags könnt ihr bis zu 100 URLs auflisten. Sobald ihr alle URLs, die entfernt werden sollen, hinzugefügt habt, genügt ein Klick auf Antrag auf Entfernung einreichen.

Ein Verzeichnis sowie alle Unterverzeichnisse auf der Website

Wählt diese Option, wenn ihr alle Dateien und Ordner innerhalb eines Verzeichnisses entfernen wollt. Wenn ihr beispielsweise dieses Verzeichnis entfernen möchtet,


http://www.beispiel.de/meinVerzeichnis


wird diese Angabe alle URLs entfernen, die mit diesem Pfad beginnen, also z.B.:


http://www.beispiel.de/meinVerzeichnis
http://www.beispiel.de/meinVerzeichnis/seite1.html
http://www.beispiel.de/meinVerzeichnis/bilder/bild.jpg


Damit ein Verzeichnis entfernt werden kann, müsst ihr es mittels der robots.txt-Datei sperren. Für das obige Beispiel würde die Datei http://www.beispiel.de/robots.txt z.B. folgendes beinhalten:

User-agent: Googlebot
Disallow: /meinVerzeichnis


Eure gesamte Website

Wählt diese Option nur dann, wenn ihr eure gesamte Website aus dem Google-Index entfernen möchtet. Diese Option dient dazu, alle Unterverzeichnisse und Dateien zu entfernen. Ihr solltet diese Option nicht wählen, um die von euch nicht bevorzugte Domain (mit oder ohne www) aus dem Index zu entfernen. Wenn ihr also z.B. alle eure URLs mit dem „www“-Präfix indexiert haben möchtet, solltet ihr dieses Tool nicht dazu verwenden um die Löschung der Version ohne „www“ zu beantragen. Um dies zu erreichen solltet ihr über das Bevorzugte Domain-Tool einstellen, welche Version ihr im Index haben möchtet (und möglichst auch eine 301 Weiterleitung zur bevorzugten Version einrichten).

Um die Option „Ihre gesamte Website“ zu nutzen, müsst ihr die Site in der robots.txt-Datei sperren.


Cache-Kopie eines Google-Suchergebnisses

Wählt diese Option, um Seiten aus dem Google-Cache zu entfernen. Es gibt 2 Möglichkeiten, um Seiten für die Entfernung aus dem Cache vorzubereiten.

Verwenden des Meta-Tags „noarchive“ und die sofortige Entfernung beantragen

Wenn ihr verhindern möchtet, dass eine Seite gecacht wird, könnt ihr den Meta-Tag „noarchive“ auf der Seite hinzufügen und die sofortige Entfernung aus dem Cache mit diesem Tool beantragen. Wenn ihr mit diesem Tool die Entfernung aus dem Cache beantragt, erfolgt die Löschung sofort und durch den hinzugefügten Meta-Tag „noarchive“ wird verhindert, dass die Seite bei zuküftigen Crawls wieder im Cache landet (Falls ihr die jeweilige Seite irgendwann doch wieder im Cache haben wollt, könnt ihr einfach den Meta-Tag „noarchive“ wieder löschen).

Den Inhalt einer Seite verändern

Wenn ihr die gecachte Version einer Seite entfernt haben wollt, weil sie Dinge enthält, die auf der Live-Seite nicht mehr vorhanden sind und ihr diese Inhalte nicht indexiert haben möchtet, könnt ihr an dieser Stelle die Entfernung der entsprechenden Seite aus dem Cache anfordern. Wir prüfen dann, ob sich der Inhalt der Live-Seite vom Inhalt der gecachten Version unterscheidet und entfernen in diesem Fall dann die gecachte Version. Nach 6 Monaten stellen wir automatisch wieder eine gecachte Version der jeweiligen Seite zur Verfügung (bis zu diesem Zeitpunkt wurde eure Seite mit großer Wahrscheinlichkeit erneut gecrawlt, so das die Cache-Version dann den aktuellen Stand der Seite wiederspiegelt). Falls ihr feststellt, dass wir die Seite bereits früher gecrawlt haben, könnt ihr mit diesem Tool anfordern, dass wir die neue gecachte Version bereits früher zur Verfügung stellen.




Den aktuellen Stand eines Antrags auf Entfernung abfragen

Die Anträge auf Entfernung werden als „Ausstehend“ angezeigt, bis sie bearbeitet wurden. Dann wechselt der Status entweder auf „Abgelehnt“ oder „Entfernt“. Im Allgemeinen wird ein Antrag abgelehnt, wenn er nicht den beschriebenen Anforderungen für die Entfernung entspricht.


Inhalte wieder hinzufügen

Wenn ein Antrag auf Entfernung erfolgreich war, seht ihr einen entsprechenden Eintrag im „Entfernter Inhalt“ – Tab. Die jeweiligen Inhalte können jederzeit wieder unserem Index hinzugefügt werden, indem ihr die Sperre in der robots.txt oder im robots Meta-Tag entfernt und auf wieder hinzufügen klickt. Ansonsten bleibt der Inhalt zunächst für 6 Monate entfernt. Falls nach den 6 Monaten der betreffende Inhalt immer noch gesperrt ist (robots.txt oder robots Meta-Tag) oder eine 404 oder 410 Status-Meldung zeigt, wird der Inhalt beim nächsten Crawl nicht dem Index hinzugefügt. Wenn der Inhalt nach den 6 Monaten jedoch für unsere Crawler sichtbar ist, wird der Inhalt erneut indexiert.


Antrag auf Entfernung von fremden Inhalten

Aber was ist, wenn ihr Inhalte auf einer Website, die nicht eure ist, entfernt haben wollt? Es ist jetzt auch einfacher geworden, dies zu erreichen. Unser neues Tool zum Entfernen von Webseiten führt euch Schritt für Schritt zum passenden Antrag auf Entfernung.

Da Google das Web nur indexiert, aber keinen Einfluss auf die Inhalte von Webseiten hat, können wir Einträge in unserem Index nur entfernen, wenn der jeweilige Webmaster die Inhalte gesperrt, verändert oder ganz entfernt hat. Wenn ihr bestimmte Inhalte entfernt haben wollt, solltet ihr euch an den jeweiligen Besitzer der Website wenden und anschliessend könnt ihr dieses Tool nutzen, um die Entfernung der Inhalte zu beschleunigen.

Falls ihr Suchergebnisse bekommt, die bestimmte Arten von persönlichen Daten enthalten, könnt ihr sogar einen Antrag auf Entfernung stellen, wenn es euch nicht möglich ist, den Fall mit dem Eigentümer der Webseite zu klären. Bei dieser Art von Antrag auf Entfernung müsst ihr nur eure Email-Adresse angeben, so dass wir euch direkt kontaktieren können.

Wenn ihr Suchergebnisse erhalten habt, die bei eingeschaltetem SafeSearch-Filter nicht erscheinen sollten, könnt ihr uns mit diesem Tool ebenfalls darüber informieren.


Ihr könnt den aktuellen Status von ausstehenden Anträgen prüfen und - wie bei der Version in den Webmaster-Tools - wird der Status automatisch auf „Entfernt“ oder „Abgelehnt“ gesetzt, sobald der Antrag bearbeitet wurde. Falls ein Antrag abgelehnt wurde, bedeutet dies, dass der Antrag nicht den Anforderungen für die Entfernung entsprochen hat. Bei Anträgen, bei denen es um persönliche Daten geht, wird der aktuelle Status nicht an dieser Stelle angezeigt, vielmehr erhaltet ihr von uns eine Email, die euch über die weiteren Schritte informiert.

Was passiert mit dem bisherigen Tool zum Entfernen von URLs?

Falls ihr in der Vergangenheit bereits Anträge über dieses Tool gestellt habt, könnt ihr euch immer noch dort einloggen und den Status dieser Anträge prüfen. Verwendet für neue Anträge aber bitte nur noch die neue, verbesserte Version des Tools.


Original

Post von Vanessa Fox (Übersetzung von Sven, Search Quality)

Dienstag, 24. April 2007 um 18:54

Mehr Informationen zu Linktext

Letzten Monat haben wir die Anzeige von Linktext in den Webmaster-Tools geändert. Wir haben die Auflistung einzelner Keywords durch eine Liste ersetzt, die ganze Sätze bzw. Wortgruppen enthält, die am häufigsten in euren Backlinks vorkommen. Wir haben diese Informationen jetzt für euch erweitert:
  • Wir haben die Anzahl der angezeigten Linktexte auf 200 erhöht.
  • Ihr könnt jetzt die Varianten jedes Linktextes sehen (z. B. wird jetzt Groß- und Kleinschreibung sowie Zeichensetzung berücksichtigt).
  • Mehr Sites werden jetzt in der Liste aufgeführt. Falls ihr die Informationen über euren Linktext noch nicht abrufen konntet, kann es gut sein, dass sie nun erscheinen.
  • Wir zeigen wieder die Liste der meistgebrauchten einzelnen Keywords im Linktext an (ihr habt danach gefragt, wir geben sie euch!).
  • Wir haben die Anzeige der häufigsten Keywords im Linktext sowie der häufigsten Keywords auf eurer Site jeweils auf 100 erweitert.
Um diese Informationen abzurufen, klickt in der Registerkarte „Statistiken“ auf den Link „Seitenanalyse“.


Wir haben außerdem unser robots.txt-Analyse-Tool aktualisiert, um den neuen
Sitemaps-Befehl, für den wir letzte Woche unseren Support angekündigt haben, richtig zu interpretieren.

Wir hoffen, diese zusätzlichen Informationen helfen euch dabei einzuschätzen, wie andere eure Site sehen. Mehr Feedback ist jederzeit willkommen! Wir sind immer offen für eure Vorschläge.

Original

Post von Vanessa Fox (Übersetzung von Johanna, Search Quality)

Freitag, 20. April 2007 um 18:36

Was gibt's Neues bei Sitemaps.org?

Was hat das Sitemaps-Team gemacht, seitdem wir sitemaps.org angekündigt haben? Wir waren damit beschäftigt, die allgemeine Akzeptanz von Sitemaps zu steigern und den Submission-Prozess so einfach und automatisch wie möglich zu gestalten. Und dazu haben wir drei Neuigkeiten für euch.

Zunächst einmal werden wir sitemaps.org in 18 Sprachen zur Verfügung stellen. Wir wissen, dass unsere Nutzer auf der ganzen Welt leben, und wir wollen es euch so einfach wie möglich machen, euch über Sitemaps zu informieren - egal welche Sprache ihr sprecht. Hier ist z.B. ein Link zum Sitemap-Protokoll in Japanisch und den FAQs in Deutsch.

Weiterhin ist es jetzt einfacher für euch, uns mitzuteilen, wo sich eure Sitemaps befinden. Wir haben uns gefragt, ob wir es nicht sogar so simpel gestalten könnten, dass ihr es uns und jeder anderen Suchmaschine, die Sitemaps unterstützt, noch nicht einmal sagen müsst. Aber wie? Da man zu jeder Website eine robots.txt-Datei erstellen kann, haben wir entschieden, dass ihr uns über die robots.txt Datei Bescheid geben könnt, wo sich eure Sitemap befindet. Dazu müsst ihr nur eine Zeile nach dem Schema

Sitemap: http://www.MeineSeite.de/sitemap.xml

in eure robots.txt einfügen. Stellt sicher, dass ihr die volle URL einschließlich http:// angebt. Fertig! Natürlich denken wir immer noch, dass es nützlich ist, eure Sitemap über die Webmaster-Tools einzureichen, so dass ihr sichergehen könnt, dass sie ohne Schwierigkeiten gecrawlt wurde. In den Webmaster-Tools könnt ihr auch zusätzliche Statistiken erhalten.

Und zu guter Letzt noch der Hinweis, dass Ask.com jetzt auch das Sitemap-Protokoll unterstützt. Aufgrund der Möglichkeit über eure robots.txt Datei an eure Sitemap zu gelangen werden auch Ask.com und viele andere Suchmaschinen, die diese Änderung in der robots.txt Datei unterstützen, in der Lage sein, eure Sitemap-Datei zu finden.

Original

Post von Vanessa Fox (Übersetzung von Daniela, Search Quality)

Mittwoch, 18. April 2007 um 18:44

Wie man sich ein Publikum für sein Blog aufbaut

Letzte Woche sprach ich auf der BlogHer Business Konferenz über Fragen aus dem Bereich Suchmaschinenoptimierung. Ich hielt Vorträge zusammen mit Elise Bauer, die über die Macht der Community im Blogging sprach. Dabei hob sie besonders die Linkingstrukturen von Blogs hervor: Verlinkt Websites, die relevant und nützlich für eure Leser sind. Hinterlasst Kommentare auf Blogs, gebt an, dass ihr das Gespräch gerne weiterführen möchtet und setzt einen Link zu eurem Blog. Schreibt nützlichen Content, den andere Blogger verlinken möchten. Blogging verbindet Leser und Autoren und schafft echte Communities, in denen wertvoller Content ausgetauscht werden kann. Ich sprach eher allgemeiner über Search und ein paar Dinge, die es sich lohnt im Auge zu behalten, wenn ihr eure Website oder euren Blog aufbaut.

Warum ist Search wichtig für ein Unternehmen?

Über Search lassen euch potentielle Kunden genau wissen, wonach sie suchen. Die Suche kann sich als ein mächtiges Werkzeug erweisen, wenn es darum geht, euren Kunden Inhalte zu liefern, die relevant und nützlich sind und ihren Erwartungen entsprechen. Identifiziert die gebräuchlichsten Suchanfragen, die einen Bezug zu eurer Marke haben. Sucht eure Zielgruppe in der Mehrzahl nach “Häuser zum Verkauf” oder “Immobilien”? Checkt eure Referrer Logs, um zu sehen, welche Suchanfragen am meisten Traffic generieren (eine Liste mit den häufigsten Suchanfragen, die eure Website in den Ergebnissen auftauchen lassen, findet ihr in der Abfragestatistik in den Webmaster-Tools). Entspricht der Content eurer Website diesen Suchanfragen? Ein Blog bietet eine großartige Möglichkeit, solchen Content zusätzlich anzubieten. Ihr könnt einzigartige, exakt zugeschnittene Artikel schreiben, die den Suchenden genau das bieten, was sie finden möchten.

Wie indexieren Suchmaschinen Websites?

Der erste Schritt besteht darin, überhaupt entdeckt zu werden. Eine Suchmaschine muss wissen, dass bestimmte Seiten existieren. Im Allgemeinen stoßen Suchmaschinen auf Seiten, indem sie Links folgen, was auch bestens funktioniert. Wenn ihr neue Seiten habt, dann stellt sicher, dass relevante Websites auf sie linken und verlinkt diese Sites wiederum von eurer Website. Wenn ihr beispielsweise einen Blog für euer Unternehmen habt, dann könntet ihr einen Link von eurer Hauptseite zum letzten Blogpost einbauen. Ihr könnt Suchmaschinen auch über die einzelnen Seiten eures Webauftritts informieren, indem ihr eine Sitemap-Datei einreicht. Sowohl Google, Yahoo! als auch Microsoft unterstützen das Sitemap Protokoll. Falls ihr einen Blog habt, könnt ihr einfach den RSS-Feed eures Blogs schicken. Jedes Mal, wenn ihr euren Blog aktualisiert und damit der RSS-Feed aktualisiert wird, können Suchmaschinen die URL des letzten Postings erkennen. Damit ist auf jeden Fall sichergestellt, dass die Suchmaschinen sofort über das Update informiert sind.

Auch wenn eine Suchmaschine eure Seiten kennt, muss sie darüber hinaus auch auf diese zugreifen können. In den Crawling-Fehler-Reports in den Webmaster-Tools könnt ihr ersehen, ob wir Probleme haben, eure Website zu crawlen. Diese Reports geben genau an, welche Seiten wir nicht crawlen konnten, zu welchem Zeitpunkt wir versucht haben, sie zu crawlen und was der Fehler war.

Wenn Googlebot auf die Seiten zugreifen kann, crawlen wir den Content. Ihr solltet sicherstellen, dass das Thema eurer Seite sich im Text widerspiegelt. Wie sieht die Seite aus, wenn Javascript, Flash und Bilder im Browser ausgeschaltet sind? Verwendet ALT-Text und aussagekräftige Dateinamen für Bilder. Wenn beispielsweise der Name eurer Firma in einer Graphik erscheint, dann sollte der ALT-Text auch diesen Firmennamen enthalte und nicht etwa nur z.B. das Wort „Logo“. Stellt den Text in HTML dar und nicht in Flash oder Bildern. Das hilft nicht nur Suchmaschinen, euren Content zu indexieren, sondern macht eure Website auch leichter zugänglich für Besucher mit Internet-Browsern für Mobiltelefone, Screenreadern oder älteren Browsern.

Um was geht es in eurer Website?

Hat jede Seite einen eindeutigen Titel und Metadescription-Tags, die den Content beschreiben? Tauchen die Begriffe, an denen eure Besucher interessiert sind, im Content auf? Sucht nach euren Seiten mit Suchanfragen, von denen ihr annehmt, dass sie am häufigsten durchgeführt werden, und sorgt dafür, dass diese Begriffe auch tatsächlich auf eurer Website enthalten sind. Welches der folgenden Beispiele gibt Besuchern und Suchmaschinen eher darüber Auskunft, um was es auf der betreffenden Website geht?

Option 1

Falls du vom Wahnsinn bedroht bist und am Rande der Verzweiflung stehst – schreibe dich in einen unserer Onlinekurse ein! Lerne die wirkliche Bedeutung des Wortes “unfassbar” kennen. Entdecke das Geheimnis der wahren Liebe, die den Tod besiegt! Entwickle die Fähigkeit, deine Identität nur mit Hilfe einer Maske zu verbergen. Und wenn du den Kurs erfolgreich abschließt, gibt’s ne Erdnuss. Ehrlich.

Option 2

Hier sehen Sie die Übersicht unseres Kursangebotes. Wir bieten eine umfassende Ausbildung und wertvolle Geschenke bei erfolgreichem Kursabschluss.

Wenn ihr zu anderen Seiten eurer Website linkt, dann sorgt dafür, dass der Linktext (d.h. der Ankertext, der in den Links enthalten ist) eine Beschreibung eurer Seiten enthält. Zum Beispiel solltet ihr zu eurer Produktseite lieber mit dem Text “Inigo Montoyas Schwertersammlung” oder "Buttercups-Kleider” linken als mit “Produktseite” oder dem allseits beliebten “Klicken Sie hier”.

Warum sind Links wichtig?


Links sind aus einer Vielzahl von Gründen wichtig. Sie sind der Schlüssel dazu, Traffic für eure Website zu generieren. Denn durch Links können potentielle Besucher von eurer Website erfahren. Durch Links zu anderen Websites könnt ihr Besuchern wertvolle Information anbieten. Und genauso wie Links die Aufmerksamkeit von Besuchern auf eure Website lenken, werden auch Suchmaschinen darauf aufmerksam. Links informieren also sowohl potentielle Besucher als auch Suchmaschinen über eure Website. Der Linktext gibt Auskunft darüber, worum es auf euer Website geht, und die Anzahl relevanter Links zu eurer Website ist ein Indikator dafür, wie beliebt und nützlich diese Seiten sind. (Eine Linkliste und den dort am häufigsten verwendeten Linktext findet ihr in den Webmaster-Tools.)

Ein Blog ist eine wunderbare Möglichkeit, um Links aufzubauen, da ihr hier regelmäßig neuen Content kreieren könnt. Je nützlicher der Content ist, desto größer ist die Chance, dass jemand diesen Content als wertvoll für seine Leser erachtet und euren Blog verlinkt. Es gab auf der BlogHer Session mehrere Fragen zum Thema “Linken zu anderen Sites”. Führt das nicht dazu, dass Leser eure Website verlassen? Und führt dies nicht auch dazu, dass euch der PageRank “entweicht”? Ganz und gar nicht. Leser werden es schätzen, dass ihr sie über weitere Quellen informiert, die für sie von Interesse sein könnten, und sie werden euch als eine wertvolle Informationsquelle anerkennen (und auf der Suche nach mehr wieder zurückkommen!). Zudem ist PageRank keine Waage, auf der eingehende Links gegen ausgehende Links aufgewogen werden und sich gegenseitig annullieren. Links sind ein Teil des Content, genau wie jedes Wort im Text. Ihr möchtet eure Website so nützlich wie möglich für eure Leser gestalten und relevante Links stellen neben dem Schreiben von Content eine Methode dazu dar.

Der Schlüssel ist überzeugender Content

Das Hauptziel von Google ist es, die nützlichsten und relevantesten Suchergebnisse anzubieten. Das ist der entscheidende Punkt, wenn es darum geht, eure Website zu optimieren. Wie könnt ihr eure Website zum nützlichsten und relevantesten Ergebnis für die Suchanfragen machen, die für euch von Interesse sind? Das wird euch nicht nur in Bezug auf die Suchergebnisse weiterhelfen, die im Grunde ohnehin nur Mittel zum Zweck sind. Woran ihr eigentlich interessiert seid, ist, eure Besucher zufrieden zu stellen und sie dadurch zum Wiederkommen zu bewegen. Und wirklich überzeugenden Content zu schaffen, ist der Schlüssel dazu.

Original

Post von Vanessa Fox (Übersetzung von Claudia, Search Quality)

Freitag, 13. April 2007 um 17:58

Macht euch ein besseres Bild über den Linktext eurer Backlinks

Seit einiger Zeit könnt ihr in den Webmaster-Tools eine Liste der häufigsten Keywords aufrufen, die im Linktext eurer Backlinks vorkommen. Mit Hilfe dieser Information könnt ihr besser einschätzen, was andere für den Content eurer Website halten. Da der Linktext potentiellen Besuchern die Thematik eurer Website anzeigt, hat er Einfluss auf den Traffic, den ihr über diese Links bekommt. Der Linktext beeinflusst außerdem, für welche Suchanfragen eure Website in den Ergebnissen erscheint.

Wir haben die Information, die wir euch zur Verfügung stellen, erweitert. Anstatt einzelner Keywords zeigen wir jetzt den gesamten Text an, mit dem eure Website verlinkt wird. Darüber hinaus haben wir die Anzahl der angezeigten Linktexte auf 100 erhöht. Um die Liste so informativ wie möglich zu gestalten, fassen wir gleiche Linktexte unter Entfernung von Großschreibung und Zeichensetzung zusammen. Beispielsweise haben mehrere Sites eure Website mit dem folgenden Text verlinkt:

Site 1 "Buffy, blonde girl, pointy stick"
Site 2 "Buffy blonde girl pointy stick"
Site 3 "buffy: Blonde girl; Pointy stick."


Wir fassen diesen Linktext zusammen und zeigen ihn wie folgt an:

"buffy blonde girl pointy stick"

Ihr könnt die Liste finden, indem ihr euch in die Webmaster-Tools einloggt, eure Website aufruft und dann auf Statistiken > Seitenanalyse geht. Ihr könnt die Daten als Tabelle abrufen und als CSV-Datei herunterladen.



Unter Links > Externe Links könnt ihr auch die einzelnen Links sehen, die auf eure Website verweisen. Wir haben vor ein paar Wochen unter Erfahrt mehr über eure Links mehr dazu gepostet. Wir hoffen, dass diese Details einen zusätzlichen Einblick in euren Traffic geben.

Original

Post von Vanessa Fox (Übersetzung von Johanna, Search Quality)

Dienstag, 10. April 2007 um 17:45

Die Verwendung des site: Befehls

Mit dem site: Befehl könnt ihr gezielt innerhalb einer bestimmten Website suchen. Über die Suche site:googlewebmastercentral-de.blogspot.com Goethe findet ihr beispielsweise das Wort "Goethe" in diesem Blog.

Webmaster nutzen diesen Befehl manchmal, um eine Liste indexierter Seiten einer Website anzuzeigen, z. B.
site:www.google.com.

Die Verwendung geschieht ohne Leerzeichen zwischen dem Doppelpunkt und der URL. Eine Suche nach www.site.de liefert URLs beginnend mit www. Für eine Suche in site.de werden alle Subdomains der URL angezeigt. (Wird beispielsweise nach
site:google.de gesucht, so liefert das Ergebnis URLs wie www.google.de, video.google.de und news.google.de etc.). Für die site: Suche könnt ihr Google oder euer Webmaster-Tools Konto unter Statistiken > Index-Statistik verwenden. Je nachdem, wie ihr den Link zu eurem Konto hinzugefügt habt, wird er entweder mit oder ohne www dargestellt.

Im Allgemeinen vermeiden wir es, in den Ergebnissen der Google-Suche Seiten anzuzeigen, deren Inhalt dupliziert erscheint (z. B. Seiten mit dem gleichen Titel und der gleichen Beschreibung). Unser Ziel ist es, vielfältige Ergebnisse zu liefern. Im Unterschied hierzu möchten wir dem Nutzer bei der Verwendung des site: Befehls eine Liste aller Seiten einer Webseite anzeigen. In Einzelfällen führt eine site: Suche jedoch trotz inhaltlich verschieder Seiten nicht zu einer vollständigen Liste. Hierbei handelt es sich jedoch ausschließlich um ein Problem bei der Darstellung, an dem wir gegenwärtig arbeiten. Das Ranking der Suchergebnisse wird dadurch nicht beeinflusst. Eine vollständige Liste aller Seiten erhaltet ihr, indem ihr auf den Link "die Suche unter Einbeziehung der übersprungenen Ergebnisse wiederholen" klickt.

Das beschriebene Verhalten betrifft lediglich die site: Suche ohne weiteren Suchbegriff. Die Seiten, die zunächst nicht angezeigt wurden, werden weiterhin für die normale Google-Suche aufgeführt. Zudem ist diese Darstellung unabhängig von den zusätzlichen Suchergebnissen. Alle Seiten in den zusätzlichen Suchergebnissen werden mit dem Vermerk "Zusätzliches Ergebnis" neben der URL gekennzeichnet.

Da die Veränderung der Anzeige aller Suchergebnisse für eine site: Suche keinen Einfluss auf das Ranking der Ergebnisse hat, werden wir diese Verbesserung in einer aktualisierten Version des site: Befehls vornehmen. Die Veröffentlichung wird im Zuge regelmäßiger Aktualisierungen in den nächsten Wochen stattfinden.


Original

Post von Vanessa Fox (Übersetzung von Alexander, Search Quality)

Donnerstag, 5. April 2007 um 16:55

Tschüss Beta - Hallo Kommentare!

Unsere Webmaster-Tools sind jetzt nicht mehr in Beta und der englischsprachige Blog läßt, genau wie der deutsche, Kommentare zu.

Bye, bye Beta!

Seit dem Launch des Sitemaps Protokolls im Juni 2005 hat sich viel getan. Wir haben ein breites Angebot an Webmaster-Tools aufgebaut, unseren Namen geändert und auf euren Input gehört.
2006 haben wir
große Fortschritte gemacht, und das war erst der Anfang. Wir sind nicht mehr in Beta. Das zeigt, wie viel uns daran liegt, mit Webmastern weltweit zusammen zu arbeiten und Tools sowie relevante Information über eure Websites in unserem Index zur Verfügung zu stellen. Zusammen können wir die relevantesten und nützlichsten Suchergebnisse anbieten. Und mehr als eine Million von euch, aus mindestens 18 verschiedenen Ländern, haben sich dieser Partnerschaft angeschlossen.

Zusätzlich zu den vielen neuen Features haben wir im Hintergrund Verbesserungen durchgeführt, um sicherzustellen, dass die Webmaster-Tools zuverlässig, skalierbar und sicher sind. Das Sitemaps Protokoll wurde weiterentwickelt zu Version 0.9 und wird auch von Microsoft und Yahoo unterstützt, so dass wir jetzt gemeinsam Standards anbieten, die euch die Kommunikation mit Suchmaschinen erleichtern. Wir sind begeistert, wie viel wir bis jetzt über eure Websites lernen konnten und werden weiterhin die besten Lösungen anbieten, damit ihr uns mit Informationen über einzelne Seiten eurer Websites versorgen könnt.

Hallo Kommentare!

Unser Ziel ist es, die Kommunikation mit Webmastern zu verbessern. Unser Blog, das Forum und die Webmaster-Tools helfen uns, dieses Ziel zu erreichen. Zusätzlich könnt ihr ab jetzt euer Feedback und eure Kommentare auch direkt hier posten. So habt ihr die Möglichkeit, mit uns über die geposteten Themen zu sprechen. Wir möchten alles tun, um einen offenen Dialog zwischen Google und der Webmaster-Community zu fördern und eure Kommentare sind eine weitere Möglichkeit dafür.

Wie immer, wenn ihr Fragen habt oder über andere Themen als einen speziellen Blog Post reden wollt, geht zum Diskussionsforum. Unser Team behält die Diskussionsbeiträge im Auge, geht gegebenenfalls auf Unklarheiten ein und sammelt Feedback. Falls ihr es noch nicht getan habt, dann schaut euch den Link "Links zu diesem Post" unter jedem Post an, dort findet ihr jeweils Diskussionen im Web zu diesem Blog.

Danke an alle für die gute Zusammenarbeit!

Original

Post von Vanessa Fox (Übersetzung von Uli)

Dienstag, 3. April 2007 um 10:57

Glückwunsch! Du hast Botcoins entdeckt, eine neue Währung für Webmasters! Du kannst Botcoins für tägliche Suchanfragen verwenden, ohne irgendetwas einzutippen! (100 Botcoins = 1 Freisuche). Um deine Botcoins einzulösen, finde einfach einen Mitarbeiter des Google Search Teams in Person, überreiche das Botcoin-Zertifikat und fordere deine Suchanfrage ein. Der Google-Mitarbeiter wird die Suche dann für dich ausführen (keine gesicherte SSL-Verbindung verfügbar, während dieses Dialogs). -- Anmerkung: Der Google-Mitarbeiter könnte dich ignorieren oder lieber auch eine andere Suche ausführen, sofern er oder sie schlechte Laune hat. Und momentan werden keine Mining Möglichkeiten für Botcoins angeboten.