SEO Welten
Buchempfehlungen
|
robots.txt - Anweisungen für Suchmaschinen erstellenrobots.txt - Anweisungen, Datensätze und SyntaxÜbersicht / Seite:
AllgemeinesWie bereits in der Einführung bemerkt, eine robots.txt enthält Anweisungen
für Crawler. Doch nicht alle Crawler von allen Suchmaschinen halten sich an diesen Anweisungen. Weiterhin
schützen diese Anweisungen nicht in jedem Fall vor dem Besuch der Seiten durch den Robots, da diese Anweisungen
mehr als Hinweise für Crawler dienen und weniger als Befehle. Häufige Fehleinschätzungen rühren daher, dass
die Mehrheit der Webmaster sich praktisch kaum etwas unter einem Crawler und dessen Funktionsweise vorstellen
kann. Aufbau von AnweisungenDer Aufbau einer robots.txt ist verhältnismäßig einfach gestickt, ebenfalls
die Syntax der Anweisungen. An Schlüsselwörter kommen eigentlich nur User-agent und Disallow in Betracht,
jeweils gefolgt von einem Doppelpunkt. Zuweilen wird noch Allow als anweisendes Schlüsselwort verwendet,
welches nach de.selfhtml.org
jedoch niemals definiert wurde. Die Bots von Google, Bing und Yahoo halten sich nach unserem gegenwärtigen
Kenntnisstand an Anweisungen, die mit dem Schlüsselwort Allow eingeleitet werden. User-agent: * Im zweiten Beispiel dient ebenfalls ein Sternchen als Platzhalter für alle beliebigen Crawler, nur dass in diesem Fall allen Bots der Zugang für alle /Verzeichnisse und alle /Dateien untersagt wird. User-agent: * Im dritten Beispiel wird dem examplebot das Crawlen von allen Dateien untersagt, allen anderen Bots hingegen gestattet. User-agent: examplebot Im vierten Beispiel wird allen Bots das Crawlen des Verzeichnisses /privat/ und der Datei /privat.html untersagt. User-agent: * Im fünften und letzten Beispiel wird allen Bots das Crawlen von Dateien untersagt, welche die Zeichenfolge fische im Pfad enthalten. Ausgeschlossen würden Dateien mit Pfaden wie /katzenfische.html oder /nachwuchs.php?fische=katzen. Für die Richtigkeit der Syntax übernehmen wir zwar weder eine Garantie noch eine Gewährleistung, allerdings können wir versichern, dass alle alle bisherigen Test ohne Probleme verliefen. Dennoch würden wir Ihnen vor der Verwendung einer robots.txt mit Anweisungen, die Platzhalter enthalten, dazu raten, die Anweisungen noch einmal zu überprüfen, zum Beispiel mit Hilfe der Google Webmaster Tools. Mehr zur Syntax und zum Gebrauch von Platzhaltern auch unter: Robots.txt Specifications User-agent: * robots.txt Generator «
zurück |
Navigation
Finden und Zukunftsaussichten - Optimierung -
Webcoding
Übersicht Web Services Tutorials &
und vieles mehr... |