SEO-Lexikon

A B C D E F G H I J K L M N O P Q R S T U V W

Bots / Crawler / Googlebot / Robot

Allgemein steht das Wort bots, das sich von robot (slawisch robata = Frondienst, Zwangsarbeit) ableitet, für meist kleine autonome Computerprogramme. Sie können für höchst unterschiedliche Aufgaben Verwendung finden. Zum Beispiel stellen sie bei Computerspielen den Part des nichtmenschlichen Gegenspielers dar oder ermöglichen als Aimbot das schnelle Zielen und Abfeuern. Kriminell ist der Einsatz von Bots zum Ausspionieren von Computern oder ganzen Netzwerken. Dabei werden die anvisierten Systeme ähnlich wie bei Viren oder Trojanern infiziert. Der Sender des Bots kann diesen dann zum Beispiel dazu aktivieren, Informationen über den infizierten Rechner und das Surfverhalten des Users zu sammeln.
Suchmaschinen verwenden Crawler, die eigenständig das Web nach neuen Einträgen bzgl. eines bestimmten Keywords durchsuchen. Damit können die Datenbanken aktualisiert werden. Die Arbeitsweise der Crawler lässt einen Rückschluss auf die Qualität der Suchmaschine zu, die diesen Crawler verwendet. Dabei geht es etwa um die Einhaltung der http-Protokolle und das fehlerfreie Einlesen der URLs.
Google verwendet einen eigenen Crawler, den sogenannten Googlebot. Er untersucht mehrfach pro Minute jede Website nach für das Google-Ranking relevanten Daten wie zum Beispiel die Hyper-Links und Back-Links einer Seite. Der Googlebot nutzt dabei die robots.txt - Datei sowie die Metatags, also jene für Besucher verborgene HTML-Tags im Titelbereich einer Seite. Allein die Tatsache, dass der Googlebot Websites durchsucht, sichert noch keine Eintragung im Google-Index, da der bot auch negative Aktivitäten, etwa wenn eine Dublikat-Seite entdeckt wird, erkennt und entsprechend bewertet. Der Befehl „META URL=“Googlebot“ CONTENT=“nofollow“ kann den Googlebot davon abhalten, Seiten zu durchlaufen, die eventuell das Ranking verschlechtern würden.
Während bots für robots steht, findet der englische Ausdruck Robot sinngemäß für die Bezeichnung von Suchrobotern Verwendung. Der schon erwähnte Goolgebot ist so ein autonomes Suchprogramm, das automatisch die Inhalte einer Website liest, die bei der jeweiligen Suchmaschine angemeldet ist. Dabei untersucht der Robot auch die Links einer Seite und entdeckt möglicherweise Websites, die bisher noch nicht der Suchmaschine bekannt waren. Mit Robot werden ferner auch jene Automaten bezeichnet, die zum Beispiel bei einem Chat den channel operator ersetzen können und neue Chatmitglieder begrüßt sowie Erstinformationen zur Verfügung stellt.


<< zurück


Professionelle Services für Suchmaschinenoptimierung: Webconomy GmbH