Crawler
Definition
Ein Crawler (engl. Kriecher), auch Robot, Bot, Searchbot oder Spider genannt, ist ein Computerprogramm, das im Auftrag einer Suchmaschine automatisch und wiederholt Inhalte von Websites analysiert, um Informationen zu sammeln, welche im Index gespeichert werden. Sie gelangen mithilfe von Webkatalogen und Links zu den Webseiten.
In der Logdatei des Internetproviders kann man sehen, wie häufig Crawler auf einer Website waren.
Bedeutung für SEO
Eine ausgewertete Website wird in den Suchmaschinen-Index aufgenommen, regelmäßig von Crawlern besucht und ihr Inhalt wird erneut analysiert.