Suchmaschinen-Optimierung & Crawling

Einleitung

Suchmaschinen - so auch unsere interne Google-basierte Suchfunktion - generieren ihre Suchdaten mithilfe von riesigen Indexes oder Datenstrukturen, die Informationen über alle Seiten im WWW - bzw. über alle Seiten einer bestimmten Domain - enthalten. Die Indexierung durch sogenannte «Suchmaschinen-Robots» kann beeinflusst werden. So können gewisse Seiten aus der Indexierung ausgeschlossen - und andere auf eine verstärkte Indexierung hin optimiert werden.

Suchmaschinen-Blockierung

Es gibt die Möglichkeit, einzelne Verzeichnisse oder Seiten von der Suchmaschinen-Indexierung auszuschliessen. Hierzu kann eine Text-Datei mit der Bezeichnung «robots.txt»* auf oberster Ebene im Verzeichnis «public_html» (auf dem FTP-Server) abgelegt werden. Im file «robots.txt» können die gewünschten Ordner oder Seiten nach dem folgenden Muster von der Indexierung ausgeschlossen werden:

User-agent: *
Disallow: /team/staffmember/liechti.html
Disallow: /team/staffmember/meier.html
Disallow: /team/intern/
... etc.

Suchmaschinen-Optimierung (Search engine optimization SEO)

Seiten können redaktionell so gestaltet werden, dass sie besser indexiert und bei einer Suche an prominenter Platzierung angezeigt werden. Dies wird auch Suchmaschinen-Optimierung oder englisch «SEO» (search engine optimization) genannt.

Informationen zur Suchmaschinenoptimierung (Wikipedia)

Weitere Information finden Sie auch im Internet (googeln Sie z.B. nach suchmaschine optimierung empfehlung google).