Donnerstag, 10. April 2014

Tag 5: Robots Exclusion, Sitemaps-Protokoll, Webmaster-Tools

An Tag 5 schuf Gott nochmal was? Naja, im Online-Marketing-Kurs behandeln wir weiterhin die Frage nach Crawlern. Nachdem wir ihm die .htaccess-Datei angelegt haben steht er also nun vor dem Restaurant. Die robots.txt, der Türsteher, soll ihm nun sagen, ober er reinkommt oder nicht. Wir sind gespannt....


Immer .htacces-Datei und robots.txt-Datei auf Server anlegen!!

Klausur: die wichtigsten technischen Ergänzungen: .htaccess - robots.txt - .xml

.htaccess: Fehlermeldungen weiterleiten (401 etc.), www. Weiterleitung
Robots Exclusion: Im html-Code kann angegeben werden, welche seiten der Crawler durchsuchen darf und so in die Suchmaschinen gelangen. (robots.txt)
Disallow: Kein Asschluss; die komplette Webpräsenz darf durchsucht werden
Disallow: / Die koplette Webpräsenz darf nicht durchsucht werden
Disallow: /Temp/ Disallow: /default.html Das Verzeichnis "Temp und die Datei "default.html" dürfen nicht durchsucht werden










revisit after: 0 (so schnell, wie möglich wiederkommen - wenn schnell Neuigkeiten auf der Seite sind) ansonsten stellt der Crawler sich automatisch ein

Er darf also rein. Jetzt bekommt er die Menükarte....

xml: Sitemaps-Protokoll (alles, was auf der Seite vorhanden ist)
Tool zum kreieren von Sitemaps. (Bei Joomla, Wordpress etc. bereits im Programm integriert; als Plugin etc.)

Nun zu Webmaster-Tools und ein passendes e-book dazu.

Keine Kommentare:

Kommentar veröffentlichen