Tuesday, May 5, 2009

Erfolgreiche Webseiten erstellen

Stellt sicher, dass User und Suchmaschinen auf eure Seite zugreifen können!
Der Link Crawling-Fehler in den Webmaster-Tools führt zu einer Auflistung der Seiten, die der Googlebot aufgrund von Serverfehlern nicht durchsuchen konnte. Sollte der Googlebot Seiten nicht crawlen können, so werden diese nicht indexiert und können möglicherweise auch dem User beim Zugriff Probleme bereiten.
Sorgt dafür, dass die robots.txt-Datei nicht versehentlich den Crawler von Seiten abweist,die indexiert werden sollen. Ihr könnt URLs, die der Suchroboter nicht crawlen konnte, mithilfe der Webmaster-Tools ermitteln. Das robots.txt-Analyse-Tool ermöglicht es euch zu testen, ob die robot.txt-Datei dem Crawler die Verzeichnisse zugänglich macht, die ihr indexieren lassen wollt.
Überprüft den Googlebot activity report, um festzustellen, wie lange der Download eurer Website dauert. Auf diese Weise fallen euch gleich Geschwindigkeitsprobleme innerhalb des Netzwerks auf.
Ist auf Teilen eurer Website, die indexiert werden sollen, eine Anmeldung notwendig, so achtet darauf, dass auf den Seiten ohne Anmeldung durchsuchbarer Content zur Verfügung steht. So könnt ihr zum Beispiel einige Auszüge eines Artikels außerhalb des Registrierungsbereichs plazieren und diese mit einem Link versehen, der zum vollständigen Artikel innerhalb des Anmeldebereichs führt.
Wie durchsuchbar ist eure Seite? Wie wird eure Seite in Browsern für Handys oder in Screenreadern dargestellt? Testet eure Website in verschiedenen Umgebungen und vergewissert euch, dass der Content auch für Nutzer dieser Techniken zugänglich ist. Quelle Google Webmaster und 1 Million Euro Frage.

No comments:

Post a Comment