Suchmaschinenfunktion


Zunächst einmal sollte man die Funktion und das Vorgehen von aktuellen Suchmaschinen verstehen, um dann die entsprechenden Voraussetzungen zu schaffen um möglichst gute Positionierungen in den Ergebnislisten zu erreichen. Einfache Web-Kataloge, wie es sie früher gab, sind heute nicht mehr im Bereich der großen Suchmaschinen zu finden. Es genügt also nicht "sich irgendwo einzugragen" um dann gefunden zu werden. Seit Google den Markt erobert hat, haben sich damit auch die intelligenten Suchmaschinen durchgesetzt. Diese sammeln ihre Informationen mit Hilfe von Programmen - sogenannte Robots oder Spider - die das Netz eigenständig durchsuchen und so die Daten zusammentragen, die dann die Basis für die Beantwortung von Suchanfragen liefern. Diese Robots oder Spider durchsuchen die Texte der einzelnen Seiten um sich dann entlang eines Links, den sie auf der Seite finden, zur nächsten Seite vorzuarbeiten.

Daraus ergeben sich schon einmal zwei grundlegende Voraussetzung für die Optimierung von Webseiten:

1. Die Seite muß von anderen Seiten aus verlinkt sein, um überhaupt gefunden zu werden.

2. Die Seite muß echte Textinhalte haben, die von den Robots oder Spidern interpretiert werden können. Texte in Grafiken sind daher eher zu vermeiden. Und auch die ganzen hübsch gemachten Flash-Seiten sind für eine gute Positionierung bei den Suchergebnissen eher hinderlich.

Die gesammelten Informationen werden nun bei den Suchmaschinenbetreibern nicht nur quantitativ zusammengetragen, sondern auch qualitativ bewertet. Das bedeutet, daß die Textinhalte aufgrund des Volumens und der Wortwahl beurteilt werden und das Ergebnis dann zu einem Teil in das spätere Ranking einfließt. Gibt es Grafiken, wird geprüft, ob diese mit Alt-Tags versehen sind. Das sind Kurzbeschreibungen, die es ermöglichen auch auf Textebene dem Bild einen Inhalt zuzuordnen. Außerdem wird überprüft, ob der (wort-wörtlich) gleiche Inhalt auch auf anderen Internetseiten vorhanden ist (sogenannter Duplicate-Content), was dann wiederum entsprechend negativ bewertet wird. In dieser Art gibt es noch unzählige weitere Bewertungskriterien.

Die Links werden ebenfalls in ihrer Quantität und Qualität beurteilt. Wird eine Seite oft von anderen Seiten aus verlinkt, dann nimmt die Suchmaschine an, daß der Inhalt der Seite, auf die die Links verweisen, hochwertig ist (sonst würde ja keiner darauf verlinken). Dementsprechend wird diese Seite dann auch gut bewertet werden. Verweist so eine hoch bewertete Seite dann auf eine andere, dann ist dieser Link als wertvoller zu bewerten, als ein anderer Link von einer Seite, die kaum verlinkt ist. Dadurch ergibt sich dann ein entsprechend höherer oder geringerer Bewertungs-Nutzen für die Zielseite eines jeweiligen Links. Das ist in ganz groben Zügen das System, daß hinter dem oft zitierten PageRank steht. Der PageRank ist also ein Maßstab für die Bekanntheit und vor allem für den inhaltlichen Wert einer Internetseite.

Natürlich wäre das System, wie es hier in seinen Grundzügen vereinfacht beschrieben ist, leicht zu beeinflussen. Daher wird es kontinuierlich verbessert und verfeinert um eine Manipulation der Webseitenbetreiber (beispielsweise durch einfache Hin- und Zurückverlinkung zu anderen Seiten) zu verhindern.

 
Weitere Informationen zum Thema finden Sie auch unter SEO-Tagebuch.net, dem Blog über Suchmaschinenoptimierung und Webmarketing.