Description-Tag
Es dürfte neben dem Title-Tag das wichtigste Meta-Tag sein. Das Description-Tag hat zwar wohl keinen direkten Einfluss auf das Ranking einer Seite (obwohl das durchaus diskutiert wird), aber es liefert eine Kurzinformation über den Webseiteninhalt. Diese Kurzinformation wird von Google & Co übernommen und auf den Suchergebnisseiten angezeigt. Der Nutzer einer Suchmaschine sieht diese Beschreibung und kann nun entscheiden, ob ihn der Eintrag, der sich hinter der Beschreibung verbirgt, interessiert oder nicht. Und genau hierin liegt das Potential der Description:
Die Description ist der Appetizer mit dem man einen Suchmaschinennutzer auf die eigene Seite zieht. Und entsprechenden Aufwand sollte man bei der Gestaltung dieses kurzen Textinhaltes aufwenden.
Author-Tag
Grundsätzlich nicht unwichtig, aber bei einer eher kleinen Webseite, wie sie mit RapidWeaver erstellt wird, völlig ohne Relevanz. Und zur Einordnung bei den Datenbanken, also für's Ranking spielt dieser Tag keine Rolle. Und außerdem: Es kann Sinn machen, das Author-Tag zu nutzen - aber nicht, indem man einfach seinen Namen hier hineinschreibt, sondern indem man das author-tag mit einem Google+ Account verknüpft.
Generator-Tag
Sinn macht dieses Meta-Tag keinen - außer dass irgendwelche Nerds im Quelltext nachschauen können, mit welchem Programm die Webseite erstellt wurde. In RapidWeaver ist das Generator-Tag grundsätzlich aktiviert (man sieht das im Seiteninspektor, hier ist im Bereich “Kopfzeile” ein Häkchen bei “Credit RapidWeaver” gesetzt. Man kann das getrost deaktivieren.
Title-Tag
Neben der Description ist das Title-Tag aus Sicht der Suchmaschinen das wichtigste Element im Head. Im Title sollten Keywords nutzen werden, aber da das Title-Tag im Browser sichtbar ist, muss das auch ein sinnvoll gestalteter Text sein und nicht etwa eine Auflistung von Einzelbegriffen.
Robots-Tag
Das Robots-Tag macht durchaus Sinn, denn es weist den Crawler der Suchmaschine an, ob er diese Seite in die Datenbank der Suchmaschine aufnehmen soll oder nicht. Der Crawler frisst aber ohnehin alles, was ihm nicht ausdrücklich verboten wurde und deshalb ist völlig sinnbefreit, ihm mit “index, follow” zu sagen, er möchte diese Seite crawlen. Er macht das sowieso. Viel wichtiger ist es, bestimmte Seiten vom Crawlen auszunehmen - dies ist umso wichtiger, je umfangreicher ein Webauftritt wird.
Man kann auf dieses Tag verzichten, wenn man eine eigene Textdatei mit der Bezeichnung robots.txt in der Root-Ebene der Webseite ablegt.
Es macht aus mehreren Gründen Sinn, bestimmte Verzeichnisse vor dem Zugriff der Crawler zu schützen:
- Suchmaschinen brauchen sich nicht alles ihrem Datenbestand hinzuzufügen. Es gibt genug Dokumente, die ich nicht direkt in den Suchergebnisseiten finden möchte - also sperre ich diese Verzeichnisse für den Crawler-Zugriff. Beispielsweise müssen Suchmaschinen nicht meine Bilderverzeichnisse direkt auslesen, sondern nur die Seite, in der die Bilddateien eingefügt werden
- der andere Grund: Crawler sind ungeduldig und verbringen daher auf jeder Webseite nur eine begrenzte Zeit. Was sie in dieser Zeit nicht erfassen können, bleibt außen vor und wird (erst einmal) nicht dem Datenbestand der Suchmaschinen hinzugefügt
- Als Seitenbetreiber muss ich also ein Interesse haben, den Crawler explizit in eine bestimmte Richtung zu lenken, damit er in der Kürze der Zeit auch das findet, was er finden so
Die Chance, dass bestimmte Inhalte von den Crawlern gefunden werden, steigt mit der Begrenzung des Crawler-Zugriffs auf bestimmte Verzeichnisse. Oder umgekehrt: Es gibt Verzeichnispfade, die du von vornherein vor dem Crawler-Zugriff ausschließen solltest. In RapidWeaver-Projekten sind dies beispielsweise:
/resources/
Sinnvoll mag auch noch das Verzeichnis
/files/
sein, denn du möchtest ja nicht, dass in eine Seite eingebundene Inhalte über einen Direktlink erreichbar sind. Diese Pfade kannst du in RapidWeaver-Projekten grundsätzlich sperren, denn was in diesen Verzeichnissen liegt, geht Google & Co nichts an. Gerade komplexe und umfangreiche Seiten werden einen suchmaschinentechnischen Gewinn von einer sorgfältig durchdachten Robots-Anweisung haben.
Nicht sperren solltest du das Verzeichnis
/rw/_commons/
denn hier liegen Stylesheets und zumindest die Crawler von Google sind an diesen Dokumenten interessiert und integrieren sie ins Ranking denen Seite.
(Verzeichnispfade explizit für den Crawler freizugeben, kann man sich übrigens sparen - die Crawler fressen ohnehin alles, was ihnen nicht ausdrücklich verboten wird …).
Was gerne gemacht wird, aber nicht wirklich nützt:
Rating-Tag
Mit dem Rating-Tag kann man, rein theoretisch, die Webseite für eine bestimmte Altersgruppe freigeben bzw. sperren. Erwartet wird, das Suchmaschinen die Seiten einer bestimmten Altersgruppe vorenthalten. Das funktioniert jedoch nicht wirklich - denn wie soll die Suchmaschine auch wissen, ob da nun ein präpubertärer 10-Jähriger oder ein überalterter 60-Jähriger am Rechner sitzt...?
Revisit-Tags
Mit “revisit” sollen Google & Co angewiesen werden, die Webseite nach ein paar Tagen erneut zu crawlen. Hier wurde versucht festzulegen, dass der Crawler nach 7 Tagen erneut vorbeischaut. Die Absicht ist lieb gemeint und machte vor ein paar Jahren, als die Suchmaschinen noch sehr begrenzte Ressourcen hatten, auch Sinn. Aber Suchmaschinen lassen sich nicht vorschreiben, wann sie eine Seite erneut crawlen - sie machen es sowieso (oder eben auch nicht).
Expires-Tags
Mit “expires” wird ein Zeitraum bestimmt, für den eine Webseite aus einem lokalen Cache und nicht aus dem Internet geladen wird. Inhalte einer Webseite aus dem Internet zu laden, produziert jedes Mal unnötigen Datenverkehr und verlangsamt den Seitenaufbau, daher wird sie im sogenannten "Cache" auf dem Rechner zwischengespeichert und bei Bedarf werden die Inhalte aus diesem Cache geladen. Wie lange die Inhalte im Cache verbleiben, wird mit einem Wert festgelegt. Wenn ist der Wert auf "0" gesetzt wird, nichts wird im Cache gespeichert - immer wird alles aus Internet nachgeladen. Das ist bei einer Seite, die sich nicht wirklich ändert, völlig sinnlos.
Und außerdem steuert man das besser durch Vorgaben in der .htaccess.
Cache-Control-Tag
Mit “cache-control” soll Einfluss darauf genommen werden, ob eine Seite aus einem Zwischenspeicher des Browsers oder direkt vom Server des Webseitenbetreibers geladen werden soll. Das kann Sinn machen bei einer Seite, die sich häufig, vielleicht gar täglich verändert - aber ganz sicher nicht bei einer Seite, die weitgehend statisch im Internet verbleibt. Und Browser haben ohnehin ihre eigenen Cache-Einstellungen, wozu also doppelt-gemoppelt...? Cache-Control gehört ebenfalls in die .htaccess vergleichbares gilt übrigens für das “Pragma-Tag”, das die Zwischenspeicherung im Suchmaschinen-Cache steuern soll.
Copyright-Tag
Mit diesem Tag sollen die Urheberrechte am Webseiteninhalt definiert werden. Das aber ist geradezu lachhaft, denn wer Webseiteninhalte klauen will, tut das sowieso. Und in Deutschland gilt auch nicht das Copyright, sondern das Urheberrecht - und das gilt mit und ohne Hinweis auf das Copyright.
Last-Updated-Tag
Schön, wenn an dieser Stelle verzeichnet wird, wann die Seite zuletzt aktualisiert wurde. So kann sich der Seitenbesucher immer einen Eindruck davon verschaffen, wie gut die Seite gepflegt wird. Das Problem\: Kein Seitenbesucher (außer ein paar kurzsichtigen Nerds) wird an dieser Stelle nachschauen. Wenn also schon ein Hinweis auf die letzte Aktualisierung sein muss, dann sollte das im sichtbaren Seitenbereich erfolgen und nicht dort, wo keiner hinschaut
...
Die Reihe zur Suchmaschinenoptimierung wird fortgesetzt. Im Folgebeitrag werden wir uns mit dem Thema "Automatisierte Suchmaschinenoptimierung" befassen.:
Bisherige Beiträge waren:
Ein paar Worte zur Suchmaschinenoptimierung.
Suchmaschinenoptimierung: Überschriftenhierarchisierung
Suchmaschinenoptimierung: Keywords
...
Bildquelle: Pexels