SlideShare une entreprise Scribd logo
1  sur  7
Télécharger pour lire hors ligne
Suchmaschinenoptimierung für Google
- Eine Kurzeinführung -

Begriffsdefinition Suchmaschinenmarketing, Suchmaschinenwerbung,
Suchmaschinenoptimierung
Unter Suchmaschinenmarketing (SEM, Search Engine Marketing) versteht man alle
Marketingaktivitäten, die direkt mit Suchmaschinen in Verbindung stehen. Grundsätzlich gilt es,
zwischen Suchmaschinenwerbung (SEA, Search Engine Advertising) und
Suchmaschinenoptimierung (SEO, Search Engine Optimizing) zu unterscheiden. Dazwischen
liegt eine größere Grauzone, denn die klassische Unterscheidung zwischen SEA und SEO
verschwimmt.
Nach klassischer Definition beschäftigt sich SEO mit den natürlichen Suchergebnissen, SEA mit
den bezahlten. Doch dann gibt es beispielsweise ein zu zahlendes Produkt des Yahoo Search
Marketing, das gegen Bares eine Echtzeit-Indizierung (aber kein besseres Ranking) verspricht.
Doch kann natürlich nur gefunden werden, was im Index ist.
Auf der anderen Seite sind da Google Product Search oder Google Branchencenter – fraglich ob
und wie lange diese Dienste kostenfrei bleiben. Nach klassischer Definition würden diese beiden
wichtigen Dienste die Seite wechseln, von SEO zu SEA. Mit Adsense verschwimmen zudem die
Grenzen zwischen zu anderen Teilgebieten des Online-Marketings.

Suchmaschinenoptimierung – OnSite und OffSite
Bei der Suchmaschinenoptimierung lassen sich zwei Hebel zu Verbesserung der Sichtbarkeit in den
Suchergebnissen finden: Alles was direkt am Webprojekt optimiert werden kann ( OnSite) und alles
was von aussen auf die Seite einwirkt (OffSite). Der gewichtigere Teil liegt im Bereich der OffsiteOptimierung – einer der wenigen Punkte der Suchmaschinenoptimierung, der recht unumstritten ist.
Bei OffSite ist zu unterscheiden zwischen OnPage – alles was an einer einzelnen Unterseite zu
optimieren ist – und OnStructure – was die Gesamtheit des Webprojektes angeht. Optimiert wird
immer eine Unterseite zu einen bestimmten Suchbegriff , wobei „Begriff“ mehrere Wörter umfassen
kann.
Auch die Startseite ist eine Unterseite, jedoch sollte man beachten, dass die Startseite die
allgemeinste Unterseite des ganzen Projektes ist. Da in der Regel lediglich fünf bis sieben Sekunden
Zeit bleiben, um den Besucher genügend Reize zu senden, damit er nicht den „Zurück-Button“ des
Browsers betätigt, verbietet sch im Grunde die Suchmaschinenoptimierung der Startseite. Effektiver
sind Unterseiten, die genau auf das Thema des Suchenden zugeschnitten sind.
Die anschließenden Optimierungsmaßnahmen beziehen sich auf Google, gleichwohl diese bei
Yahoo oder Bing ebenso gelten.
OnPage-Optimierung

Der Quellcode

Standard-Technologien wie XHTML und CSS erlauben es den Code so zu strukturieren, dass der
eigentliche Inhalt möglichst weit vorne im Quelltext positioniert ist, nachrangige, sich
beispielsweise wiederholende Inhalte wie die Navigation, weiter unten im Quelltext. Das Wichtigste
zuerst – einer der zentralen Merksätze in der Suchmaschinenoptimierung.
Meta-Tags haben, entgegen einigen immer noch kursierenden Gerüchten, keine Auswirkung auf
die Sichtbarkeit von Websites in den Suchergebnissen. Besonders hingewiesen soll an dieser Stelle,
dass die sogenannten Meta-Keys keinerlei Auswirkungen auf die Websuche haben.
Augenmerk sollte bei den Meta Tags auf die Description gelegt werden, denn dies wird von den
Suchmaschinen ausgelesen und im Regelfall bei der Darstellung in den Suchergebnissen verwendet.
Eine gut formulierte Description sollte zum Klicken anregen. Empfehlenswert ist weiterhin die
Absicherung der Description durch den NoOdp-Tag, um Querschlägern aus dem wichtigen DMOZVerzeichnis vorzubeugen.
Während die Description lediglich der Klick-Optimierung dient, ist der Title-Tag zwar sichtbarer
Teil des Suchergebnisses, aber auch ein gewichtiges Mosaiksteinchen der OnSite-Optimierung. Im
Title-Tag sollte die Wortkombination zu finden sein, auf die die Unterseite optimiert wurde und
gleichzeitig muss dieser Title-Tag zum Klicken anregen.
Neben dem Title-Tag sind die Überschriften, im Quelltext durch H-Tags ausgezeichnet, die Stellen,
an denen der gewünschte Suchbegriff auftauchen sollte. Im Seiteninhalt kann der Suchbegriff auch
durch die Tags Strong bzw. Em hevorgehoben werden.

Textinhalte

Oft taucht die Frage auf, welche „Keywort-Dichte“ der individuelle Inhaltsteil einer Seite
aufweisen sollte. Dies lässt sich recht einfach beantworten: der Text muss sich natürlich lesen. Ein
Anteil von unter fünf Prozent ergibt sich dabei von selbst. Wichtiger als die dauernde Wiederholung
von den gewünschten Suchbegriffen ist die Verwendung von Synonymen und Wörtern aus dem
Umfeld des Suchbegriffes. Semager i und Metagerii können hier eine große Hilfe sein. Grundsätzlich
lässt sich auch sagen: Je mehr Text-Inhalte ein Webprojekt bietet, um so höher ist die Sichtbarkeit
eines Webprojektes in den Suchergebnissen.

Nicht-Textinhalte

Auch wenn die relevanten Suchmaschinen, allen voran Google, im Kern Text-Suchmaschinen sind,
so werden die reinen Text-Suchergebnisse immer mehr durch Ergebnisse von Spezialsuchen
ergänzt: Branchencenter, Produktsuche, Bilder, Videos, Nachrichten, Blogs und nun auch noch
Tweets und Facebook-Statusmeldungen. Jedes dieser so genannten OneBox-Results sind Ergebnisse
von Spezialsuchen, die wiederum optimiert werden können, was allerdings den Rahmen einer
Kurzeinführung sprengt.
OnStructure-Optimierung

Domains

Die Wahl der Domain ist eine der wichtigsten Entscheidungen bei der Entwicklung eines neuen
Projektes, hat Auswirkungen bis hin zur Sichtbarkeit in den Suchergebnissen. Beispielsweise ist das
Alter der Domain ein gewichtiger Faktor. Grundsätzlich gilt: Je älter um so besser. Einige Effekte
wie der Sandbox-Filter lassen sich durch die Auswahl einer alten Domain umgehen.
Doch das Domainalter ist nicht das einzige Kriterium, die Entscheidung für eine bestimmte Top
Level Domain (TLD) ist auch ein SEO-Thema, jedoch immer im Zusammenhang mit weiteren
Abhängigkeiten, beispielsweise Keyword-Domains.
Unter einer echten Keyword-Domain ist ein Domainname zu verstehen, der exakt mit einem
Suchbegriff übereinstimmt und keine Bindestriche enthält. Aktuell sind Keyword-Domains unter
den TDL .COM, .ORG und in abgeschwächter Form auch für .NET ein Bonus-Faktor beobachten:
•

Der Sandbox-Effekt ist nur in abgeschwächter Ausprägung vorhanden oder lässt sich sogar
komplett umgehen.

•

Der Aufwand, mit dem Domainnamen – der ein Suchbegriff ist – ein gutes Ranking zu
erzielen, sinkt enorm.

Die Aussage über die TLD gilt auch für die nationalen TLD im jeweiligen Land, also .DE in
Deutschland oder .AT in Österreich. Abseits von Keyword-Domains kann ein Bonus für Domains
unter der jeweiligen nationalen TLD nicht mehr beobachtet werden.

Subdomains

Subdomains können wertvolle Dienste leisten, beispielsweise bei der Strukturierung nach Sprachen
oder Ländern – falls eine der internationale TLD .COM, .ORG, .NET, .INFO oder .BIZ gewählt
wurde. Google Webmaster Central iii bietet nach entsprechender Authentifizierung die Möglichkeit,
nicht nur jede Domain unter internationaler TLD einem bestimmten Land zuzuordnen, sondern
jeder Subdomain. Damit lassen sich die meisten Probleme des Geotargeting vermeiden.
Den Umstand, dass Subdomains keine völlig eigenständige Domains sind und von Google nicht als
solche Behandelt werden, kann man sich auf vielfältige Weise zunutze machen. So vererben
Subdomains durch Verlinkung untereinander sehr leicht Relevanz, auch über Sprachgrenzen
hinweg. Hat eine Domain erstmal eine Relevanz zu einem bestimmten Themenbereich erreicht und
wird eine Subdomain hinzugefügt, beispielsweise um ein Thema zu spezialisieren, dann startet
diese Domain nicht bei Null, sondern erbt Grundvertrauen und Relevanz.
Wenn hier von Subdomains die Rede ist, dann muss gleichzeitig auf einen häufig vorkommenden
Denkfehler hingewiesen werden: www ist eine Subdomain und leider sind die Inhalte vieler
Projekte sowohl auf dieser Subdomain, als auch über die Hauptdomain an sich erreichbar. Dies
führt zu doppelten Verwendung von Inhalten, was sich negativ auf die Sichtbarkeit in den
Suchergebnissen auswirkt.
Verzeichnis-Strukturen

Eine Ebene unter der globalen Struktur Domain/Subdomain ist die Verzeichnisstruktur
angesiedelt. Diese sollte genutzt werden, um die Inhalte sinnvoll zu strukturieren, beispielsweise
nach Themen, Dateiformate oder Sprachen. Die Verzeichnisstruktur sollte nicht zu tief geplant
werden. Auch wenn diese Verzeichnisse bei der Verwendung moderner Content Management
Systeme (CMS) nur virtuell vorhanden sind – Google unterscheidet hier nicht. Jede
Verzeichnisebene rückt die darin liegenden Dateien weiter in die Struktur hinein, weg von der
Startseite, was bei der aktuellen Implementierung des Google-Algo bedeutet, dass diese Inhalte
weniger wichtig sind.
Bei der thematischen Gliederung sollte auf eine sinnvolle Bezeichnung der Verzeichnisse geachtet
werden. Der Hinweis, dass Suchbegriffe als Verzeichnisname sich positiv auf die Sichtbarkeit in
den Suchergebnissen auswirken, muss man immer mit der Warnung vor tiefen
Verzeichnisstrukturen verbinden. Weniger ist manchmal mehr!

Dateinamen

Sprechende Dateinamen ohne Parameter oder Session-ID sollten inzwischen zum Standard
moderner CMS gehören. Der Suchbegriff, auf den eine Unterseite optimiert wurde, sollte auch im
Dateinamen zu finden sein. Beinahe unnötig ist inzwischen der Hinweis, dass sinnvolle
Dateiendungen genutzt werden sollten.

Hidden Web

Manchmal ist es sinnvoll oder notwendig, Inhalte mehrfach auf einem Projekt zu führen. Dies
widerspricht jedoch den Google-Richtlinien und kann sich negativ auf die Sichtbarkeit im Index
auswirken. Es gibt jedoch mehrere Möglichkeiten, doppelte Inhalte (DC, duplicate content) von
der Indizierung durch die Suchmaschinen auszuschließen und so DC zu vermeiden.
Vieles lässt sich über die robots.txt regeln. In dieser Datei können Anweisungen für die
Suchmaschen hinterlegt werden, welche Verzeichnisse oder Dateien gelesen werden dürfen und
welche nicht. Dies ist die empfehlenswerte Vorgehensweise, wenn die DC-Strukturen eindeutig
sind. Dazu gehört die häufig übersehene DC-Quelle Druckausgabe oder Download als PDF.
Anders verhält es sich, wenn der DC nicht so eindeutig lokalisiert werden kann bzw. Unterseiten
aus DC bestehen müssen. Ein Beispiel dafür wären die Schlagwortseiten (Tags). In solchen Fällen
wäre die Verwendung der Robots-Anweisung „noindex, follow“ in den Meta-Tags weitaus
sinnvoller. Diese Anweisung verhindert das Indizieren der Seite, erlaubt jedoch der Suchmaschinen
die Verfolgung der Links.

Interne Verlinkung

Jede Unterseite, die einen eingehenden Link von einer anderen Unterseite hat und die linkende Seite
im Suchmaschinenindex aufgenommen wurde, wird irgendwann selbst indiziert. Es gibt zwar
andere Möglichkeiten, die Schmaschine auf die Existenz von Unterseiten hinzuweisen, die
Verlinkung ist jedoch die natürlichste. Je mehr eingehende Links eine Seite hat, um so wichtiger
wird diese, nicht nur innerhalb der Projekt-Struktur sondern auch in der Aussensicht. Wichtige
Unterseiten sollten intern häufig verlinkt werden und zwar möglichst direkt von der obersten Ebene ,
der Startseite. Je kürzer der Weg von der Startseite zur Unterseite, um so höher schätzen die
Suchmaschinen die Wichtigkeit innerhalb der Projektstruktur ein. Für interne Verlinkung innerhalb
eines Projektes lassen sich neben der normalen Navigationsstruktur auf Breadcrumb-Navigation,
Tag-Cloud sowie natürlich direkt Links – besonders innerhalb der Texte – einsetzen.
Die wichtigsten Unterseiten mit möglichst vielen Links zu versorgen ist unumstritten eine der
grundlegenden Optimierungsmaßnahmen. Im Umkehrschluss wollten einige SEO den unwichtigen
Seiten diese Wertung ganz entziehen, indem darauf zeigende Links mit NoFollow entwertet werden
wurden. Die Entwertung funktioniert immer noch, hat jedoch seit Sommer 2009 den negativen
Effekt, dass die Wertigkeit NoFollow-Link der linkenden Unterseite trotzdem abgezogen wird. Der
Nutzen wird also mehr als neutralisiert.

Links auf externe Seiten

Mit Links auf externe Seiten sollte sparsam umgegangen werden, nicht nur weil jeder Link nach
Aussen die Suchmaschinen weg vom eigenen Projekt leitet , sondern auch da Links auf „schlechte“
Seiten sich negativ auf die eigene Sichtbarkeit in den Suchergebnissen auswirken können. Schlechte
Seiten, darunter sind Projekte zu verstehen, die Google wegen Regelverstöße schlechter
positioniert, als es natürlich der Fall wäre. Nur erkennt man dies nicht. Links auf Autoritäten sind
problemlos. Einige Experten vertreten sogar die Meinung, dies sei für das Ranking der eigenen
Projekte förderlich.

OffSite-Optimierung
OffSite-Optimierung besteht alleine aus Linkauf- und Linkabbau, der Positionierung des
Webprojektes und dessen Unterseiten in einem passenden Umfeld. Für die Zuordnung der Relevanz
eines Webprojektes, genau genommen jeder Unterseite eines Webprojektes, bewertet Google die die
eingehenden Links. Und jeder Link zählt, entweder positiv oder negativ. Die Wertigkeit eines Links
darf nicht – ein häufig gemachter Fehler – vom Page Rank (PR) abgelesen werden.
Eine natürliche Linkstruktur besteht aus Links unterschiedlicher Qualität, von möglichst vielen
verschiedenen Domains, die wiederum auf möglichst vielen IP-Adressen, ja sogar C-Class Netzwerken kommen sollten. Für die Zuordnung von Themenrelevanz nutzt Google den Linktext
und die Relevanz der link-gebenden Seite (die sich meist auch im Ranking ausdrückt) zum Thema.
Links von „besonderen“ Seiten wiegen deutlich schwerer:
•

Trusted Sites: Projekte, denen Google ein erhöhtes Vertrauen entgegen bringt. Kennzeichen
von Trusted Sites sind beispielsweise Domainalter, gewachsene Linkstruktur, Links von
Authoritys.

•

Authoritys: Projekte, die an Knotenpunkten im Web stehen oder von vielen Authoritys
verlinkt werden. Beispiele sind Whitehouse.gov oder Spiegel.de. Authortys fallen durch
eine hohe Sichtbarkeit in den Suchergebnissen auf.
•

Hubs: Unterseiten von Trusted Sites, die auf die Top-Seiten zum gesuchten Thema
verweisen. Wird man von solchen Hubs verlinkt, wird man faktisch in eine Reihe mit den
relevantesten Seiten zum Thema gestellt. Hubs müssen nicht unbedingt ein gutes Ranking
aufweisen.

Ein Hinweis zu Hubs: Was im Positiven klappt, funktioniert auch im Negativen, d.h. eine
Linkstruktur, die in großen Teilen mit abgestraften Websites übereinstimmt, führt unweigerlich
ebenfalls zu negativen Auswirkungen für die Sichtbarkeit in den Suchergebnissen.
i http://www.semager.de/keywords/?lang=de
ii http://metager.de/asso.html
iii http://www.google.com/webmasters

Contenu connexe

Plus de medtrustadvisory

Longlist Deutscher Buchpreis 2014
Longlist Deutscher Buchpreis 2014Longlist Deutscher Buchpreis 2014
Longlist Deutscher Buchpreis 2014medtrustadvisory
 
Unternehmensstrafrecht in Deutschland Beratung und Prävention
Unternehmensstrafrecht in Deutschland Beratung und PräventionUnternehmensstrafrecht in Deutschland Beratung und Prävention
Unternehmensstrafrecht in Deutschland Beratung und Präventionmedtrustadvisory
 
Unternehmensstrafrecht in Deutschland NRW Gesetzesinitiative
Unternehmensstrafrecht in Deutschland   NRW GesetzesinitiativeUnternehmensstrafrecht in Deutschland   NRW Gesetzesinitiative
Unternehmensstrafrecht in Deutschland NRW Gesetzesinitiativemedtrustadvisory
 
Zielgruppenmarketing: Jugend- und Subkultur
Zielgruppenmarketing: Jugend- und SubkulturZielgruppenmarketing: Jugend- und Subkultur
Zielgruppenmarketing: Jugend- und Subkulturmedtrustadvisory
 
Tipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfen
Tipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfenTipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfen
Tipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfenmedtrustadvisory
 
EFPIA Pharma Transparency Code - EFPIA Disclosure Code
EFPIA Pharma Transparency Code - EFPIA Disclosure CodeEFPIA Pharma Transparency Code - EFPIA Disclosure Code
EFPIA Pharma Transparency Code - EFPIA Disclosure Codemedtrustadvisory
 

Plus de medtrustadvisory (7)

Longlist Deutscher Buchpreis 2014
Longlist Deutscher Buchpreis 2014Longlist Deutscher Buchpreis 2014
Longlist Deutscher Buchpreis 2014
 
Gamescom trends 2014
Gamescom trends 2014Gamescom trends 2014
Gamescom trends 2014
 
Unternehmensstrafrecht in Deutschland Beratung und Prävention
Unternehmensstrafrecht in Deutschland Beratung und PräventionUnternehmensstrafrecht in Deutschland Beratung und Prävention
Unternehmensstrafrecht in Deutschland Beratung und Prävention
 
Unternehmensstrafrecht in Deutschland NRW Gesetzesinitiative
Unternehmensstrafrecht in Deutschland   NRW GesetzesinitiativeUnternehmensstrafrecht in Deutschland   NRW Gesetzesinitiative
Unternehmensstrafrecht in Deutschland NRW Gesetzesinitiative
 
Zielgruppenmarketing: Jugend- und Subkultur
Zielgruppenmarketing: Jugend- und SubkulturZielgruppenmarketing: Jugend- und Subkultur
Zielgruppenmarketing: Jugend- und Subkultur
 
Tipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfen
Tipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfenTipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfen
Tipps um die Symptome eines Vitaminmangels zu erkennen und wirksam zu bekämpfen
 
EFPIA Pharma Transparency Code - EFPIA Disclosure Code
EFPIA Pharma Transparency Code - EFPIA Disclosure CodeEFPIA Pharma Transparency Code - EFPIA Disclosure Code
EFPIA Pharma Transparency Code - EFPIA Disclosure Code
 

Google top ranking tipps

  • 1. Suchmaschinenoptimierung für Google - Eine Kurzeinführung - Begriffsdefinition Suchmaschinenmarketing, Suchmaschinenwerbung, Suchmaschinenoptimierung Unter Suchmaschinenmarketing (SEM, Search Engine Marketing) versteht man alle Marketingaktivitäten, die direkt mit Suchmaschinen in Verbindung stehen. Grundsätzlich gilt es, zwischen Suchmaschinenwerbung (SEA, Search Engine Advertising) und Suchmaschinenoptimierung (SEO, Search Engine Optimizing) zu unterscheiden. Dazwischen liegt eine größere Grauzone, denn die klassische Unterscheidung zwischen SEA und SEO verschwimmt. Nach klassischer Definition beschäftigt sich SEO mit den natürlichen Suchergebnissen, SEA mit den bezahlten. Doch dann gibt es beispielsweise ein zu zahlendes Produkt des Yahoo Search Marketing, das gegen Bares eine Echtzeit-Indizierung (aber kein besseres Ranking) verspricht. Doch kann natürlich nur gefunden werden, was im Index ist. Auf der anderen Seite sind da Google Product Search oder Google Branchencenter – fraglich ob und wie lange diese Dienste kostenfrei bleiben. Nach klassischer Definition würden diese beiden wichtigen Dienste die Seite wechseln, von SEO zu SEA. Mit Adsense verschwimmen zudem die Grenzen zwischen zu anderen Teilgebieten des Online-Marketings. Suchmaschinenoptimierung – OnSite und OffSite Bei der Suchmaschinenoptimierung lassen sich zwei Hebel zu Verbesserung der Sichtbarkeit in den Suchergebnissen finden: Alles was direkt am Webprojekt optimiert werden kann ( OnSite) und alles was von aussen auf die Seite einwirkt (OffSite). Der gewichtigere Teil liegt im Bereich der OffsiteOptimierung – einer der wenigen Punkte der Suchmaschinenoptimierung, der recht unumstritten ist. Bei OffSite ist zu unterscheiden zwischen OnPage – alles was an einer einzelnen Unterseite zu optimieren ist – und OnStructure – was die Gesamtheit des Webprojektes angeht. Optimiert wird immer eine Unterseite zu einen bestimmten Suchbegriff , wobei „Begriff“ mehrere Wörter umfassen kann. Auch die Startseite ist eine Unterseite, jedoch sollte man beachten, dass die Startseite die allgemeinste Unterseite des ganzen Projektes ist. Da in der Regel lediglich fünf bis sieben Sekunden Zeit bleiben, um den Besucher genügend Reize zu senden, damit er nicht den „Zurück-Button“ des Browsers betätigt, verbietet sch im Grunde die Suchmaschinenoptimierung der Startseite. Effektiver sind Unterseiten, die genau auf das Thema des Suchenden zugeschnitten sind. Die anschließenden Optimierungsmaßnahmen beziehen sich auf Google, gleichwohl diese bei Yahoo oder Bing ebenso gelten.
  • 2. OnPage-Optimierung Der Quellcode Standard-Technologien wie XHTML und CSS erlauben es den Code so zu strukturieren, dass der eigentliche Inhalt möglichst weit vorne im Quelltext positioniert ist, nachrangige, sich beispielsweise wiederholende Inhalte wie die Navigation, weiter unten im Quelltext. Das Wichtigste zuerst – einer der zentralen Merksätze in der Suchmaschinenoptimierung. Meta-Tags haben, entgegen einigen immer noch kursierenden Gerüchten, keine Auswirkung auf die Sichtbarkeit von Websites in den Suchergebnissen. Besonders hingewiesen soll an dieser Stelle, dass die sogenannten Meta-Keys keinerlei Auswirkungen auf die Websuche haben. Augenmerk sollte bei den Meta Tags auf die Description gelegt werden, denn dies wird von den Suchmaschinen ausgelesen und im Regelfall bei der Darstellung in den Suchergebnissen verwendet. Eine gut formulierte Description sollte zum Klicken anregen. Empfehlenswert ist weiterhin die Absicherung der Description durch den NoOdp-Tag, um Querschlägern aus dem wichtigen DMOZVerzeichnis vorzubeugen. Während die Description lediglich der Klick-Optimierung dient, ist der Title-Tag zwar sichtbarer Teil des Suchergebnisses, aber auch ein gewichtiges Mosaiksteinchen der OnSite-Optimierung. Im Title-Tag sollte die Wortkombination zu finden sein, auf die die Unterseite optimiert wurde und gleichzeitig muss dieser Title-Tag zum Klicken anregen. Neben dem Title-Tag sind die Überschriften, im Quelltext durch H-Tags ausgezeichnet, die Stellen, an denen der gewünschte Suchbegriff auftauchen sollte. Im Seiteninhalt kann der Suchbegriff auch durch die Tags Strong bzw. Em hevorgehoben werden. Textinhalte Oft taucht die Frage auf, welche „Keywort-Dichte“ der individuelle Inhaltsteil einer Seite aufweisen sollte. Dies lässt sich recht einfach beantworten: der Text muss sich natürlich lesen. Ein Anteil von unter fünf Prozent ergibt sich dabei von selbst. Wichtiger als die dauernde Wiederholung von den gewünschten Suchbegriffen ist die Verwendung von Synonymen und Wörtern aus dem Umfeld des Suchbegriffes. Semager i und Metagerii können hier eine große Hilfe sein. Grundsätzlich lässt sich auch sagen: Je mehr Text-Inhalte ein Webprojekt bietet, um so höher ist die Sichtbarkeit eines Webprojektes in den Suchergebnissen. Nicht-Textinhalte Auch wenn die relevanten Suchmaschinen, allen voran Google, im Kern Text-Suchmaschinen sind, so werden die reinen Text-Suchergebnisse immer mehr durch Ergebnisse von Spezialsuchen ergänzt: Branchencenter, Produktsuche, Bilder, Videos, Nachrichten, Blogs und nun auch noch Tweets und Facebook-Statusmeldungen. Jedes dieser so genannten OneBox-Results sind Ergebnisse von Spezialsuchen, die wiederum optimiert werden können, was allerdings den Rahmen einer Kurzeinführung sprengt.
  • 3. OnStructure-Optimierung Domains Die Wahl der Domain ist eine der wichtigsten Entscheidungen bei der Entwicklung eines neuen Projektes, hat Auswirkungen bis hin zur Sichtbarkeit in den Suchergebnissen. Beispielsweise ist das Alter der Domain ein gewichtiger Faktor. Grundsätzlich gilt: Je älter um so besser. Einige Effekte wie der Sandbox-Filter lassen sich durch die Auswahl einer alten Domain umgehen. Doch das Domainalter ist nicht das einzige Kriterium, die Entscheidung für eine bestimmte Top Level Domain (TLD) ist auch ein SEO-Thema, jedoch immer im Zusammenhang mit weiteren Abhängigkeiten, beispielsweise Keyword-Domains. Unter einer echten Keyword-Domain ist ein Domainname zu verstehen, der exakt mit einem Suchbegriff übereinstimmt und keine Bindestriche enthält. Aktuell sind Keyword-Domains unter den TDL .COM, .ORG und in abgeschwächter Form auch für .NET ein Bonus-Faktor beobachten: • Der Sandbox-Effekt ist nur in abgeschwächter Ausprägung vorhanden oder lässt sich sogar komplett umgehen. • Der Aufwand, mit dem Domainnamen – der ein Suchbegriff ist – ein gutes Ranking zu erzielen, sinkt enorm. Die Aussage über die TLD gilt auch für die nationalen TLD im jeweiligen Land, also .DE in Deutschland oder .AT in Österreich. Abseits von Keyword-Domains kann ein Bonus für Domains unter der jeweiligen nationalen TLD nicht mehr beobachtet werden. Subdomains Subdomains können wertvolle Dienste leisten, beispielsweise bei der Strukturierung nach Sprachen oder Ländern – falls eine der internationale TLD .COM, .ORG, .NET, .INFO oder .BIZ gewählt wurde. Google Webmaster Central iii bietet nach entsprechender Authentifizierung die Möglichkeit, nicht nur jede Domain unter internationaler TLD einem bestimmten Land zuzuordnen, sondern jeder Subdomain. Damit lassen sich die meisten Probleme des Geotargeting vermeiden. Den Umstand, dass Subdomains keine völlig eigenständige Domains sind und von Google nicht als solche Behandelt werden, kann man sich auf vielfältige Weise zunutze machen. So vererben Subdomains durch Verlinkung untereinander sehr leicht Relevanz, auch über Sprachgrenzen hinweg. Hat eine Domain erstmal eine Relevanz zu einem bestimmten Themenbereich erreicht und wird eine Subdomain hinzugefügt, beispielsweise um ein Thema zu spezialisieren, dann startet diese Domain nicht bei Null, sondern erbt Grundvertrauen und Relevanz. Wenn hier von Subdomains die Rede ist, dann muss gleichzeitig auf einen häufig vorkommenden Denkfehler hingewiesen werden: www ist eine Subdomain und leider sind die Inhalte vieler Projekte sowohl auf dieser Subdomain, als auch über die Hauptdomain an sich erreichbar. Dies führt zu doppelten Verwendung von Inhalten, was sich negativ auf die Sichtbarkeit in den Suchergebnissen auswirkt.
  • 4. Verzeichnis-Strukturen Eine Ebene unter der globalen Struktur Domain/Subdomain ist die Verzeichnisstruktur angesiedelt. Diese sollte genutzt werden, um die Inhalte sinnvoll zu strukturieren, beispielsweise nach Themen, Dateiformate oder Sprachen. Die Verzeichnisstruktur sollte nicht zu tief geplant werden. Auch wenn diese Verzeichnisse bei der Verwendung moderner Content Management Systeme (CMS) nur virtuell vorhanden sind – Google unterscheidet hier nicht. Jede Verzeichnisebene rückt die darin liegenden Dateien weiter in die Struktur hinein, weg von der Startseite, was bei der aktuellen Implementierung des Google-Algo bedeutet, dass diese Inhalte weniger wichtig sind. Bei der thematischen Gliederung sollte auf eine sinnvolle Bezeichnung der Verzeichnisse geachtet werden. Der Hinweis, dass Suchbegriffe als Verzeichnisname sich positiv auf die Sichtbarkeit in den Suchergebnissen auswirken, muss man immer mit der Warnung vor tiefen Verzeichnisstrukturen verbinden. Weniger ist manchmal mehr! Dateinamen Sprechende Dateinamen ohne Parameter oder Session-ID sollten inzwischen zum Standard moderner CMS gehören. Der Suchbegriff, auf den eine Unterseite optimiert wurde, sollte auch im Dateinamen zu finden sein. Beinahe unnötig ist inzwischen der Hinweis, dass sinnvolle Dateiendungen genutzt werden sollten. Hidden Web Manchmal ist es sinnvoll oder notwendig, Inhalte mehrfach auf einem Projekt zu führen. Dies widerspricht jedoch den Google-Richtlinien und kann sich negativ auf die Sichtbarkeit im Index auswirken. Es gibt jedoch mehrere Möglichkeiten, doppelte Inhalte (DC, duplicate content) von der Indizierung durch die Suchmaschinen auszuschließen und so DC zu vermeiden. Vieles lässt sich über die robots.txt regeln. In dieser Datei können Anweisungen für die Suchmaschen hinterlegt werden, welche Verzeichnisse oder Dateien gelesen werden dürfen und welche nicht. Dies ist die empfehlenswerte Vorgehensweise, wenn die DC-Strukturen eindeutig sind. Dazu gehört die häufig übersehene DC-Quelle Druckausgabe oder Download als PDF. Anders verhält es sich, wenn der DC nicht so eindeutig lokalisiert werden kann bzw. Unterseiten aus DC bestehen müssen. Ein Beispiel dafür wären die Schlagwortseiten (Tags). In solchen Fällen wäre die Verwendung der Robots-Anweisung „noindex, follow“ in den Meta-Tags weitaus sinnvoller. Diese Anweisung verhindert das Indizieren der Seite, erlaubt jedoch der Suchmaschinen die Verfolgung der Links. Interne Verlinkung Jede Unterseite, die einen eingehenden Link von einer anderen Unterseite hat und die linkende Seite im Suchmaschinenindex aufgenommen wurde, wird irgendwann selbst indiziert. Es gibt zwar
  • 5. andere Möglichkeiten, die Schmaschine auf die Existenz von Unterseiten hinzuweisen, die Verlinkung ist jedoch die natürlichste. Je mehr eingehende Links eine Seite hat, um so wichtiger wird diese, nicht nur innerhalb der Projekt-Struktur sondern auch in der Aussensicht. Wichtige Unterseiten sollten intern häufig verlinkt werden und zwar möglichst direkt von der obersten Ebene , der Startseite. Je kürzer der Weg von der Startseite zur Unterseite, um so höher schätzen die Suchmaschinen die Wichtigkeit innerhalb der Projektstruktur ein. Für interne Verlinkung innerhalb eines Projektes lassen sich neben der normalen Navigationsstruktur auf Breadcrumb-Navigation, Tag-Cloud sowie natürlich direkt Links – besonders innerhalb der Texte – einsetzen. Die wichtigsten Unterseiten mit möglichst vielen Links zu versorgen ist unumstritten eine der grundlegenden Optimierungsmaßnahmen. Im Umkehrschluss wollten einige SEO den unwichtigen Seiten diese Wertung ganz entziehen, indem darauf zeigende Links mit NoFollow entwertet werden wurden. Die Entwertung funktioniert immer noch, hat jedoch seit Sommer 2009 den negativen Effekt, dass die Wertigkeit NoFollow-Link der linkenden Unterseite trotzdem abgezogen wird. Der Nutzen wird also mehr als neutralisiert. Links auf externe Seiten Mit Links auf externe Seiten sollte sparsam umgegangen werden, nicht nur weil jeder Link nach Aussen die Suchmaschinen weg vom eigenen Projekt leitet , sondern auch da Links auf „schlechte“ Seiten sich negativ auf die eigene Sichtbarkeit in den Suchergebnissen auswirken können. Schlechte Seiten, darunter sind Projekte zu verstehen, die Google wegen Regelverstöße schlechter positioniert, als es natürlich der Fall wäre. Nur erkennt man dies nicht. Links auf Autoritäten sind problemlos. Einige Experten vertreten sogar die Meinung, dies sei für das Ranking der eigenen Projekte förderlich. OffSite-Optimierung OffSite-Optimierung besteht alleine aus Linkauf- und Linkabbau, der Positionierung des Webprojektes und dessen Unterseiten in einem passenden Umfeld. Für die Zuordnung der Relevanz eines Webprojektes, genau genommen jeder Unterseite eines Webprojektes, bewertet Google die die eingehenden Links. Und jeder Link zählt, entweder positiv oder negativ. Die Wertigkeit eines Links darf nicht – ein häufig gemachter Fehler – vom Page Rank (PR) abgelesen werden. Eine natürliche Linkstruktur besteht aus Links unterschiedlicher Qualität, von möglichst vielen verschiedenen Domains, die wiederum auf möglichst vielen IP-Adressen, ja sogar C-Class Netzwerken kommen sollten. Für die Zuordnung von Themenrelevanz nutzt Google den Linktext und die Relevanz der link-gebenden Seite (die sich meist auch im Ranking ausdrückt) zum Thema. Links von „besonderen“ Seiten wiegen deutlich schwerer: • Trusted Sites: Projekte, denen Google ein erhöhtes Vertrauen entgegen bringt. Kennzeichen von Trusted Sites sind beispielsweise Domainalter, gewachsene Linkstruktur, Links von Authoritys. • Authoritys: Projekte, die an Knotenpunkten im Web stehen oder von vielen Authoritys verlinkt werden. Beispiele sind Whitehouse.gov oder Spiegel.de. Authortys fallen durch eine hohe Sichtbarkeit in den Suchergebnissen auf.
  • 6. • Hubs: Unterseiten von Trusted Sites, die auf die Top-Seiten zum gesuchten Thema verweisen. Wird man von solchen Hubs verlinkt, wird man faktisch in eine Reihe mit den relevantesten Seiten zum Thema gestellt. Hubs müssen nicht unbedingt ein gutes Ranking aufweisen. Ein Hinweis zu Hubs: Was im Positiven klappt, funktioniert auch im Negativen, d.h. eine Linkstruktur, die in großen Teilen mit abgestraften Websites übereinstimmt, führt unweigerlich ebenfalls zu negativen Auswirkungen für die Sichtbarkeit in den Suchergebnissen.