2. Anchor Text
Zu Deutsch: Anker- Text meint dieser Begriff die
sichtbaren Elemente eines Links. Der Bereich, der für
den User lesbar auf der Webseite erscheint und den
der User anklicken kann, um die Seite, die zu dem
Link hinführt zu besuchen.
Im Bereich des HTML stellen die Anker- Texte
wichtige Module dar.
Hyperlinks, also Verknüpfungen, die unter dem
Hypertext programmiert werden, werden unter zur
Hilfenahme des Anchors erstellt.
3. Backlink
Der Begriff Backlink bezeichnet Rückverweise auf eine Website, die
von anderen Internetseiten ausgehen. Ein solcher Backlink beruht
entweder auf einer direkten Verlinkung oder einem Linktausch. Für
Suchmaschinen drücken Qualität und Quantität der Backlinks die
Bedeutung einer Seite aus. Verweisen also viele hochwertige Websites
auf die eigene Internetseite, so steht diese im Ranking der
Suchmaschinen weit vor jenen Seiten, die kaum verlinkt oder nur mit
unbedeutenden Sites verknüpft sind. Diese Link-Popularity genannte
Eigenschaft einer Seite wirkt sich entscheidend auf das Ranking in den
Suchmaschinen aus, wobei die Bedeutung des sogenannten Pagerank
2004 reduziert wurde. link Suchmaschinenoptimierung besteht zum
Grossteil daraus, geeignete Backlinks aufzubauen. Dennoch ist die
Link-Popularity nach wie vor ein wichtiges Kriterium der
Suchmaschinen. Die Bedeutung einer Seite wird beim Verlinken
vererbt. Verweist etwa Wikipedia oder Microsoft auf die eigene
Website, so steigt diese im Ranking der Suchmaschinen enorm.
4. Cloacking
Cloaking ist ein Verfahren, bei dem der Webmaster seine Webseite
gegenüber den Robots der Suchmaschinen anders präsentiert als
gegenüber dem Besucher. Es werden falsche Inhalte vorgegeben, um
in den Ergebnisseiten der Suchmaschinen ein besseres Ranking zu
erreichen und damit mehr Besucher auf die Seite zu locken.
Eine Cloaking-Seite ist meist eine reine Textseite. Diese wird dann von
den Robots indexiert und erhält einen PageRank.
Cloaking wird von den Suchmaschinen als Verstoß gegen die
Richtlinien gewertet und wie Spam geahndet. Heute wird es von den
Suchmaschinen häufig erkannt. Es kann zu schlechtem PageRank
oder ganz zum Entfernen aus dem Index der Suchmaschinen führen.
Eine sehr viel aufwändigere und schwierigere Variante ist das so
genannte IP-Cloaking. Dabei werden dem Browser andere Inhalte der
IP Adresse angezeigt. Diese Variante wird sehr selten verwendet, da
alle IPs der Suchmaschine bekannt sein müssen.
5. Duplicated Content
Als Dublicated Content werden Inhalte bezeichnet, die auf ein
und derselben oder auf verschiedenen URLs doppelt oder sogar
mehrfach auftreten. Hier geht es also um kopierte Texte. Im
Falle einer Entdeckung solcher Dublikate durch
Suchmaschinen, werden diese Seiten oft als negativ oder als
Spam gewertet. Es kommt auch vor, dass beide Seiten aus dem
Index entfernt werden, da Original und Kopie meist nicht zu
unterscheiden sind. Es bleibt also der Suchmaschine
verborgen, wer von wem abgekupfert hat und dies führt dann
für beide zum Ausschluss. Die Folge sind dann regelmäßig
Klagen seitens der Inhaber der Originalseiten. Um vorschnelles
Handeln zu vermeiden, werden die Dublicated-Content-Filter
der Suchmaschinen wie Google erst aktiv, wenn größere
Passagen zweier URLs identisch sind. Für das www sind
Urheberrechte und deren Verletzung nach wie vor ein großes
Problem.
6. Ergebnisseite / SERP
Gibt ein User ein Stichwort in eine Suchmaschine ein, so erscheint anschließend die SERP, die
Ergebnisseite. Sie listet die Suchergebnisse auf. Bei Google und vielen anderen Suchmaschinen
werden in der Grundeinstellung die ersten zehn Ergebnisse angezeigt. Die weiteren Ergebnisse –
die Anzahl der Suchergebnisse wird oberhalb der Liste genannt – kann der Benutzer über weitere
Ergebnisseiten erreichen. Diese Search engine results page (SERP) stellt gleichzeitig das Objekt der
Begierde dar. Denn, wer hier oben steht, kann auf viele Besucher hoffen. Aus der Sicht der User ist
der oberste Eintrag gleichsam „ die erste Adresse“. Die Surfer, die sich die Mühe machen, auch auf
den folgenden Ergebnisseiten nach relevanten Websites zu suchen, sind deutlich geringer. Das viel
umworbene Ranking der Suchmaschinen entscheidet darüber, wer oben als erster auf der SERP
steht. Dabei können die Ergebnisse von Suchmaschine zu Suchmaschine variieren, da auch die
Maßstäbe für das Ranking unterschiedlich sind. Auch kann sich die SERP bei einer erneuten Suche
mit demselben Stichwort ändern, wenn dieser Themenbereich von neuen Seiten umworben wird.
Wie sich die Bemühungen der Internet-Anbieter auf diese Ergebnisseiten, deren Ranking nach
Qualitätsmaßstäben der jeweiligen Suchmaschinen entstehen, auswirken, lässt sich zum Beispiel
anhand von Druckern feststellen. Gibt man den Namen eines Druckers in die Suche ein, der seit
Jahren nicht mehr gebaut wird, so findet man in der Regel eine Reihe von Websites, die
entsprechende Druckerpatronen anbieten. Aufgrund der aufwändigen Seiten mit zahlreichen
Verlinkungen werden die Websites der Patronenhersteller wichtiger als die Seiten der
Druckerhersteller, die das entsprechende Gerät vielleicht nur noch in einer Archiv-Liste
namentlich erwähnen. Die Herstellerseite mit Informationen zum Gerät selber befindet sich dann
vielleicht auf einer der nachfolgenden Seiten der ersten SERP.
8. Google Guy
Google Guy ist die Bezeichnung eines Mitarbeiters des
englischsprachigen Google. Er steht zu Google betreffenden
Themen im Diskussionsforum www.webmasterworld.com
regelmäßig Rede und Antwort. Außerdem führt er einen
interessanten Web-Blog. Vermutet wird, dass hinter dem
Synonym Google Guy der Google Mitarbeiter Matt Cutts steckt.
Google stellt damit einen persönlichen Kontakt zu seinen Usern
her. Es ist eine Form von Öffentlichkeitsarbeit, die in dieser
Form neu ist.
In erster Linie geht es bei den Posts des Google Guy
darum, Usern bei Problemen zu helfen, die Google betreffen.
Hauptsächliches Thema ist die Hilfe bei der Aufnahme ins
Google Ranking.
Der mutmaßliche Google Guy Matt Cutts hat eine eigene
Homepage (www.mattcutts.com) und mindestens eine Fanpage.
9. Headline Tags
Headline Tags dienen der für Suchmaschinen relevanten Einordnung von
Überschriften auf einer Internetseite. Üblicherweise wird eine Seite durch Titel oder
Kapitelüberschriften, deren Bedeutung mittels der verwendeten Schriftgröße
symbolisiert wird, aufgelockert und fördern die Orientierung auf der Seite. Wie bei
einer Zeitung kann sich der Leser auf die ihm wichtigen Artikel konzentrieren, wenn er
vorher die Headlines studiert und ausgewählt hat. Einige Jahre waren Keywörter in
den Headline Tags ein Garant für günstiges Ranking der Suchmaschinen. Dieser
Umstand wurde zum Teil missbraucht, indem unseriöse Anbieter Überschriften mit
möglichst vielen Keywörtern spickten, ohne auf deren Relevanz für den
anschließenden Text zu achten. Daher konzentrieren sich die meisten Suchmaschinen
wieder mehr auf die Textinhalte. Diese Reaktion zeigt wiedermal, dass der Versuch,
Suchmaschinen auszutricksen, in der Regel zu veränderten Algorithmen führen, mit
denen das Ranking vollzogen wird. Das bedeutet letztlich einerseits, dass jeder Versuch
der Irreführung und Täuschung von Suchmaschinen zu einer qualitativen
Verbesserung führt, wenn es darum geht, eine Suchanfrage mit den wirklich für den
Suchenden relevanten Internetseiten zu beantworten. Andererseits bedeuten diese
Betrugsversuche immer auch ein Ärgernis für die Kunden und die „ehrlichen“ Anbieter
im Internet. Eine gute Suchmaschine – wie etwa Google – verwendet sehr viel
Entwicklungsarbeit auf die Vermeidung von erfolgreichen Irreführungen seitens
unseriöser Anbieter. Teilweise ist diese Entwicklungsarbeit ein Verlustgeschäft für alle
Internetuser – ggf. sogar nachhaltig.
10. Indizieren
Der Datenbestand einer Suchmaschine nennt sich Index. Indexieren
beschreibt den Vorgang, in dem eine Webseite in eine Suchmaschine
oder in ein ähnlich arbeitendes Verzeichnis aufgenommen wird.
Dieser Vorgang kann allerdings mehrere Wochen oder gar Monate in
Anspruch nehmen. Um diese Phase zu verkürzen wird häufig die
Technik des Instant Indexing angewandt, mit deren Hilfe Webseiten
innerhalb weniger Tage oder auch nur Stunden in den Index einer
Suchmaschine aufgenommen werden.
Die schnelle Verfügbarkeit einer Webseite durch die Suchmaschinen
ist für kommerzielle Webseiten von großer Bedeutung.
Suchmaschinenoptimierer sind darüber informiert, wann neue
Indexierungskampagnen stattfinden und richten ihre Arbeit für ihre
Kunden an diesen wichtigen Zeiten aus.
11. Javascript- Weiterleitung
Die Javascript- Weiterleitung dient als Mittel zur Optimierung der Webseite
für die Suchmaschinen, indem sie beim Öffnen einer Seite den User direkt auf
andere Seiten weiterleitet. Diese Weiterleitung erfolgt automatisch durch den
Surfer.
Je nachdem, welche Absicht damit verfolgt wird, existieren verschiedene
Formen der Weiterleitung.
Für die Spider der Suchmaschinen sind diese Weiterleitungen nicht sichtbar,
da diese sie aufgrund der Verschlüsselung oder Versperrung nicht erkennen
können. Damit ist für den Robot keine Auswertung dieses Vorgangs möglich.
Denn auch diese Technik basiert auf dem Verfahren, der Identifizierung des
Besuchers, ob es sich um einen Robot oder um einen Server handelt.
Allerdings werden Javascript- Weiterleitungen von den Suchmaschinen
geahndet, da sie einen Verstoß gegen die Richtlinien darstellen. Werden sie
bemerkt, führen sie zum Ausschluss aus dem Suchmaschinenindex.
Dieses Verfahren sollte nur mit äußerster Sorgfalt angewendet werden, da
auch legale Weiterleitungen zu einem ungewolltem Ausschluss führen
können.
12. Keyphrase
Keyphrase wird ins Deutsche mit: Wortkette oder
Schlüsselformulierung übersetzt. Gemeint ist damit die
Kombination von zwei bis vier Suchworten, die vom User
als Eingabe in die Suchmaschine getätigt werden.
Um von den Suchmaschinen ein gutes Ranking zu
erhalten, ist es notwendig, diese Zusammenstellungen von
Begriffen im Text der Webseite enthalten zu haben.
Die effektive Formulierung solcher Keyphrasen erstellt
man mit Hilfe von Datenbanken. Diese Dienste sind mit
Kosten verbunden, da Redakteure sichten und auswerten.
Es gibt aber auch Datenbanken im Internet, die kostenfrei
die interaktive Recherche zur Ermittlung relevanter
Suchbegriffe anbieten.
13. Linkpopularität
Suchmaschinen deuten die Wichtigkeit und den Informationsgehalt einer Internetseite nach deren
Verlinkungen sowie den Keywörtern, die der für den Link verwendete TAG beinhaltet. Bestehen
viele und wichtige Verknüpfungen zwischen einer Website und anderen – möglichst hochwertigen
– Seiten, so „messen“ die Suchmaschinen mittels kleiner Analyse-Programme (bots) eine hohe
Link Popularity. Das Prinzip stellt sich in etwa so dar: Gäbe es in einem Ort (Internet) zwei
Heimwerkermärkte (verschiedene Websites) und würde ein neuer Kunde einen Berater
(Suchmaschine) konsultieren, um zu erfahren, in welchem er besser einkaufen könnte, so würde
der Berater den Markt vorschlagen, bei dem die meisten und wichtigsten Kunden einkaufen. Unter
„wichtig“ ließen sich dann solche Kriterien wie Handwerker, VIPs usw. einordnen. Würde der
potentielle Kunde die Suchanfrage konkretisieren und danach fragen, wo er am besten zwei Bretter
für das neue Kellerregal passend zugeschnitten bekäme, würde die Suchmaschine vielleicht den
anderen Markt vorschlagen, weil dort immer die Kunden hingehen, die Bretter zugeschnitten
haben möchten. Die Linkpopularität ist von entscheidender Bedeutung für das Ranking der
Suchmaschinen, die die Struktur der Verlinkung einer Seite als wichtiges Kriterium für dessen
Relevanz ansehen. Ob dieses Ranking der Suchanfrage eines einzelnen Kunden entspricht, hängt
demnach auch davon ab, ob er ein typischer Kunde ist. Wer gerne beim Werkzeugkauf den
fachkundigen Verkäufer in ein mehrstündiges, tiefschürfendes Gespräch verwickelt, wird vielleicht
in dem von der Suchmaschine vorgeschlagenen Heimwerkermarkt nicht zufrieden sein. Eine
künstlich hergestellte Linkpopularität wird häufig von den Suchmaschinen erkannt und negativ
bewertet.
14. Metatags
Als ehemals probates Mittel, eine Webseite beim Ranking
der Suchmaschinen hochzupushen, sind Metatags
mittlerweile etwas überholt. Man installiert sie unsichtbar
für den Besucher im Titelbereich einer Seite. Sie werden
von Suchmaschinen erkannt. Optimierte Keywords
erhöhen dann die Chance auf eine bessere Positionierung.
Inzwischen nehmen sich die Suchmaschinen zusehends
mehr den eigentlichen Inhalt und die Verlinkung einer
Seite vor. Empfehlenswert sind Metatags nach wie vor,
wenn auf der Website Bilder, Frames und Grafik
überwiegen, während wenige Texte Suchmaschinen
relevante Keywords enthalten.
15. Natural Listings
Mit dem Begriff Natural Listings werden die Ergebnislisten
einer Suchmaschine bezeichnet, bei denen es sich nicht um
gekaufte Positionen handelt, wie zum Beispiel bei
Sponsorenlinks.
Das interne Ranking und die Art der Suchanfrage entscheiden
allein über den Inhalt der Ergebnisliste.
Die Aufgabe des Suchmaschinenoptimierens besteht
darin, seine Seite möglichst weit oben in den Ergebnislisten
erscheinen zu lassen. Um diese Position zu erreichen gibt es eine
ganze Reihe von Techniken, wie zum Beispiel die Verlinkung
mit anderen relevanten Seiten oder die Optimierung der
verwendeten Keywords.
Seitdem es Suchmaschinen gibt, findet ein technischer Wettlauf
zwischen den Robots und den Suchmaschinenoptimierern
statt, in dem es auch darum geht, sich gegenseitig zu
übertreffen.
16. OOP Over Optimization Penalty
Dieser Begriff bedeutet: Eine Strafe für die Überoptimierung
einer Webseite.
Allerdings ist dieser Begriff und seine inhaltliche Interpretation
in den Kreisen von Suchmaschinenoptimierern
stark umstritten und wird intensiv diskutiert.
Google hat mit seinem Florida Update zum Jahreswechsel
2003/ 2004 eine Änderung seiner Algorithmen zur Berechnung
der Rankings beschlossen. Dies hat das Thema der Over
Optimization Penalty in die Diskussion der
Suchmaschinenoptimierer hinein getragen.
Ob jedoch der Begriff Strafe, der ja eher in einem juristischen
Zusammenhang zu sehen ist, das Ganze wirklich auf den Punkt
bringt, wird von Vielen stark bezweifelt.
17. Pagerank
Eine Suchmaschine hilft dem User dann, wenn sie möglichst allgemein gültig – also für
die meisten Besucher – auf eine Suchanfrage gleich welcher Art die wichtigsten
Angebote und Quellen im Netz auflistet. Der Mitbegründer von Google, Larry
Page, und Sergey Brin entwickelten an der Stanford University ein Verfahren, indem
einer mathematischen Formel die Vorstellung eines Zufallssurfers zugrunde gelegt
wurde. Beim patentierten PageRank wird allen Websites eine Bewertungsstufe
zwischen Null und zehn zugeordnet. Je höher der PageRank, desto wichtiger die Seite.
Die Erfahrungen zeigen, dass die meisten Internetseiten im Bereich zwischen eins und
fünf angesiedelt werden. Websites, die professionell für die Suchmaschine Google
optimiert wurden, erreichen etwa die Stufen fünf bis sieben. In der Top-Liga finden
sich nur wenige Seiten, darunter zum Beispiel Wikipedia und Microsoft. Der Pagerank
der Seite eines eingehenden Links wirkt sich auch auf den eigenen Pagerank aus
(„vererbter Pagerank“). Aufgrund der hohen wirtschaftlichen Bedeutung dieses
Messwertes für die Positionierung einer Website auf der Ergebnisliste von Google kam
und kommt es immer wieder zu Manipulationsversuchen. Entsprechend entwickelt
Google – wie auch andere Suchmaschinen – die Bewertungskriterien immer weiter. Als
negativ bzw. unseriös eingestufte Links können auch zur Abwertung oder zum
Ausschluss vom Google-Index führen. Grundsätzlich ist festzustellen, dass der
Pagerank ein durchaus geeignetes Mittel zur Erfassung der Qualität der Linkstruktur
einer Website ist, jedoch nichts über die Qualität der Website aussagt.
18. Querverlinkung
Der Begriff Querverlinkung ist die deutsche Version des englischen
Cross Linking. Ein weiterer deutscher Name ist die Bezeichnung
Kreuzverlinkung. Hier ist die gegenseitige Verlinkung vieler oder aller
Seiten zwischen verschiedenen Websites gemeint.
Im Bereich der Suchmaschinenoptimierung stellt die Querverlinkung
einen taktischen Zug dar, um ein höheres Ranking in den
Ergebnislisten der Suchmaschinen zu erhalten. Denn mit der
Steigerung der Linkpopularität einer Seite, klettert diese gleichzeitig
höher im Pagerank der Suchmaschinen.
Durch eine Kreuzverlinkung hofft der Betreiber einer Webseite auch
auf eine "Vererbung" des Pageranks von der Seite, mit der er einen
Link gekreuzt hat, auf seine Seite.
Doch wie bei fast allen künstlichen Optimierungsmaßnahmen sollte
man auch hier mit Fingerspitzengefühl arbeiten, da eine
Querverlinkung auch als Manipulationsversuch von den
Suchmaschinen geahndet werden kann.
19. Ranking Optimierung
Ranking Optimierung ist ein Metabegriff für alle Maßnahmen, die
dazu dienen, das Ranking einer Seite in den Ergebnislisten der
Suchmaschinen zu verbessern und diesen Status zu behalten.
Das Ziel einer hohen Platzierung in den Ranks kann durch
verschiedene Methoden erreicht werden.
Für den On Page Faktor ist es sehr wichtig, die Seite inhaltlich
suchmaschinenfreundlich zu gestalten. Experten in der
Suchmaschinenoptimierung sorgen dafür, dass die Seite so aufgebaut
ist, dass die Spider der Suchmaschinen die Keywords und Tags lesen
und damit positiv bewerten können.
Bei der Off Page Optimierung einer Seite steht die Verlinkung im
Mittelpunkt des Interesses.
Gute Links stellen eine wertvolle Empfehlung für die Seite dar und
erhöhen damit ihren Wert für die Robots.
20. Spider
Spider heißt ins Deutsche übersetzt eigentlich Spinne. Die Spider sind von
Suchmaschinen eingesetzte Programme. Sie durchsuchen automatisch alle
Webseiten, die bei der jeweiligen Suchmaschine angemeldet sind. Beim ersten
Besuch werden die Inhalte der Webseite gelesen und in den Datenbestand
aufgenommen. In der Folge wird der Spider die Seite, je nach PageRank und
Bedeutung der Seite, in regelmäßigen Abständen erneut besuchen und die
Daten auf Änderungen und Aktualisierungen durchsuchen. Findet das
Programm regelmäßig aktualisierte Inhalte wird sich das positiv auf das neue
Ranking der Seite auswirken.
Um seine Webseite für Suchmaschinen zu optimieren sollte man sie also
möglichst spiderfreundlich gestalten. Auch regelmäßige Aktualisierungen
können das Ranking positiv beeinflussen.
Den Besuch der Spider-Programme kann der Betreiber einer Webseite über
die Logfiles einsehen und analysieren. Stellt man dabei fest, dass die
Abstände zwischen den Besuchen der Spider größer werden sollte man
Maßnahmen ergreifen, um seinen PageRank wieder zu verbessern und damit
seine Webseite besser in den Ergebnissen zu positionieren.
21. Themenrelevanz
Für die Suchmaschinenoptimierung ist es von Bedeutung, dass die Webseite eine hohe
Themenrelevanz zu den gesuchten Keyworten aufweist. Denn wenn dieses Kriterium
erfüllt ist, wird es mit einem guten Ranking von den Suchmaschinen belohnt.
Themenrelevanz erreicht man dadurch, dass zwischen dem Keywort und der
Webseitenadresse eine inhaltliche und/ oder formale Ähnlichkeit besteht. Auch die
Headline des Dokumentes und die Keyworddichte fließt in die Bewertung der
Themenrelevanz mit ein. Die Keyworte sollten im Titel, in den Rubrikenüberschriften
und im gesamten Inhalt der Webseite vorkommen. Dabei sollte man allerdings nicht
übertreiben und die Keyworte ohne Sinn an einanderreihen, denn dies entspricht
weder den Regeln der Suchmaschinen, noch ist es möglich auf diese Art einen gut
lesbaren und damit userfreundlichen Text zu erstellen.
Der Suchmaschinenoptimierer ist bestrebt, viele themenrelevante Links auf die
Webseite zu legen, denn dieses Vorgehen bereitet ein Ansteigen der Popularität und
damit eine bessere Positionierung in den Ergebnislisten der Suchmaschinen.
Ein themenrelevanter Link greift die Keywords und damit den Inhalt der Webseite auf
und verspricht vertiefende Informationen zu diesem Gebiet.
22. Überschriften Tags
Wie bei einer Tageszeitung dienen auch auf einer Internetseite
Überschriften der Orientierung des Lesers bzw. Besuchers. Ihnen
kommt demnach eine im wahrsten Sinne des Wortes herausragende
Bedeutung zu, wenn es darum geht, das Interesse des potentiellen
Kunden zu gewinnen. Diese Bedeutung machen sich auch
Suchmaschinen zu Nutze, wenn sie Überschriften Tags als eines von
mehreren Entscheidungskriterien bei der Bewertung einer Seite
analysieren. Dies übernehmen die sogenannten bots. Überschriften
Tags – auch Headline Tags oder kurz h-Tags – sind im HTML-Format
verfasst, verwenden sechs verschiedene Schriftgrößen – von H1 bis H6
je nach Bedeutung der Headline – und sind bei einigen
Suchmaschinen höher angesehen, als der Text selbst. Die volle
Ausnutzung der 6 Schriftgrößen sollte meistens vermieden werden, da
zum einen die Headlines dann eine Übergewichtung im Verhältnis zu
den eigentlichen Inhalten erfahren, und zum anderen die Gefahr
besteht, dass durch unkorrekte Verteilung der Schriftgrößen die Seite
eine verzerrte Wiedergabe darstellt.
23. Verlinkung
Links sind das Bindeglied zwischen zwei Seiten bzw. Dateien. Um ohne Link von einer auf die
andere Seite zu kommen, müsste man in einem Betriebssystem umständlich die Ordner aufrufen,
in denen sich die Dateien bzw. Textseiten befinden, und im Internet die jeweilige Adresse in die
Suchmaske des Browsers eingeben. Da ist es doch wesentlich einfacher, durch einen einfachen
Klick von einer auf die andere Seite zu gelangen – zum Beispiel wenn man sich für ein Produkt
interessiert und öfter zwischen dem Produktfoto und den Produktinformationen wechseln möchte.
Die Verlinkung einer Internetseite beschreibt deren Einbindung in das World Wide Web. Da es
mittels kleiner Diagnoseprogramme – sogenannte bots – einfachund schnell möglich ist, die
Linkstruktur einer Seite zu analysieren, nutzen Suchmaschinen die Informationen rund um die
Verlinkung einer Website für die Bewertung der Relevanz innerhalb des Internets und damit für
das jeweilige Ranking in der Suchmaschine. Dabei kann man von einer internen und einer
externen Verlinkung sprechen. Eine Domain mit mehreren oder vielen Seiten ist in etwa
vergleichbar mit einem Werbeprospekt oder einem Programmkatalog. Die internen Links
ermöglichen das direkte „umblättern“ voneiner Seite zu jeder anderen, sofern beide miteinander
verlinkt sind. So könnte man zum Beispiel von der Katalogseite 17 mit der Beschreibung des
angebotenen Objekts direkt auf die Seite 42 wechseln, wo das entsprechende Datenblatt zu finden
ist. Eine externe Verlinkung wäre jetzt vergleichbar mit einem Herstellerportal, auf dem man ein
Datenblatt aufrufen kann. Suchmaschinen interessieren sich sehr für die Linkstruktur einer Seite.
Sie bevorzugen dabei vor allem die externe Verlinkung und bewerten dieeingehenden Links höher
als die ausgehenden.
24. White Hat SEO
Das White Hat SEO steht für die reine und ethische Art der Suchmaschinenoptimierung, im Gegensatz zu den
Black Hat SEO, deren Vertreter auch mit unerlaubten Methoden arbeiten.
Ein Suchmaschinenoptimierer, der nach den Prinzipien des White Hat arbeitet, hält sich streng an die Regeln, die
ihm von den Suchmaschinen auferlegt werden. Er optimiert die von ihm gepflegten Seiten ohne unerlaubte Tricks
in einer sauberen Art und Weise. Ein White Hat Seo arbeitet nach Suchmaschinenkonformen Regeln.
Da ein starker Wettbewerb herrscht, ist es mit White Hat SEO Methoden nicht möglich auf die Schnelle ein
bestgerankte Seite zu erstellen. Der Erfolg dieser Seiten liegt in ihrer Nachhaltigkeit, wenn andere Seiten, die
aufgrund von Spamversuchen aus dem Index der Suchmaschinen entfernt wurden und damit das Nachsehen
haben, klettert eine professionell aber sauber optimierte Seite langsam aber sicher ihrem Ziel der oberen
Positionen entgegen. SEO Kunden sollten darauf achten, dass ihr Geschäftspartner kein Black Hat Seo praktiziert.
Es gibt inzwischen einen Zusammenschluss von Suchmaschinenoptimierern, die sich in ihrem Verband
verpflichten, nach den Richtlinien der Suchmaschinen zu arbeiten.
Als Kunde erkennt man White Hat SEOs auch an folgenden Kriterien:
Sie stellen nicht über sich selbst die Behauptung auf, dass sie über spezielle Verbindungen zu Google und/ oder
deren Mitarbeitern verfügen.
Sie geben keine Garantie für ein Nummer 1 Ranking.
Sie verlangen nicht vom Kunden, dass dieser einen Link auf die Seite des Suchmaschinenoptimierers setzt.
Sie verwenden keine automatischen Weiterleitungen, keine Doorway- Pages, keine Schattendomains oder
Brückenseiten.
Sie verwenden weder versteckte Textelemente noch findet das Cloaking bei ihnen Verwendung.
Sie verzichten auf den Einsatz von Linkfarmen.
Die von ihnen optimierten Seiten werden in erster Linie für den Besucher optimiert und benutzerfreundlich
gestaltet.