Die Mehrzahl aller kommerziellen
Medizin-Websites
haben in den Suchmaschinen mit dem
Problem einer sub-optimalen
Sichtbarkeit ihrer Text-Informationen zu kämpfen.
Bei den meisten thematisch in Frage
kommenden Leit-Suchbegriffen, nach denen
die Besucher tatsächlich recherchieren,
tauchen zu der Website verweisende Links
nicht auf Seite 1 der
aktuell generierten Recherchelisten, im
populären Link-Segment
1.-10. auf.
Die Unternehmens-Website kann dann die
Öffentlichkeitarbeit und das
online Marketing nicht optimal
unterstützen, da die werbenden
Informationen im Internet nur schwer zu finden sind.
Diese 5 weit verbreiteten
Vorurteile, und die sich daraus
ergebenden Fehlentscheidungen,
erschweren Problemlösung:
Vorurteil 1: der Google-PageRank
ist wichtig
Das Vorurteil, dass
der sog. "Google PageRank" in den
Suchmaschinen über die
Ranking-Positionen und damit die
Sichtbarkeit einer Website
entscheidet, trifft schon seit
vielen Jahren nicht mehr zu.
Vorurteil 2:
Backlinkstrategie -"viel hilft
viel"
Ein weit verbreitetes Vorurteil lautet:
"Je mehr
Backlinks auf die eigene Website
verweisen, um so besser ist das Ranking
in den Suchmaschinen - und damit die
Sichtbarkeit im Internet. "
Das war vor vielen Jahren tatsächlich so - heute ist
diese Meinung aber überholt.
Längst ist die Zahl
der Backlinks
nicht mehr wichtig für die
Bewertung einer Website durch die
Suchmaschinen. Derzeit kommt es weniger
auf die Zahl der Backlinks an, sondern
viel mehr auf die "Qualität" der von den
Backlink-Trackern entdeckten Links.
Vorurteil 3: "das Web-Design
und die Text-Qualität sind für den
Erfolg einer Website von entscheidender
Bedeutung".
Viele Internet-Publizisten
meinen, dass neben einem gelungenen
Design der Website die semantische und
wissenschaftliche Qualität der
publizierten Texte
entscheidend dafür sind, dass die
Suchmaschinen die jeweilige Website in den
generierten Recherchelisten weit oben (sog. Top-Ranking)
in ihren Index einsortieren.
Diese Annahme ist völlig falsch. Die
Suchmaschinen-Algorithmen können weder das Design einer Website, noch die
wissenschaftliche Qualität der
veröffentlichten Informationen
analysieren und bewerten.
Nur in seltenen Fällen sind Menschen in
den Bewertungsvorang involviert. Und dann geht es um
Politik und nicht um Wissenschaft.
Daher kommt es
vor, dass konventionell gestaltete Websites mit
fragwürdigen Texten in den Suchmaschinen
besser sichtbar sind, als
Websites, die
mit großem Zeit- und Finanzaufwand
gestaltet wurden und seriöse
wissenschaftliche Informationen präsentieren.
Für die Ranking-Positionen sind erster
Linie Faktoren
wichtig,
die von den Herausgebern einer Website kaum,
bzw. nicht zu
beeinflussen sind. In erster Linie
kommt es auf die Zahl der zuweisenden
Qualitäts-Backlinks an.
In die Bewertung einer Website fließt
auch ein, wie oft die Texte erneuert und
ergänzt werden.
Vorurteil 4: Google
sortiert und listet Links
wertneutral.
Dies gilt
nicht mehr, seit es das
Problem der
sog.
"Google-Filterblase" gibt.
Immer häufiger sehen
Google-Nutzer nämlich bei einer Recherche
"manipulierte"
Such-Ergebnisse. Diese sind
dann nicht, wie noch vor wenigen Jahren üblich, mit jenen Such-Ergebnissen identisch, die ein anderer Nutzer
bei einer zeitgleich auf einem anderen
Computer durchgeführten Recherche nach
dem gleichen Suchbegriff angezeigt bekommt.
Der Google-Such-Algorithmus orientiert sich
immer mehr an der persönlichen Such-Vorgschichte des
jeweiligen Individuums auf dem
jeweiligen Computer.
Google listet bevorzugt
jene Links auf, von denen der
Algorithmus annimmt, dass sie am
besten zu den aktuellen
Informations-Interessen des Nutzers
passen. Der Nutzer bekommt dann
beispielsweise vermehrt
Links angezeigt, die zu Inhalten des eigenen
Internet-Auftritts verweisen, da er
diese Seiten in der Vergangenheit
oft aufgerufen hat. Dadurch entsteht
beim Nutzer zwangsläufig ein
unrealistisch
positiver Eindruck vom Erfolge der
eigenen online Öffentlichkeitsarbeit,
bzw. seines online Marketings.
Doch nur er selbst sieht die Ergebnisse
der Rechercheliste - den Mitgliedern der
Zielgruppen werden oft
abweichende Rechercheergebnisse
angezeigt, die weniger positiv
ausfallen.
Vorurteil 5: ein von
Analyse-Tools errechneter sog.
"Sichtbarkeitsindex" soll angeblich
dabei helfen, den kommerziellen
Nutzen einer Website einzuschätzen.
Diese Ansicht
beruht auf falschen
Annahmen und führt daher zwangsläufig in die
Irre. Diese beliebten generischen Tools haben meist
keinen nachweisbaren Nutzeffekt, da sich
die Zukunft nun mal nicht zhuverlässig
voraussagen läßt.
Um den sog. Sichtbarkeitsindex zu
errechnen, nutzen die Hersteller der
Tools einige
hunderttausend Suchbegriffe aus allen
Lebensbereichen und versuchen durch Verwertung
in der Vergangenheit angefallener
bruchstückhafter Daten, für
bestimmte Websites die Häufigkeit
zukünftiger Seitenaufrufe (Traffic)
vorherzusagen. Eine Art
"Kaffeesatz lesen". Dies
gelingt bei spezialisierten "Nischen-Websites" , wie beispielsweise bei
Medizin-Websites, nicht einmal
ansatzweise. Hier sind
die von der generischen Software kalkulierten "Sichtbarkeitsindices"
falsch und daher nutzlos, da die für diese
Nischen-Websites wichtigen Suchbegriffe
in den Schlüsselwort-Sammlungen der
jeweiligen Tools
kaum oder überhaupt nicht enthalten
sind. Und zu den tatsächlich
angefallenen Daten haben Dritte keinen
Zugang und können sie daher nicht
auswerten.
Zahlreiche
tatsächlich erfolgte Seitenaufrufe können daher
aufgrund der Rahmenbedingungen des
Internets auch dann
keinen guten errechneten Sichtbarkeitsindex
bewirken
- wenn sie im Internet perfekt zu sehen
sind und oft aufgerufen werden.
Die
tatsächliche Sichtbarkeit läßt sich eben nur
anhand der automatisch in den logfiles
der Internet-Provider abgespeicherten
Zahl der tatsächlichen Seitenaufrufe
zuverlässig beurteilen. Und zu denen
haben die Autoren der generischen Tools
nun mal keinen legalen Zugang. Daher die
Rechenmodelle.
mehr lesen
Vorurteil
6: es ist bei der onpage SEO besonders
wichtig, die Seiten unter Beachtung der
schon mehrmals willkürlich veränderten Google-Regeln
möglichst zu optimieren.
Das ist überwiegend falsch.
Natürlich schadet es nicht,
wenn man sich bemüht, den Google-Regeln
zu entsprechen. Doch dies ist praktisch
extrem zeit- und kostenaufwändig aufwändig
- aber meist auch nutzlos, da die
Regeln im Prinzip bekannt sind und daher auch
alle Mittbewerber dazu motivieren, den gleichen Regeln
zu folgen.
Regeltreue hat aber
nur dann greifbare Vorteile, wenn sich
die unmittelbaren Mitbewerber nicht an
diese Regeln halten und so von der als
Geschäftsgeheimnis betrachteten
Google-Software abgestraft werden.
Es handelt sich sozusagen um ein
Nullsummen-Spiel.
Je mehr die
Regeln beachtet werden, um so weniger
nützlich ist dies. Die Nutzer der
Suchmaschine
Google beachten - wie wissenschaftliche
Studien gezeigt haben - überwiegend nur die auf Seite 1
der in Echtzeit generierten
Rechercheliste angezeigten Links
1.-10. Weniger als 5% der
Nutzer sehen sich die auf Seite 2 der
Rechercheliste präsentierten Treffer 11.-20.an
bzw. rufen die Links auf.
Für die Mehrzahl der
Internet-Publizisten ist es daher ohne
wirkliche Bedeutung, ob sie überhaupt in Google
gelistet werden - niemand findet die
Websites - es sei denn er sucht direkt
nach einem Firmen oder Produkt-Namen. Doch
wer kennt diese schon?
Da die
Herausgeber der meisten kommerziellen Websites
sich darum bemühen, diese möglichst Google-konform
zu gestalten, oder
gestalten zu lassen, passen
selbst optimal konzipierte Seiten nicht
in das von den Usern exklusiv beachtete Linksegment 1.-10.
(1.-20). Wie sollten sie auch,
wenn bei einem üblichen Suchvorgang
zehn- bis hunderttausende von thematisch
passenden Links gelistet werden - von
denen nur die ersten zehn beachtet
werden?
Es hat aber
keinen Nutzeffekt, wenn Websites nach
einer aufwändigen und teuren "Optimierung"
der Website beispielsweise in der
336.000 Links umfassenden Linkliste
einer Suchmaschine von der Position 10.554
auf Platz 943 vorrücken. Beachtet
werden nach wie vor nur die ersten zehn
Links - bestenfalls noch weitere zehn.
Viel
wichtiger ist es daher in der Praxis,
dass die Links zu den eigenen Webseiten
in "Google-Alternativen" wie
Microsoft Bing, DuckDuckGo,
Ecosia, Lycos, MetaGer,
SwissCows
oder Yahoo gut platziert
sind. Also auf Seite 1 einer Linkliste
im Linksegment 1.-10. präsentiert
werden.
Und dies ist aufgrund
weniger komplizierter Regelwerke
einfacher zu erreichen als das
angestrebte Top-Ranking in Google.
Die Chancen für Links in den Bereich
1.-10. vorzudringen, entspricht etwa der
Chance im Lotto einen Hauptgewinn zu
erzielen. Und noch eine Erinnerung:
selbst wenn einmal ein Link ein
Top-Ranking erzielt, dann bedeutet das
keinesfalls, dass der Link auch
aufgerufen wird.
|