Die Mehrzahl aller kommerziellen Medizin-Websites haben in den Suchmaschinen mit dem Problem einer sub-optimalen Sichtbarkeit ihrer Text-Informationen  zu kämpfen. 

Bei den meisten thematisch in Frage kommenden Leit-Suchbegriffen, nach denen die Besucher tatsächlich recherchieren, tauchen zu der Website verweisende Links  nicht auf Seite 1 der aktuell generierten Recherchelisten,  im  populären Link-Segment 1.-10. auf.

Die Unternehmens-Website kann dann die Öffentlichkeitarbeit und das online Marketing nicht optimal unterstützen, da die werbenden Informationen im Internet nur schwer zu finden sind.

Diese 5 weit verbreiteten Vorurteile, und die sich daraus ergebenden Fehlentscheidungen,  erschweren  Problemlösung:

 

 

Vorurteil 1: der Google-PageRank ist wichtig

Das Vorurteil, dass der sog. "Google PageRank" in den Suchmaschinen über die Ranking-Positionen und damit die  Sichtbarkeit einer Website  entscheidet,  trifft schon seit vielen Jahren nicht mehr zu.

mehr lesen

 

Vorurteil 2: Backlinkstrategie  -"viel hilft viel"

Ein weit verbreitetes Vorurteil lautet:
"Je mehr Backlinks auf die eigene Website verweisen, um so besser ist das Ranking in den Suchmaschinen  -  und damit die Sichtbarkeit im Internet. "

Das war vor vielen Jahren tatsächlich so - heute ist diese Meinung aber überholt.   Längst ist die Zahl der Backlinks nicht mehr wichtig für die Bewertung einer Website durch die Suchmaschinen. Derzeit kommt es weniger auf die Zahl der Backlinks an, sondern viel mehr auf die "Qualität" der von den Backlink-Trackern entdeckten Links.

mehr lesen

 

Vorurteil 3:  "das Web-Design und die Text-Qualität sind für den Erfolg einer Website von entscheidender Bedeutung".

Viele Internet-Publizisten meinen, dass neben einem gelungenen Design der Website die semantische und wissenschaftliche Qualität der publizierten Texte entscheidend dafür sind, dass die Suchmaschinen die jeweilige Website in den generierten Recherchelisten weit oben (sog. Top-Ranking) in ihren Index einsortieren.

Diese Annahme ist völlig falsch.  Die   Suchmaschinen-Algorithmen können weder das Design einer Website, noch die wissenschaftliche Qualität der veröffentlichten Informationen analysieren und bewerten. Nur in seltenen Fällen sind Menschen in den Bewertungsvorang involviert.  Und dann geht es um Politik und nicht um Wissenschaft.

Daher kommt es vor, dass konventionell gestaltete Websites mit fragwürdigen Texten in den Suchmaschinen besser sichtbar sind,  als Websites, die mit großem Zeit- und Finanzaufwand gestaltet wurden und seriöse wissenschaftliche Informationen präsentieren.

Für die Ranking-Positionen sind erster Linie Faktoren wichtig,  die von den Herausgebern einer Website kaum,  bzw. nicht zu  beeinflussen sind. 
In erster Linie kommt es auf die Zahl der zuweisenden Qualitäts-Backlinks an.

In die Bewertung einer Website fließt auch ein, wie oft die Texte erneuert und ergänzt werden.

mehr lesen

 

Vorurteil 4:  Google sortiert und  listet Links wertneutral.

Dies gilt nicht mehr,  seit es das Problem der sog. "Google-Filterblase" gibt.

Immer häufiger sehen Google-Nutzer nämlich bei einer Recherche "manipulierte" Such-Ergebnisse.  Diese sind dann nicht, wie noch vor wenigen Jahren üblich, mit jenen Such-Ergebnissen identisch, die ein anderer Nutzer bei einer zeitgleich auf einem anderen Computer durchgeführten Recherche nach dem gleichen Suchbegriff  angezeigt bekommt.
Der Google-Such-Algorithmus orientiert sich immer mehr an der persönlichen Such-Vorgschichte des jeweiligen Individuums auf dem jeweiligen Computer. 

Google listet bevorzugt jene Links auf, von denen der Algorithmus annimmt, dass sie am besten zu den aktuellen Informations-Interessen des  Nutzers passen.
Der Nutzer bekommt dann beispielsweise vermehrt Links angezeigt, die zu Inhalten des eigenen Internet-Auftritts verweisen, da er diese Seiten  in der Vergangenheit oft aufgerufen hat.
Dadurch entsteht beim Nutzer zwangsläufig ein unrealistisch positiver Eindruck vom Erfolge der eigenen online Öffentlichkeitsarbeit, bzw. seines online Marketings. 

Doch nur er selbst sieht die Ergebnisse der Rechercheliste - den Mitgliedern der Zielgruppen werden oft  abweichende Rechercheergebnisse angezeigt,  die weniger positiv ausfallen.

mehr lesen

 

Vorurteil 5:  ein von Analyse-Tools errechneter sog. "Sichtbarkeitsindex" soll angeblich dabei helfen, den  kommerziellen Nutzen einer Website einzuschätzen.

Diese Ansicht beruht auf falschen Annahmen und führt daher zwangsläufig in die Irre. Diese beliebten generischen Tools haben meist keinen nachweisbaren Nutzeffekt, da sich die Zukunft nun mal nicht zhuverlässig voraussagen läßt.  
Um den sog. Sichtbarkeitsindex zu errechnen, nutzen die Hersteller der Tools einige hunderttausend Suchbegriffe aus allen Lebensbereichen und versuchen durch Verwertung in der Vergangenheit angefallener bruchstückhafter Daten,  für bestimmte Websites die Häufigkeit zukünftiger Seitenaufrufe (Traffic) vorherzusagen.  Eine Art "Kaffeesatz lesen".

Dies gelingt bei spezialisierten "Nischen-Websites" , wie beispielsweise bei Medizin-Websites, nicht einmal ansatzweise.  Hier sind die  von der generischen Software kalkulierten "Sichtbarkeitsindices" falsch und daher nutzlos, da die für diese Nischen-Websites wichtigen Suchbegriffe in den Schlüsselwort-Sammlungen der jeweiligen Tools kaum oder überhaupt nicht enthalten sind. 
Und zu den tatsächlich angefallenen Daten haben Dritte keinen Zugang und können sie daher nicht auswerten. 

Zahlreiche tatsächlich erfolgte Seitenaufrufe können daher aufgrund der Rahmenbedingungen des Internets auch dann keinen guten errechneten Sichtbarkeitsindex bewirken - wenn sie im Internet perfekt zu sehen sind und oft aufgerufen werden.

Die tatsächliche Sichtbarkeit läßt sich eben nur anhand der automatisch in den logfiles der Internet-Provider abgespeicherten Zahl der tatsächlichen Seitenaufrufe zuverlässig beurteilen. Und zu denen haben die Autoren der generischen Tools nun mal keinen legalen Zugang. Daher die Rechenmodelle.
mehr lesen

Vorurteil 6: es ist bei der onpage SEO besonders wichtig, die Seiten unter Beachtung der schon mehrmals willkürlich veränderten Google-Regeln möglichst zu optimieren.

Das ist überwiegend falsch. Natürlich schadet es nicht, wenn man sich bemüht, den Google-Regeln zu entsprechen. Doch dies ist praktisch extrem zeit- und kostenaufwändig aufwändig -  aber meist auch nutzlos, da die Regeln im Prinzip bekannt sind und daher auch alle Mittbewerber dazu motivieren,  den gleichen Regeln zu folgen.

Regeltreue hat aber nur dann greifbare Vorteile, wenn sich die unmittelbaren Mitbewerber nicht an diese Regeln halten und so von der als Geschäftsgeheimnis betrachteten Google-Software abgestraft werden.

Es handelt sich sozusagen um ein Nullsummen-Spiel.

Je mehr die Regeln beachtet werden, um so weniger nützlich ist dies.  Die Nutzer der Suchmaschine Google beachten - wie wissenschaftliche Studien gezeigt haben - überwiegend  nur die auf Seite 1 der in Echtzeit generierten Rechercheliste  angezeigten Links 1.-10.   Weniger als 5% der Nutzer sehen sich die auf Seite 2 der Rechercheliste präsentierten  Treffer 11.-20.an bzw. rufen die Links auf.

Für die Mehrzahl der Internet-Publizisten ist es daher ohne wirkliche Bedeutung, ob sie überhaupt in Google gelistet werden - niemand findet die Websites - es sei denn er sucht direkt nach einem Firmen oder Produkt-Namen. Doch wer kennt diese schon?

Da die Herausgeber der meisten kommerziellen Websites sich darum bemühen, diese möglichst Google-konform zu gestalten, oder gestalten zu lassen,   passen selbst optimal konzipierte Seiten nicht in das von den Usern exklusiv beachtete Linksegment 1.-10. (1.-20).  Wie sollten sie auch, wenn bei einem üblichen Suchvorgang zehn- bis hunderttausende von thematisch passenden Links gelistet werden - von denen nur die ersten zehn beachtet werden?

Es hat aber keinen Nutzeffekt, wenn Websites nach einer  aufwändigen und teuren "Optimierung" der Website beispielsweise in der  336.000 Links umfassenden Linkliste einer Suchmaschine von der Position 10.554 auf Platz 943 vorrücken.  Beachtet werden nach wie vor nur die ersten zehn Links - bestenfalls noch weitere zehn.

Viel wichtiger ist es daher in der Praxis, dass die Links zu den eigenen Webseiten in  "Google-Alternativen"  wie Microsoft Bing, DuckDuckGo, Ecosia, Lycos, MetaGer, SwissCows  oder Yahoo gut platziert sind. Also auf Seite 1 einer Linkliste im Linksegment 1.-10. präsentiert werden.

Und dies ist aufgrund weniger komplizierter Regelwerke einfacher zu erreichen als das angestrebte Top-Ranking in Google.
Die Chancen für Links in den Bereich 1.-10. vorzudringen, entspricht etwa der  Chance im Lotto einen Hauptgewinn zu erzielen. Und noch eine Erinnerung: selbst wenn einmal ein Link ein Top-Ranking erzielt, dann bedeutet das keinesfalls, dass der Link auch aufgerufen wird.