9.3.2014

Die im Internet beworbenen und häufig genutzten "Sichtbarkeitsindices" basieren auf generischen,  nicht standardisierten Modell-Rechnungen privater Unternehmer, die nichts über den kommerziellen Nutzen spezialisierter Nischen-Websites aussagen  - weder bezogen auf die Vergangenheit und natürlich erst recht nicht in der Zukunft.
Insbesondere können sie  bei der Bewertung von Nischen-Websites - nichts über die  zukünftige Nutzung dieser Websites aussagen.

Ein der Werbung dienender Internet-Auftritt ist nur dann ein kommerzieller Erfolg, wenn die Websites auf denen die werbenden Informationen eingefügt sind, möglichst häufig aufgerufen - und die Inhalte dann auch gelesen sowie die Produkte gekauft und die Dienstleistungen in Anspruch genommen werden.
werden.
Diese Faktoren sind im nachhinein festzustellen - nicht in Prognosen vorausgesagt werden.
Eine Website ist erfolgreich, wenn viele Backlinks auf sie verweisen und die publizierten werbenden Inhalte  in möglichst vielen Suchmaschinen, bei der Recherche nach thematisch in Frage kommenden Leit-Suchbegriffen,  gut sichtbar sind und daher von den Mitgliedern der Zielgruppen schnell und unkompliziert gefunden und gelesen werden können.

Gut sichtbar sind Websites dann, wenn zu ihnen verweisende Links in möglichst allen relevanten Suchmaschinen auf Seite 1 der generierten Linkliste im Linksegment 1.-10. enthalten sind - dies selbst dann, wenn  bei einem Suchbegriff Millionen von Links im Index enthalten sind.

Doch selbst das sagt nur etwas darüber aus, wie gut die Sichtbarkeit in den jeweiligen Suchmaschinen ist und überhaupt nichts darüber, wie oft die gut sichtbaren Seiten dann auch tatsächlich aufgerufen und die Inhalte gelesen werden.  Und die Daten sagen auch nichts darüber aus, wie oft beworbene Produkte und Dienstleistungen gekauft,  bzw. genutzt werden.
Auf  Zugriffsstatistiken hat aber nur der Eigentümer der Websites direkten und legalen Zugriff und nicht die werbetreibende Industrie -weder Personen, noch Bots, die automatisch und ohne Involvierung von Menschen öffentlich zugängliche Daten sammeln und einer Datenbank und generischen Modellrechnungen zuführen.

Dieses unlösbare Problem versuchen geschäftstüchtige Werbetreibende  durch die Nutzung generischer Software  zu umgehen, die rein statistisch rechnerisch die in der Vergangenheit von Google erfasste und in einem Index sortierte Suchbegriffe zu jenen Leit-Suchbegriffen in Beziehung setzt, die für die zu bewertende Websites wichtig sind.

Dieses Wirk-Konzept funktioniert bei kleinen, thematisch hochspezialisierten Websites schon vom Prinzip her nicht, da diese  relevanten Leit-Suchbegriffe der Nischenwebsites in den Google- Datenbanken oft überhaupt keine Rolle spielen. Es kommt hinzu, dass nur Google-Daten in die Schätzungen der jeweiligen Software einfließen - aber nicht die Daten der mindestens 10 anderen weltweit relevanten Suchmaschinen.

 
"Pfeif auf die Sichtbarkeit!"- meint die auf das Thema SEO fokussierte Website www.seokratie.de und bezieht sich damit natürlich nicht auf die tatsächliche Sichtbarkeit einer Website.  Pfeifen soll man nur auf mit Nutzung undurchschaubarer, nicht standardisierter  Daten von Privatunternehmen, die aus  fragwürdigen Quellen stammende Datensammlungen dazu benutzen, um sog. "Sichtbarkeitsindicis" zu errechnen.   
Die Aussagen dieser Algorithmen kann man glauben - oder besser nicht.  Vom Prinzip her sind sie ähnlich zuverlässig wie jene "wissenschaftlichen" Daten, die mit Hilfe von Methoden wie Astrologie, Wahrsagen,  Kaffeesatz lesen oder Homöopathie-Studien gewonnen wurden.

Je höher die Zahl  der in den logfiles automatisch registrierten HTML-Seitenaufrufe einer Website ist, um so besser ist logischerweise die generelle Sichtbarkeit des analysierten Internet-Auftritts. Wären die Seiten nicht gut sichtbar, so würden sie nicht aufgerufen. 

Nur Websites, die, wie die Medizin-Mikro-Websites des Info-Netzwerk Medizin 2000,  durch eine hohe Zahl täglicher Aufrufe der HTML-Seiten eine optimale Sichtbarkeit und bei populären Leit-Suchbegriffen in möglichst vielen relevanten Suchmaschinen  ein Top-Ranking haben, sollten sinnvollerweise als Werbe- und Informations-Medium genutzt werden.

Die HTML-Seiten des Info-Netzwerk Medizin 2000  werden von den Nutzern laut der automatisch erstellten logfiles des Internet-Providers IONOS  pro Tag  einige zehntausend mal  aufgerufen.  Und 340.000 Qualitäts-Backlinks verweisen allein auf die Portal-Website www.medizin-2000.de und deren Unterverzeichnisse.

Wichtig ist natürlich auch das Ranking populärer Leit-Suchbegriffe in Suchmaschinen wie Microsoft Bing, DuckDuckGo und andere, die für die eigene Suchfunktion den Suchindex von Microsoft Bing nutzen. Beispiele hier:

https://lahave-media.com/ranking-erfolge/google_alternativen.html

Die umstrittenen Analyse-Tools privater Anbieter versuchen  mit Hilfe grob geschätzter Google-Nutzerdaten der Vergangenheit die in Zukunft zu erwartende Zahl der Seitenaufrufe  ( sog. Traffic )  zu prognostizieren. Was reine Spekulation ist.

"Wie aussagekräftig ist ein von Privatfirmen errechneter Sichtbarkeitsindex?" fragt die Redaktion einer anderen auf den Themenkomplex Search Engine Optimization (SEO)  fokussierten Website  - https://www.seo-kueche.de -  und gibt den Skeptikern Recht:

"Ein errechneter Sichtbarkeitsindex ist lediglich eine Metrik von vielen, um beispielsweise im Rückblick den Erfolg oder Misserfolg von kürzlich durchgeführten SEO-Maßnahmen abzuschätzen.  Aber ein Anstieg im Sichtbarkeitsindex ist nicht automatisch mit einem ansteigenden organischen Traffic (Zahl der tatsächlich erfolgten Seitenaufrufe) verbunden.
Genauso gut kann der organische Traffic auch sinken, obgleich der geschätzte Sichtbarkeitsindex der Website ansteigt."

Nischen-Internet-Auftritte  wie das hochspezialisierte Info-Netzwerk Medizin 2000 informieren definitionsgemäß in erster Linie über Nischen-Themen aus der Medizin.  Die zu diesen Projekten passenden Leit-Suchbegriffe (keywords) sind auf der überwältigenden Mehrzahl der im Internet geposteten Websites nicht enthalten und können so logischerweise in den Google-Datenbanken kaum indexiert werden.

Sie können daher von den in die Hunderttausende oder gar Millionen gehenden “Keyword-Sammlungen”  gängiger Analyse-Tools  nicht oder kaum abgedeckt werden. 

Das erklärt, warum ein irgendwie geschätzter "Sichtbarkeitsindex" oft selbst bei tatsächlich sehr gut sichtbaren,  tausendfach aufgerufenen Nischen-Websites angeblich bei Null liegt.

Einige  zufällig ausgewählte Beispiele für die in der Vergangenheit bei populären Leit-Suchbegriffen erzielte Ranking-Erfolge sind
hier zu sehen.