9.3.2014
Die im Internet beworbenen und häufig genutzten "Sichtbarkeitsindices" basieren auf generischen, nicht
standardisierten Modell-Rechnungen
privater Unternehmer, die nichts über den kommerziellen Nutzen spezialisierter Nischen-Websites aussagen -
weder bezogen auf die Vergangenheit und natürlich erst recht nicht in der Zukunft.
Insbesondere können sie bei
der Bewertung von Nischen-Websites -
nichts über die zukünftige Nutzung
dieser Websites aussagen.Ein der Werbung
dienender Internet-Auftritt
ist nur dann ein kommerzieller Erfolg,
wenn die Websites auf denen die
werbenden Informationen eingefügt sind,
möglichst häufig aufgerufen - und die
Inhalte dann auch gelesen sowie die
Produkte gekauft und die
Dienstleistungen in Anspruch genommen
werden. werden. Diese Faktoren
sind im nachhinein festzustellen - nicht
in Prognosen vorausgesagt werden.
Eine Website ist erfolgreich, wenn viele
Backlinks auf sie verweisen und die publizierten
werbenden Inhalte
in möglichst vielen Suchmaschinen, bei
der Recherche nach
thematisch in Frage kommenden
Leit-Suchbegriffen, gut sichtbar sind und daher von
den Mitgliedern der Zielgruppen schnell
und unkompliziert gefunden und
gelesen werden können.
Gut sichtbar
sind Websites dann, wenn zu ihnen
verweisende Links in
möglichst allen relevanten Suchmaschinen auf Seite 1 der
generierten Linkliste im Linksegment 1.-10.
enthalten sind - dies selbst dann, wenn
bei einem Suchbegriff Millionen von Links
im Index enthalten sind.
Doch
selbst das sagt nur etwas darüber aus,
wie gut die Sichtbarkeit in den
jeweiligen Suchmaschinen ist und
überhaupt nichts darüber, wie oft die
gut sichtbaren Seiten dann auch
tatsächlich aufgerufen und die Inhalte
gelesen werden. Und die Daten
sagen auch nichts darüber aus, wie oft
beworbene Produkte und Dienstleistungen
gekauft, bzw. genutzt werden.
Auf Zugriffsstatistiken hat aber nur der Eigentümer der
Websites direkten und legalen Zugriff
und nicht die werbetreibende Industrie
-weder Personen, noch Bots, die
automatisch und ohne Involvierung von
Menschen öffentlich zugängliche Daten
sammeln und einer Datenbank und
generischen Modellrechnungen zuführen.
Dieses
unlösbare Problem
versuchen geschäftstüchtige Werbetreibende
durch die
Nutzung generischer Software zu
umgehen, die rein statistisch
rechnerisch die in der Vergangenheit
von Google erfasste und in einem Index
sortierte Suchbegriffe zu
jenen Leit-Suchbegriffen in Beziehung setzt, die
für die zu bewertende Websites wichtig sind.
Dieses Wirk-Konzept funktioniert bei kleinen,
thematisch hochspezialisierten Websites
schon vom Prinzip her nicht, da diese relevanten
Leit-Suchbegriffe der Nischenwebsites in den
Google-
Datenbanken oft überhaupt keine Rolle
spielen. Es kommt hinzu, dass nur
Google-Daten in die Schätzungen
der jeweiligen Software einfließen - aber nicht die Daten der
mindestens 10 anderen weltweit
relevanten Suchmaschinen.
"Pfeif auf die Sichtbarkeit!"- meint
die auf das Thema SEO fokussierte Website
www.seokratie.de und bezieht
sich damit natürlich nicht auf die
tatsächliche Sichtbarkeit einer Website. Pfeifen soll
man nur auf mit Nutzung undurchschaubarer,
nicht standardisierter Daten von
Privatunternehmen, die aus
fragwürdigen Quellen stammende
Datensammlungen dazu benutzen, um sog. "Sichtbarkeitsindicis"
zu errechnen.
Die Aussagen dieser Algorithmen kann man glauben - oder
besser nicht. Vom Prinzip her sind
sie
ähnlich zuverlässig wie jene
"wissenschaftlichen" Daten, die
mit Hilfe von Methoden wie Astrologie, Wahrsagen, Kaffeesatz
lesen oder Homöopathie-Studien gewonnen wurden.
Je höher
die Zahl der in den logfiles
automatisch registrierten
HTML-Seitenaufrufe einer Website ist, um
so besser ist logischerweise die generelle Sichtbarkeit des
analysierten Internet-Auftritts. Wären
die Seiten nicht gut sichtbar, so würden
sie nicht aufgerufen.
Nur Websites,
die, wie die Medizin-Mikro-Websites des
Info-Netzwerk Medizin 2000,
durch eine hohe Zahl täglicher
Aufrufe der HTML-Seiten eine
optimale Sichtbarkeit und bei populären
Leit-Suchbegriffen in möglichst vielen
relevanten Suchmaschinen ein Top-Ranking
haben, sollten sinnvollerweise als Werbe-
und Informations-Medium genutzt werden.
Die
HTML-Seiten des Info-Netzwerk Medizin
2000 werden von
den Nutzern laut
der automatisch erstellten logfiles des
Internet-Providers IONOS pro Tag
einige zehntausend mal aufgerufen.
Und 340.000
Qualitäts-Backlinks verweisen allein auf
die Portal-Website
www.medizin-2000.de und deren
Unterverzeichnisse.
Wichtig ist
natürlich auch das Ranking populärer
Leit-Suchbegriffe in Suchmaschinen wie
Microsoft Bing, DuckDuckGo und andere,
die
für die eigene Suchfunktion den
Suchindex von Microsoft Bing nutzen.
Beispiele hier:
https://lahave-media.com/ranking-erfolge/google_alternativen.html
Die umstrittenen Analyse-Tools
privater Anbieter versuchen mit Hilfe
grob geschätzter
Google-Nutzerdaten der
Vergangenheit die in Zukunft zu erwartende Zahl der
Seitenaufrufe ( sog. Traffic )
zu prognostizieren. Was reine
Spekulation ist.
"Wie aussagekräftig ist ein
von Privatfirmen errechneter Sichtbarkeitsindex?" fragt
die Redaktion einer anderen auf den Themenkomplex
Search Engine Optimization (SEO)
fokussierten Website
-
https://www.seo-kueche.de
-
und gibt den Skeptikern Recht:
"Ein errechneter Sichtbarkeitsindex ist
lediglich eine Metrik von vielen, um
beispielsweise im
Rückblick den Erfolg oder Misserfolg von
kürzlich durchgeführten SEO-Maßnahmen
abzuschätzen.
Aber ein Anstieg im Sichtbarkeitsindex ist nicht automatisch mit einem
ansteigenden organischen Traffic
(Zahl der tatsächlich erfolgten
Seitenaufrufe) verbunden. Genauso gut kann der
organische Traffic auch sinken, obgleich der
geschätzte Sichtbarkeitsindex der
Website
ansteigt."
Nischen-Internet-Auftritte
wie das hochspezialisierte Info-Netzwerk Medizin 2000 informieren definitionsgemäß in erster Linie über
Nischen-Themen aus der Medizin. Die zu diesen
Projekten passenden Leit-Suchbegriffe (keywords) sind
auf der überwältigenden Mehrzahl der im
Internet geposteten Websites nicht
enthalten und können so logischerweise
in den Google-Datenbanken kaum indexiert
werden.
Sie
können daher von den in die
Hunderttausende oder gar Millionen gehenden
“Keyword-Sammlungen” gängiger Analyse-Tools
nicht oder kaum
abgedeckt werden.
Das erklärt, warum ein
irgendwie geschätzter
"Sichtbarkeitsindex" oft selbst bei
tatsächlich sehr gut sichtbaren,
tausendfach
aufgerufenen Nischen-Websites
angeblich bei Null liegt.
Einige zufällig ausgewählte Beispiele für die in der Vergangenheit
bei populären Leit-Suchbegriffen erzielte Ranking-Erfolge
sind hier
zu sehen.
|