Wo Stehst Du
Die verlässlichsten Informationen liefert das Tool selbsterklärend bei unverwechselbaren Markennamen. Tools für Statistiken von Social-Media-Accounts Google ist heute nicht mehr der einzige, und für viele Websites auch nicht mehr der wichtigste Traffic-Lieferant. Viele Publisher sind nicht mehr nur mit einer eigenen Seite vertreten, sondern auch mit Profilen auf diversen Social-Media-Plattformen. Will man wissen, wie erfolgreich eine Seite ist, so es sinnvoll sein, solche Profile ebenfalls zu scannen – Fan-Zahlen, Interaktionen, Abrufzahlen von Videos, etc. Auch hierfür existieren zahlreiche Statistik-Dienste: Socialbakers veröffentlicht beispielsweise regelmäßig Zahlen über die größten und die interaktionsstarksten deutschen Facebook-Pages. Bei Socialblade lassen sich Informationen über die größten deutschen Youtuber finden; zudem Daten über die weltweit reichweitenstärksten Instagram- und Twitch-Nutzer. Für eine Auswertung dazu, wie häufig eine Seite bei Twitter verlinkt wird, kann das Tool Topsy von Nutzen sein.
Die kostenlose Variante liefert Zahlen zu monatlichen Besucherzahlen und sogar der zeitlichen Entwicklung. Auch die Verteilung des Traffics auf Kanäle wie Search, Direct, Social, Mail ist möglich sowie die geografische Verteilung der Besucher der Website. Similar Web generiert seine Ergebnisse auf Basis von Hochrechnungen der Daten aus unterschiedlichen Quellen. Sie basieren auf Werten, die mit Browserplugins und dergleichen gesammelt werden. Exakte Schätzungen kann man entsprechend nicht erwarten, gute Näherungswerte aber definitiv. Das Tool zeigt sogar, wie viel Traffic genau über Direktaufrufe, Suchmaschinen, Social-Media-Plattformen und Referral-Links zustande kommt. Es gibt auch eine kostenpflichtige Pro-Version, die entsprechend mehr Funktionen bietet. Im Vergleich zu Alexa bietet die kostenlose Version von SimilarWeb allerdings mehr Informationen. Das Tool schätzt beispielsweise die monatlichen Visits einer Website in den vergangenen sechs Monaten. Für eine grobe Orientierung eignet sich die Seite entsprechend gut.
Die kostenpflichtige Pro-Version bietet einen größeren Funktionsumfang; etwa die Möglichkeit, mehrere Websites miteinander zu vergleichen und einen größeren Zeitraum zu betrachten, sowie mehr Detailtiefe. Seit einigen Monaten liefert SimilarWeb auch Nutzungs- und Download-Statistiken zu Apps – bislang jedoch auf Android-Apps beschränkt. Statistiken von SimilarWeb zu Unser Eindruck ist, dass die von SimilarWeb gelieferten Zahlen nicht immer 100-prozentig richtig liegen, die Verhältnisse der Traffic-Volumina verschiedener Websites aber relativ korrekt darstellen. Ein Seitenaspekt: Wir hatten vor wenigen Monaten kritisch über SimilarWeb berichtet, weil das Unternehmen augenscheinlich Daten über Browser-Erweiterungen erhoben hat, ohne deren Nutzer darüber zu informieren. Das Unternehmen teilte uns damals mit, dass es von all seinen Datenpartner verlange, ihre Nutzer ausdrücklich darüber zu informieren, dass sie deren Daten sammeln und an eine Drittpartei übermitteln. "Wenn sie sich weigern, das zu tun, arbeiten wir nicht mit ihnen zusammen", so Marketingchef Ariel Rosenstein.
In den Statistiken sind jedoch nur Websites enthalten, die ihre Nutzung von der IVW auswerten lassen. Große US-Konzerne wie Google und Facebook tun das beispielsweise nicht. Websites aus der "Erwachsenenunterhaltungsbranche" sind in den Rankings ebenso wenig zu finden wie kleine Nischenprojekte. Trotzdem können die Zahlen auch bei Websites, die dort nicht gelistet sind, von Nutzen sein – beispielsweise wenn man die IVW-Zahlen mit Informationen aus anderen Tools in Bezug setzt, oder mit den IVW-Zahlen die Genauigkeit von Statistiken, die andere Tools liefern, prüft. Google Trends Googles Statistikdienst liefert Aufschluss darüber, wie häufig ein Begriff oder eine URL bei Google gesucht werden. Dies ist natürlich nicht gleichbedeutend mit dem Gesamt-Traffic einer Website – insbesondere bei Websites, für die Google nicht die wichtigste Traffic-Quelle ist, wie z. B. Buzzfeed. Trotzdem kann ein Blick in Google Trends durchaus interessant sein. Google nennt zwar keine konkreten Zahlen, aber insbesondere der Vergleich unterschiedlicher Suchbegriffe miteinander liefert häufig einen sehr guten Eindruck einer Marktentwicklung – wie zum Beispiel im Rahmen der Recherche für unseren Artikel über Lovoo.
Die eigentliche Aufgabe von Wolfram Alpha ist es, eine inhaltliche Antwort auf Suchanfragen zu finden. Die Suchmaschine arbeitet nicht nach dem Prinzip von Crawlern, sondern berechnet die Ergebnisse auf Basis einer Datenbank und dem Funktionsprinzip zellulärer Automaten. Das Tool versucht durch Daten, Grafiken oder Bilder, eine konkrete semantische Antwort auf die entsprechende Anfrage zu geben. Der Schwerpunkt der Suchmaschine liegt folglich auf Wissenschaften. Gibt man bei Wolfram|Alpha jedoch eine Domain ein, listet das Tool die von Alexa hochgerechneten täglichen Seitenaufrufe und Besucherzahlen auf. Auch hier gibt es neben der kostenlosen Version eine Pro-Version. Es besteht sogar die Möglichkeit, verschiedene Dateiformate hochzuladen und diese analysieren zu lassen. Weitere Informationen, die die Suchmaschine ausgibt, sind ausgehende Links und eine Übersicht über die HTML Link-Struktur. Fazit Die absoluten Werte einer fremden Website zu ermitteln ist leider nicht immer möglich.
Semrush Das SEMrush Tool ist eigentlich für Online Marketing Kampagnen im Bereich Search Engine Marketing (SEM) gedacht. Entsprechend gibt es hier auch die Möglichkeit, die organische Suche und die damit verbundenen Keywords zu analysieren. Das Tool analysiert, für welche Keywords eine Webseite rankt. Eine weitere Grafik zeigt sogar die Entwicklung des Traffics im Verlauf an. Das funktioniert allerdings nur für die Keywords in den TOP 20. Auch in Punkto Mitbewerberanalyse hat SEMrush einiges zu bieten. Das Tool zeigt Mitbewerber an, analysiert wie viele Keywords sie gemeinsam haben oder sogar mit wie vielen Keywords die Konkurrenz insgesamt den Traffic auf ihre Seite bringt. Keywords über Ads werden ebenfalls angezeigt. Interessierte können sich darüber hinaus die Backlinkstruktur der untersuchten Website anzeigen lassen. Die Übersicht zeigt dann die Anzahl der Backlinks, linkende Internetseiten und IPs. Auch die Art der Backlinks und das Verhältnis zwischen dofollow und nofollow Links wird analysiert.
Auch hier handelt es sich bei den Statistiken nur um Schätzungen. Trotzdem geben sie einen schnellen ersten Eindruck von der Relevanz einer Website. Wer es etwas genauer wissen möchte, kann über URLM auch Server-Daten einsehen. Das Tool listet auf in welchem Land, unter welcher IP-Adresse und von welchem Hosting-Provider die entsprechende Website gehostet wird. Sogar DNS-Einträge und Ladegeschwindigkeit werden ermittelt. Technische Informationen zur Server-Konfiguration werden ebenfalls aufgelistet. Laut URLM ermöglichen ihre spezialisierten Algorithmen, "die Ergebnisse für jede Webseite problemlos zu analysieren und vergleichen". Allerdings findet die Site nicht zu jeder Website zuverlässig Daten. Vor allem bei kleineren, unbekannteren Internetseiten stößt das Tool an seine Grenzen. Dazu kommt, dass etliche Webseitenbetreiber ihre Daten dort nicht gelistet haben möchten und URLM deren Nennung verbieten. Wird die gesuchte Site gelistet, gibt das Tool aber einen ersten Überblick über ihren Wert.
"Algorithmen" Unter diesem Sammelbegriff verstecken die Firmen alles, was noch fadenscheiniger ist, als die bisher bereits angesprochenen Methoden. "Algorithmus", das klingt nach Mathematik und Wissenschaft, also muss es richtig sein. Die Praxis dürfte da einfacher und deutlich ungenauer aussehen. Hochrechnungen und Kalkulationen basierend auf den zuvor erwähnten Werten, gemischt mit einer Prise Geschäftsbericht von vor vier Jahren und fertig ist eine schöne Besucherzahl und eine Zahl für Seitenaufrufe. Tut keinem weh und die Neugierde ist erstmal befriedigt, aber belastbar ist dieser Wert nicht. Fazit Dienste die versprechen, sie könnten Besucherzahlen für fremde Webseiten liefern sind höchst dubios: Sie haben keine verlässliche Datenbasis, weil sie kaputte Metriken zur Erfassung ihrer Daten einbeziehen und das durch einen "Algorithmus"-Fleischwolf drehen, der hinten einen Zahlenwert rausfallen lässt, der nur durch Zufall nah an der Wirklichkeit liegen kann. Vielleicht einfach mal die eigene Webseite durch solch einen Dienst schätzen lassen und dann vergleichen, wie nah oder fern die Ergebnisse an dem liegen, was man selbst misst, aber keinesfalls blind auf solche Zahlen verlassen und basierend darauf Geschäftsentscheidungen treffen.
Wo Stehst Du, 2024