Kategorien
Webdesign

Was messen wir eigentlich?

Wir lieben Zahlen und Statistiken. Die Welt der Mathematik ist unbestechlich, unfehlbar und objektiv. Wir Menschen sind es allerdings nicht. Deswegen sollten wir aufpassen, was unsere Analysewerkzeuge überhaupt messen. Ist ein „Unique Visitor“ ein Besucher, eine „Page Impression“ ein Seitenaufruf?

Wir lieben Zahlen und Statistiken. Die Welt der Mathematik ist unbestechlich, unfehlbar und objektiv. Wir Menschen sind es allerdings nicht. Deswegen sollten wir aufpassen, was unsere Analysewerkzeuge überhaupt messen. Ist ein „Unique Visitor“ ein Besucher, eine „Page Impression“ ein Seitenaufruf?

Die Kritik an Unique Visitors und Page Impressions ist nicht neu. Beides sind schwammige, unperfekte Größen, die nicht das messen, was der Name suggeriert. Kein Wunder; zu den angestrebten Messungen kommen wir nur über technische Hürden, die nicht zu meistern sind. Wir müssen uns mit Näherungswerten zufrieden geben.

Screenshot

Die IP-Adresse weilt im Nirvana, irgendwo zwischen dynamischer Vergabe durch den ISP und der Studenten-WG, die an einem Router hängt. Cookies können abgelehnt werden. Accounts werden gemeinschaftlich genutzt, vergessen, neu angemeldet und so weiter. Eigentlich weiß das jeder, der sich ein wenig mit der Analyse der Besucherströme auseinandersetzt.

Kein Problem sollte das sein, weil es ja Standards gibt. Wenn jeder dieselben Messfehler macht, sind die Daten doch nachher noch vergleichbar, oder? Hier setzt eine Unsicherheit ein, die mit einem kleinen Exkurs in einfache Grundlagen der Statistik gelichtet werden kann.

Die Welt erklären…

Jede statistische Untersuchung steht vor dem Problem, aus einer normalen Frage eindeutig messbare Fragen abzuleiten. Wer also fragt, wie viele Besucher eine Seite hat, der muss sich Indikatoren überlegen. Wie ist ein Seitenbesucher definiert? Gemeinhin werden wir einen Menschen darunter verstehen, der eine Seite vollständig lädt und dann zumindest einen Blick darauf wirft. Das klingt banal, aber sonst haben wir Suchmaschinenroboter und Fehlaufrufe (etwa durch versehentliches Klicken auf Anzeigen) als „Besucher“ verstanden. Weil wir nicht jedem Menschen über die Schulter schauen können, müssen wir die Frage beantworten, wie man vom Server aus messen kann, wer die Seite wie aufruft. Und hier wäre die ehrliche Antwort: gar nicht.

Wer quantitativ forscht, also über das Zählen von Merkmalen zu Aussagen über die Realität kommen will, der muss viel Arbeit und Zeit in die Indikatorenauswahl stecken. Er muss sich also überlegen, welche messbaren Dinge uns möglichst eindeutige Antworten auf die ursprüngliche Frage geben. An dem Problem knacken Statistiker seit vielen Jahrzehnten. Die meisten Begriffe, mit denen wir im Alltag hantieren, sind nicht eben mit eindeutiger Genauigkeit definiert. Deswegen brauchen wir einen Plan, wie die Begriffe aus der Frage genau definiert werden sollen, und in welchem Verhältnis sie zu welchen Messgrößen stehen. In diesem Feld hat die Sozialforschung eine lange Tradition und viel Erfahrung. Trotzdem sind gravierende Fehler an der Tagesordnung. Dass in der jungen Disziplin der Seitenanalyse vieles daneben gehen muss, liegt auf der Hand.

…können wir nicht.

„PI“ und „UV“ sind mehr oder weniger genormte Größen und, dass sich dahinter Schätzungen und Annahmen verbergen, ist kein Geheimnis. Immerhin bemühen sich zum Beispiel AGOF und IVW um eine überarbeitete Definition des Begriffs. Aber wir müssen zugeben, dass PI und UV momentan nichts Konkretes messen, nicht genau sind und leider auch zu keinen sinnvollen Vergleichen führen.

Die Verweildauer ist zurecht aus der Mode gekommen. Dass hier der falsche Indikator gewählt wurde, um Vorzüge eines Auftrittes zu bewerten, ist leicht zu verstehen. Besucher sind nicht unbedingt glücklich, wenn sie lange bleiben. Manchmal finden sie einfach nicht, was sie suchen. Dass Browser und Mensch nicht dasselbe sind, ist ebenso klar.

Besucher sind nicht so freundlich, eine Seite in Ruhe komplett laden zu lassen und dann anzuschauen. Viele Menschen surfen mit mehreren Tabs. Der Browser bleibt offen, wenn man ins Bad geht, einen Kaffee kocht, oder das Telefon klingelt. Längst beeinflussbar und daher mit Vorsicht zu genießen sind Auskünfte über das Herkunftsland der Surfer, das Betriebssystem, den Browser und so weiter. Wir haben also Messfehler von unklarer Größe in unseren Seitenanalysedaten. Die Frage ist: Wer verliert dadurch?

Screenshot

Versteckte Gemeinheiten

Gute Suchmaschinenoptimierung führt zum guten Ranking und das führt zu guten Besucherzahlen. Über die Qualität der Inhalte aber sagt das wenig aus. Sollte für Werbekunden nicht die Zufriedenheit der Nutzer interessant sein, die Intention, mit der sie eine Seite ansurfen, und das Vertrauen, das sie ihr entgegenbringen? Überhaupt ist Werbung, die gut zum Thema passt und die Besuchern geboten wird, die gern und wiederholt zu einem Ort surfen, wahrscheinlich wertvoller. Ist der Kunde bereits unzufrieden, wenn er auf die Anzeige klickt, dann ist er auch ungeduldiger und weniger zur Beschäftigung mit etwas Neuem bereit.

Populäre Seiten, die echte Partnerschaften mit ausgewählten Werbekunden eingehen, stellen dagegen zugegeben eine Luxuslösung dar. Aber der Erfolg, die Übertragung von Kundenbindung und Vertrauen, ist nachhaltiger. Natürlich kommt man an Größen wie PI und UV nicht vorbei, so lange sich Anzeigenkunden dafür interessieren. Das kann man schlimm finden. Man kann sich aber auch freuen, dass die angesprochenen Größen zumindest kritisch gesehen und immer wieder diskutiert, überarbeitet werden. ™

Von Jan Bojaryn

Sprachwissenschaftler, freier Autor und Texter. Befasst sich seit fast 20 Jahren professionell mit Sprache, Webdesign, Usability und Kommunikation im Netz. Schreibt Artikel und Ratgebertexte zu verschiedenen Themen. Liebt guten Text, nutzerfreundliches Design und Currywurst.

11 Antworten auf „Was messen wir eigentlich?“

Ich bin davon ausgegangen, dass am Schluss ein Verbesserungsvorschlag oder zumindest ein Fazit. Was passiert nun? Dass die Maße inadäquat und obsolet sind, ist doch nichts Neues. Wir arbeiten derzeit an einem Tracker auf Event-Basis. Hier gilt es aber viel mehr zu renovieren als nur ein Maß und eine Technologie. Ein wenig weiter hätte der Beitrag ruhig führen können.

Wenn man Logfiles wie Gedichte liest (comme moi), entwickelt man ein gutes Gefühl dafür, wie man automatische Auswertungen deuten muß. Spitzentage deutet man dann eher skeptisch als Machinenüberfälle, die man erst durch Nachsinnen über den Inhaber der IP als solche erkennt. Ein Hinweis ist auch, dass an diesem Tag kein neuer ertragvoller Link auf die Seite verweist.

Mittagspausenspitzen sind dagegen so gut wie immer Menschenwerk.

Man erkennt auch aus dem Verhältnis zwischen Inhalt der Seite und den Logs ganz gut, wie gut die Seite läuft.

Die Werte aus Google Analytics liegen schon wegen der Java-Umsetzung weit unter der Realität und eignen sich nur für SEOs, die keine Angst haben müssen, dass Googles Messung der Popularität Einfluß auf auf das Ranking hat. Ich würde das lieber lassen. Das hilft nur Leuten mit kilometerlangen Logs.

By the way findet man in den Logs viele Sucheingaben, die den Auswertungstools entgehen.

Aber was bringt denn die Entwicklung von UV und PI für Anzeigenkunden. Die Steigerung um bsp. 120% der PI’s ist doch nicht als Berechnungsgrundlage hernehmbar. Aber Aussagen wie 10.000 PI im Monat entspricht einen Anzeigenwert von x,xx Euro pro Quadratpixel/Seiteneinblendung/… und 100.000 PI sind halt in einer anderen Preiskategorie. Relative Entwicklungen sind gut für die Selbsteinschätzung und für bestimmte Ranglisten. Aber nur absolute Zahlen eignen sich für Preislisten.

Der eigentliche Fehler ist die Vereinheitlichung von Bewertungsalgorithmen auf sämtliche Seiten. Wenn ich einen Comicblog habe, sind dort meist ein Strip pro Seite, dagegen sind auf PODStreamblogs schonmal 20 Beiträge auf einer Seite. PI auf verschiedene Verschachtelungen sind schonmal relativ zu sehen.
Und interne Pagerankings sind leider auch nicht bewertbar, da ich z.B. Bookmarks auch mal mit in Webseiten lege und nicht auf die Startseite (nagut man kann ja die Herkunft auswerten). Wenn jemand dann nur Werbung auf die Haupt-/Startseite legt, aber viele User nicht diese benutzen, erzeugen sie für die gesamte Webseite hohe Besucherzahlen, nur werden sie keine Werbung mitbekommen, aber dem Anzeigewilligen sollte man dort schon mehr Aufschlüsselung bieten, da es sonst einen betrügerischen Charakter annimmt.

Ich muss David vollkommen Recht geben. Es ist natürlich schön zu sehen, dass heute 500 Besucher da waren, welche die Seite 6000 Mal aufgerufen haben. Aber man weiß, dass man diesen Angaben nicht vertrauen kann. Wenn man dann allerdings mal 2 Monate zurück sieht und seine 180 Besucher von damals sieht, ist das schon eine deutliche Verbesserung und das ist das wichtigste, dass man sieht ob man sich verbessert oder verschlechtert und gegebenenfalls drauf reagiert.

Gruß
Wishu

Diagramminator!!
Stimmt schon was hier geschrieben wird. Aber es ist ja vielleicht nicht unbedingt interessant wie viel Menschen oder Maschinen heute auf meiner seite waren sondern vielleicht vielmehr die Entwicklung der Besucher / Visits.

Wenn ich heute 500 Besucher hatte sagt das nichts aus vergleich ich aber über einen Monat zum Beispiel werde ich feststellen das die 500 das beste waren.

Schreibe einen Kommentar zu Alex Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.