Messung im eCommerce

Wer jetzt erwartet hat, ich präsentiere nun die eierlegende Wollmilchformel für eCommerce-Kennzahlen, den muss ich leider enttäuschen – die gibt es nicht…

Ich möchte jedoch ein wenig auf das Thema “Messung”, “Messbarkeit” und “Berechnung” im eCommerce eingehen.

Es heißt ja immer: Durch das Internet wird alles “Messbar”. Richtig ist sicher, dass vieles gemessen werden kann. Das war es dann aber auch schon. Denn genau jetzt fangen die ganzen Probleme an. Es herrscht oftmals (u.a. beim Management aber auch bei Beratern) der Irrglaube vor, dass man jetzt, wo man so viel messen kann, auch mehr Sicherheit bekommt und man quasi sein eCommerce-Geschäft wie eine Maschine mit Reglern steuern kann – ein wenig hier drehen verändert diese Zahl, ein wenig dort eine Andere, usw.

“Berechnung” hört sich immer danach an, dass es eine allgemeingültige Formel oder Modell bzw. Kennzahlensystem als Schablone gibt, die überall angewendet werden kann. Hier ein paar Argumente, die diesem Mythos ein Ende bereiten sollten:
1. Jedes Geschäftsmodell ist individuell und jedes Unternehmen möchte sich (mit Ausnahme der CopyCats) von einem anderen differenzieren. Man braucht also nicht viel Vorstellungskraft, dass somit individuelle Kennzahlensysteme und Berechnungsmodelle notwendig werden. Man kann nicht einfach etwas, was für amazon vielleicht als richtig erachtet wird, auf otto & co. übertragen. Es gibt also keine “Mess- und Interpretationsvorlagen”.
2. Sobald der Faktor “Mensch” ins Spiel kommt, handelt es sich um komplexe (nicht-triviale) Systeme, die analytisch nicht erklär- und berechenbar sind. Es lassen sich sicher ex-post irgendwelche Berechnungen anstellen. Aber welche Bedeutung können die für die Zukunft haben?
3. Hiermit sind wir beim nächsten Problem der subjektiven Interpretation der Daten. Hier entsteht die Kreativität. Entweder man lässt diese von einem Menschen interpretieren und ihn hieraus (subjektiv) Entscheidungen ableiten, oder man überlässt die Aufgabe den durch Menschen entwickelten Maschinen mit durch Menschen entwickelten (und somit subjektiven) Modellen.
4. Und das führt uns zum nächsten Problem, dass ständig neue Bechnungs”wahrheiten” erfunden werden. Mittlerweile ist der Markt voll mit Analyse-Systemen, die unterschiedliche Dinge messen (oder gleiche Dinge anders) oder mit unterschiedlichen Modellen arbeiten. Hier fängt wieder die (subjektive) Qual der Wahl an, welch(e) System(e) man implementiert. Aber damit nicht genug. Diese Systeme sind ja nie fertig. Laufend werden diese weiterentwickelt und bieten einem neue “Wahrheiten”, die dann wieder für eine gewisse Zeit als “Weisheit letzter Schluss” dienen – bis zur nächsten, usw.
5. Aus der Vielzahl von möglichen Daten werden ja immer und von jedem System nur Ausschnitte in Berechnungen mit einbezogen – irgendwann muss man “abschneiden”. Ferner kommen immer mehr Daten in den Datenpool hinzu, die entweder neu “entdeckt” wurden oder durch technologischen Fortschritt möglich werden zu “tracken”. Und auch hier geht es immer weiter… Alle Berechnungen bleiben immer eine Frage der (subjektiven) Definitionen und Abgrenzungen (was beziehe ich ein, was nicht).
6. Womit will man jetzt sein Geschäft steuern? Welches sind die für mein Geschäft wirklich relevanten Daten – und: gelten diese ex-post erhobenen Daten auch für die Zukunft? Welchen Prognose-Modellen will ich glauben, usw.
7. Durch die immer größere Datenflut und Möglichkeiten steigt die Unsicherheit – Wissen führt zu Unwissen. Man kann nie genügend Daten sammeln, um zu mehr Sicherheit zu gelangen – Im Gegenteil. Dadurch, dass mit immer mehr Daten die Komplexität steigt und nicht verringert wird und auch die Anzahl der Möglichkeiten zunimmt (welche Daten beziehe ich mit ein, welche nicht), steigt die Unsicherheit und die Entscheidungsfähigkeit verringert sich. Wie sagte einmal ein weiser Mann: “Nur der Vollidiot ist sich absolut sicher”.
8. Die Zukunft hat noch nicht stattgefunden. Es sind keine Vorhersagen in Nicht-Laborbedingungen möglich. Egal, wieviele Daten man zusammenträgt.
9. Je mehr man sich in die Tiefe der Daten verliert, desto weniger behält man den Überblick für das Ganze
10. Die Welt und die Kaufentscheidungen setzen sich aus rationalen und emotionalen Faktoren zusammen, wobei letztere mit 70-90% weit überwiegen und weder ex-post messbar, noch prognostizierbar sind. Man kann also theoretisch (sofern man alle quantifizierbaren Daten überhaupt messen könnte) ex-post also nur 10-30% der Faktoren, die zu einer Kaufentscheidung geführt haben, erfassen. Inwieweit diese für künftige Kaufentscheidungen eine Relevanz haben ist zudem fraglich. Ein User kauft ja nicht die gleichen Dinge mehrfach (obwohl bspw. amazon dies zu glauben scheint, da ich immer wieder bereits gekaufte Artikel empfohlen bekomme…). Und für andere Kunden gelten wiederum andere Kriterien. Selbst bei Wiederholungskäufen sind die Entscheidungen, die dazu geführt haben, meist unterschiedlich.
Dieser Beitrag soll sicher kein Abgesang auf die Messung im eCommerce sein. Ich möchte jedoch hiermit ein wenig dafür sensibilisieren, dass man einerseits Zahlen nicht einfach blind vertraut und andererseits mit etwas mehr Bewusstsein an das Thema herangeht und sich mehr vor Augen führt, welche Zahlen man für sein spezielles Geschäftsmodell als Kontrollgrößen (ich sage bewußt nicht Steuerungsinstrument) heranzieht und sich ebenso bewußt macht, was man eigentlich wie misst.

Die verzweifelte Suche nach dem Heil in einer „lückenlosen“ Datenerfassung

Die Scheu vor „weichen“ Daten führt zu der Gefahr der Fixierung auf vermeintlich „gesicherte Messwerte“, also auf (lediglich zufällig) messbare Daten mit bis dato erfundenen Messinstrumenten. Heinz von Förster gibt ein schönes Beispiel, wie wir Zahlen und analytische Sichtweisen erfinden: „Manchmal tuen es Zahlen, manchmal nicht. Mann kann nicht fünf Bücher ins Regal stellen, wenn man nur drei hat. Ein anderer sagt aber: Paß auf, du kannst ohne weiteres fünf von drei abziehen, wenn Du Zahlen hast, die diese besonderen Operationen kennzeichnen. Wenn Du ein kleines horizontales Strichlein vor diese Zahl setzt, die du da schon abgezogen hast, dann hast Du eine Zahl mit einem horizontalen Strichlein vorne. Das nennt man „Minus“ und dann erhältst du -2. Damit kannst Du operieren, als wäre es wie +2, wenn du nur diese zusätzlichen Regeln miteinbeziehst. Es war eine Erfindung, dieses Problem auf diese Weise zu lösen. Und so wurde eine prinzipiell unbeantwortbare Frage durch eine elegante Erfindung plötzlich beantwortbar. Ein neues Spiel, die negativen Zahlen, war geboren. Die negativen Zahlen sind keine Entdeckung, sie sind eine reine Erfindung“.

Statt zu glauben, sich mit den ermittelten Zahlen absichern zu können, sollte man sich eher vor ihnen hüten. Computerisierung und Quantifizierung der Planung schliessen die Gefahr der Reduktion auf das Messbare und das Vortäuschen einer nicht gegebenen Sicherheit der Voraussicht ein, was zu Illusionen über die Machbarkeit der Zukunft führen kann. Zum einen können nicht alle messbaren Werte gemessen und berücksichtigt werden, wodurch immer nur ein Ausschnitt dargestellt wird. Zum anderen bleiben die Wirkungsbeziehungen der Faktoren untereinander (strukturelle Koppelungen) außen vor. Zudem liefern sie keine Erklärungen. Spätestens im Moment der Interpretation wird die härteste Empirie weich: Die Kontingenz erscheint nun unabweisbar, weil zu allen Faktensammlungen unterschiedliche Interpretationsgeschichten erzählt werden können. Jemand beschreibt „es“, also „ist“ es, wie der Beschreibende es sagt. Er hat die Verantwortung über das „Es“. Niemand kann sagen, wie es ist. Und wenn es „war“, kann niemand rekonstruieren, wie es „war“. Ein Erkenntnisgewinn, der zu einer größeren Sicherheit führt ist folglich nicht möglich.

Weiterlesen