• slide
  • slide
Datenanalyse

Unser Weg zu einer verlässlichen Daten-Auswertung beginnt mit einer intensiven Analyse der Ergebnis-Dimensionen - was muss im Ergebnis drin sein, wie ist es abgegrenzt, regelmäßig, einmalig oder gelegentlich, wofür wird es gebraucht und in welcher Qualität muss es vorliegen. 

Das sind Fragestellungen, die wir in Meetings mit den Kunden durchkauen, bis alle Beteiligten das gleiche Verständnis der Sachlage besitzen und Konsens über die Ziele und Anforderungen herrscht. Das kann sehr schnell gehen, mitunter aber auch ein klein wenig dauern.

Danach widmen wir uns der Skizzierung des täglichen Betriebs bzw. des Umgangs mit den Daten und der Usability um dann schlussendlich auch die geeigneten Methoden auf den Punkt zu bringen. 

daten-auswertung

Wir erarbeiten mit unseren Kunden Daten-Ziele, Auswertungs-Methoden, Ergebnisaufbereitung und Richtlinien zur Sicherung der Ergebnis-Qualität. Das ist ein laufender Prozess der immer wieder zu Erweiterungen und Verbesserungen der Aussage-Qualität führt.
 

Zweifellos die Königsklasse im Daten-Management.

Die banale Wahrheit ist jedoch, dass die überwiegende Mehrheit der Datenhalter Auswertungen nur in sehr einfacher Form oder oberflächlich betreibt und komplexere Betrachtungen recht bald an die Grenzen des jeweiligen Verständnisses stoßen.

Nehmen wir als Beispiel die Auswertung von Zugriffszahlen auf die eigene Web-Site - ein Großteil der Unternehmen begnügt sich mit dem (unregelmäßigen) Beobachten der Zugriffszahlen und verschenkt die Möglichkeiten der Website-Optimierung und der aktiven Kundenpflege über die Site.

Hinter jeder Auswertung steht ein Wille, eine Absicht zur Veränderung und/oder zur Steuerung (betrieblicher) Prozesse. Wer diese Triebfeder bestitzt, braucht auch die Daten dazu und klare Vorstellungen über Datenziele und Daten-Management.

Unser Anspruch ist es, Kunden dabei zu unterstützen, Daten optimal zu nutzen und Entscheidungsgrundlagen abzuleiten.
Dabei begegnen wir zwei Senarien:

  1. Clear-Target-Situation
    Die Kunden können die Fragestellung genau beschreiben, wsissen, welche Daten in welcher Qualität vorliegen müssen und geben klare Vorgaben für die Form und die Verlässlichkeit der Aussagen..
    Auch wenn hier alles auf grün zu stehen scheint, lohnt es sich dennoch sehr oft, die Zusammenhänge unter die Lupe zu nehmen um Abhängigkeiten und Querbeziehungen herauszufiltern, welche das Ergebnis verfälschen können. Trotz aller Sorgfalt kommt es auch immer wieder vor, dass Daten nicht ergebnisneutral erhoben werden und man (unbewusst) relevante Daten ausblendet, nicht erhebt oder umgekehrt bestimmte Daten bevorzugt.  Die scheinbar banale Frage, welche Daten für eine bestimmte Fragestellung überhaupt relevant sind, muss ernsthaft untersucht werden und entwickelt sich somit zum festen Fundament einer verlässlichen Aussage..
  2. Let's-See-Situation
    Über Jahre hinweg haben sich über verschiedene Prozesse Daten angesammelt und es entstehen eine Vielzahl an Fragen, wie mit dem Datenkonvolut in Folge zu verfahren sei, Konformität mit dem Datenschutzgesetz, Relevanz der Daten für aktuelle Fragestellungen und die retrospektive Analyse von Zusammenhängen, sind Beispiele dazu.
    Der Umgang mit "historischen" Daten gestaltet sich meist ein wenig haarig, da in der Vergangenheit selten ausreichend normierte Vorgänge zur Datenerhebung anzutreffen waren. Statistische Methoden überbrücken zwar die eine oder andere Datenlücke, Offsets oder Fehler in der Datenerhebung erkennen sie allerdings nur schwer und versteckte Abhängigkeiten bleiben meist überhaupt unerkannt.

Noch ein Wort zu den verschiedenen Methoden der Auswertung: Auch wenn die Wisenschaft hier ein reichhaltiges Portfolio an Möglichkeiten geschaffen hat, geht es in Unternehmen doch meist um die Frage des "optimalen" Prozesses. Welche Form des Datenmanagements - von der Generierung und Erhebung der Daten bis hin zur fertigen Management-Aussage - bietet den besten Kompromiss zwischen Aufwand und Ergebnisrelevanz?
Zur Betrachtung dieser Frage lohnt es sich immer wieder, auch qualitative Methoden der Datenauswertung heranzuziehen um dem Zahlenwerk der statistischen Methoden ein wenig "Inhalt" zu verleihen.