Prof. Dr. Christoph Eisl, Prof. Dr. Heimo Losbichler
Um zu einem individuellen Standard zu kommen, bietet sich die vorgestellte Eye Tracking-Methodik an, die auch im jeweiligen Unternehmen mit dessen Berichtsempfängern als Testpersonen eingesetzt werden kann. Abb. 10 veranschaulicht einen in der Praxis bewährten beispielhaften Ablauf eines Reporting-Design-Projekts.
Abb. 10: Prozessablauf eines Reporting-Design-Projekts
Erfolgversprechend ist dabei die Auswahl eines Pilotberichts bzw. eines Dashboards (Hinweis: Definition Dashboard ist in Kapitel 2.6 zu finden), anhand dessen das neue Reporting Design schrittweise entwickelt und an die Bedürfnisse des Unternehmens angepasst wird. Für diesen sollte im Detail analysiert werden,
- welche Informationen dargestellt sind,
- welchen Zweck die Informationen bzw. Berichtelemente haben und
- ob die Vorstellungen der Berichtsersteller sowie der Berichtsempfänger dazu übereinstimmen.
Erst nach eingehender Analyse des aktuellen Berichtes bzw. Dashboards, sowie einer Erhebung der Daten zum Empfängerkreis (Fachkenntnis, Erfahrungsstand, Vorlieben etc.) und der softwaretechnischen Möglichkeiten, kann mit der Optimierung begonnen werden.
Zunächst werden auf Grundlage empirisch abgesicherter Gestaltungsempfehlungen alternative Darstellungsformen zum Originalbericht bzw. -Dashboard entwickelt. Im nächsten Schritt wird in Abstimmung mit den Berichtsverantwortlichen eine erste Vorauswahl getroffen und festgelegt, welche Designalternativen oder auch nur einzelne offene Designfragen mittels Eye Tracking getestet werden sollen. Der Eye-Tracking-Test selbst ist für die Teilnehmer wenig aufwendig und dauert im Normalfall nur in etwa 20 bis 30 Minuten.
Nach Durchführung der Tests werden diese, wie bereits in Kapitel 1.4 allgemein beschrieben, ausgewertet. Im Zuge dessen können die Unternehmensberichte bzw. Unternehmensdashboards entsprechend ihrer Effektivität und Effizienz wie in Abb. 11 dargestellt kategorisiert werden.
Abb. 11: Kategorisierung von Berichten
Die Auswertung der Eye-Tracking-Ergebnisse kann auch auf spezifische User-Gruppen ausgerichtet werden. Häufige Vergleiche sind: Führungsebene vs. Mitarbeiter, Mitarbeiter aus dem Bereich Vertrieb vs. Mitarbeiter aus dem Bereich Produktion oder Finanzen etc. Abb. 12 zeigt, wie ein solcher Vergleich aussehen kann.
Abb. 12: Dashboards im Effektivitäts- und Effizienzvergleich
Dashboard 4 verursachte beispielsweise bei Empfängergruppe 2 eine Fehlerrate von 50 % bei einer durchschnittlichen Antwortzeit von 20 Sekunden, während dasselbe Dashboard von Gruppe 1 deutlich langsamer gelesen wurde (Durchschnitt 27 Sekunden) aber dabei eine deutlich geringere Fehlerrate auftrat. Report 3 lag bei beiden Gruppen in Bezug auf die Fehlerrate in einem enorm hohen Bereich von 64 % bzw. 90 %.
In vielen Praxisprojekten ist festzustellen, dass einzelne Berichte oder auch Berichtsteile eine mangelhafte Qualität aufweisen, dies drückt sich in hohen Fehlerraten bei der Fragenbeantwortung aus. Abb. 13 zeigt einen Auszug aus einer Dashboard-Analyse.
Abb. 13: Kategorisierung von Dashboards
Der Fokus bei einem Optimierungsprojekt liegt darauf, Visualisierungen zu finden, die verständlicher, leichter lesbar und nicht irreführend sind. Im konkreten Fall konnten bei den Dashboards 1, 2 und 4 die Fehlerraten stark reduziert werden. Dashboard 3 hatte bereits eine sehr niedrige Fehlerrate. Hier gelang es, die Antwortzeit deutlich zu verkürzen.
Beachtenswert ist in dieser Analyse, dass den Berichtslesern Original- und Alternativdarstellungen während derselben Testreihe vorgelegt wurden. Das bedeutet, dass die Alternativ-Dashboards bereits bei der erstmaligen Betrachtung in der Regel sichtbar besser abschnitten als die bisher verwendeten Originale. In der tatsächlichen Nutzung sind hier weitere Fortschritte zu erwarten (vergleiche dazu den in Kapitel 2.5 erläuterten Lernkurveneffekt).
Die Eye-Tracking-Analyse der Designalternativen liefert wichtige Indikationen für die finale Festlegung des neuen Reporting Design Standards. Dieser sollte von Unternehmensseite offiziell beschlossen und dann weitestgehend auf alle Berichte ausgerollt werden.
Es bleibt aber auch festzuhalten, dass es in den meisten Fällen nicht gelingt, die Fehlerraten bereits bei der erstmaligen Berichtsvorlage auf Null zu drücken. Es ist also notwendig, nach erfolgter Umstellung auf die neue Reporting-Lösung, entsprechende Schulungen bzw. Guidelines anzubieten, um letzte Unsicherheiten in der Interpretation der Zahlen und Visualisierungen auszuräumen.
Das hier vorgestellte Vorgehenskonzept zur Berichtsoptimierung kennzeichnet sich durch einen am Design Thinking orientierten Ansatz mittels enger Einbeziehung von Führungskräften und Mitarbeitern. Dieser bringt viele Vorteile und trägt entscheidend dazu bei, das Commitment für eine neue Reporting-Lösung zu steigern.