Durch das ständige Arbeiten mit Power BI kann eine Art Betriebsblindheit entstehen, wobei wir automatisch annehmen, dass gewisse Standards und Regeln selbstverständlich sind.
Und dennoch ist mir beim sonntäglichen Scrollen durch LinkedIn gleich zweimal etwas aufgefallen....
Beispiel Nummer eins: Umfrage von Bloomberg
In einem Fall wurde eine Umfrage von Bloomberg durch Microsoft zitiert. Der Inhalt war interessant, die Darstellung aber nur so "naja"...
Das ursprüngliche Diagramm mit bunten Balken und zahlreichen Farben wirkt überladen und erschwert das Erkennen von Mustern. Ständig wandern die Augen zwischen der Legende und den drei bunten Balken-Gruppen hin und her.
Warum war das ursprüngliche Diagramm schwer verständlich?
Zu viele Farben: Jede Kategorie hatte eine eigene Farbe, was visuell ablenkt und den Vergleich zwischen den Optionen erschwert.
Überschneidungen: Die Balken für die erste, zweite und dritte Wahl waren übereinandergelegt, was einen direkten Vergleich behindert.
Fehlender Fokus: Es war schwierig, auf einen Blick zu erfassen, welche Anbieter in den verschiedenen Kategorien besonders hervorstechen.
Um die Darstellung für mich zu optimieren habe ich chatGPT benutzt - und nicht mein Lieblingswerkzeug Power BI. Als Fan von Power BI ist der Trend nicht ganz unbedenklich, aber wenn wir nur eine Grafik als Quelle haben, ist chatGPT einfach schneller...
Folgende Schritte waren notwendig
...schon deutlich besser, aber nicht was ich wollte. Und auch nicht, das, was ich gesagt habe...
also weiter:
Ok, ich sehe ein... die Anweisung war mehrdeutig.
...fast was ich wollte..
Nach vier Promts hatte ich mein Ergebnis.
Ist das gut?
Nun ja, hätte ich die Daten als Tabelle gehabt, wäre ich mit Power BI für ein Ergebnis in ähnlicher Qualität wohl schneller gewesen. Aber ich behaupte mal: viele würden es anders sehen.
Mit dem Bild als Quelle war die KI hier aber so oder so unschlagbar...
Nun aber zum "Warum":
Der optimierte Ansatz: Small Multiples
Statt einer überladenen Darstellung helfen "Small Multiples" – mehrere kleine, nebeneinander platzierte Diagramme mit derselben Achse. Durch diese Visualisierung konnten wir die Umfrageergebnisse deutlich verbessern:
Gemeinsame Achse: Alle Anbieter werden auf einer einheitlichen Achse angezeigt, sodass Vergleiche zwischen den Top-, Second- und Third-Choices mühelos möglich sind.
Einfache Farbgebung: Alle Diagramme haben eine einheitliche Farbe, um die Lesbarkeit zu fördern und visuelle Ablenkungen zu minimieren.
Klare Beschriftung: Prozentwerte sind direkt an den Balken angebracht, sodass die Ergebnisse sofort erkennbar sind.
Der Vergleich der verschiedenen Platzierungen in dieser übersichtlichen Form lässt sofort erkennen, welche Anbieter konsistent gut abschneiden, wie z. B. Databricks und Azure Cosmos DB. Die Verbesserung der Visualisierung macht es einfacher, fundierte Entscheidungen auf Grundlage der Daten zu treffen, ohne Zeit mit der Entschlüsselung eines unübersichtlichen Diagramms zu verlieren.
Das zeigt: Gute Visualisierungen machen nicht nur Daten verständlich, sie schaffen Klarheit und bieten schnelle Einblicke in wichtige Trends und Muster.
Beispiel Nummer zwei: Der Autopreneur
Ich habe einen interessanten Artikel von Philipp Rasch gefunden. Aber auch hier fiel mir die Visualisierung negativ auf...
...und damit meine ich nicht einmal die Icon-Nutzung, sondern eher die Vergleichbarkeit der Werte in dieser Form... Diese ist nur beim Umsatz pro Mitarbeiter aufgrund der Sortierung gegeben. Die anderen beiden Spalten sind im Vergleich kaum zu erfassen.
Auch hier war der Weg der Optimierung sehr schnell:
...warum auch immer chatGPT es im Standard bunt mag... KI bildet eben oft den gesehenen Durchschnitt ab.
und noch ein wenig Feintuning:
Ich denke auch hier ist klar zu sehen, wie viel hier in Sachen Vergleichbarkeit und Klarheit mit wenig Mitteln zu bewirken ist.
Es bleiben also noch Ziele...!
Noch mehr über Standards erzähle ich übrigens in der aktuellen Ausgabe des Analytics Pioneers Magazins.
.
.
.
Vertraut der KI nicht blind!
Wer bis hier gelesen hat, verdient eine Extra-Info:
es ist erst im Nachhinein, dank sehr smarter und aufmerksamer Gesprächspartner im Live-Workshop, aufgefallen, dass chatGPT die Daten des ersten Use-Case bereits beim initialen Lesen falsch interpretiert hat. Nur der führende Anbieter war richtig, der Rest dagegen durcheinander und teils erfunden:
Die Kernbotschaft war die Darstellung und nicht der Inhalt und so war das zuerst nicht hinterfragt worden.
Zur Verteidigung von chatGPT muss aber gesagt werden, dass der Hinweis direkt beim ersten Lesen kam und hätte auffallen müssen:
Daraus lässt sich noch mehr lernen:
der KI nicht immer blind vertrauen!
dort, wo Menschen Fehler machen können, kann es auch die KI. Ganz ehrlich: bei dieser Darstellung wäre eine falsche Interpretation durch Menschen auch sehr wahrscheinlich.
Gute Visualisierung wird damit eher noch wichtiger... Datenkompetenz aber auch.
Comments