Besonderheiten Im Wissenstransfer Mit Diagrammen Im Sinne Von Quantitativen Darstellungen

  • Uploaded by: Stefan St.
  • 0
  • 0
  • December 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Besonderheiten Im Wissenstransfer Mit Diagrammen Im Sinne Von Quantitativen Darstellungen as PDF for free.

More details

  • Words: 33,087
  • Pages: 126
FHWien Studiengang Wissensmanagement der WKW Titel der Diplomarbeit: „Besonderheiten im Wissenstransfer mittels Diagrammen im Sinne von quantitativen Darstellungen“

Verfasst von: Stefan Steinbauer Betreut von: MMag. Dr. Priv.-Doz. Ivo Ponocny

Ich versichere: • dass ich die Diplomarbeit selbständig verfasst, andere als die angegebenen Quellen und Hilfsmittel nicht benutzt und mich auch sonst keiner unerlaubten Hilfe bedient habe. • dass ich dieses Diplomarbeitsthema bisher weder im In- noch im Ausland in irgendeiner Form als Prüfungsarbeit vorgelegt habe.

............ Datum

................................. Unterschrift

Für Elke, Arnika, Hedwig, und Almuth.

The greatest value of a picture is when it forces us to notice what we never expected to see. — John Wilder Tukey (1915 – 2000) —

I

Inhaltsverzeichnis Inhaltsverzeichnis Abbildungsverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . Tabellenverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Einleitung

1

2 Wissenstransfer 2.1 Definition und Unterscheidungen . . . . 2.2 Wissen und Transfer . . . . . . . . . . . 2.3 Wissenstransfer und Wissensmanagement 2.4 Wissenstransfer und die Organisation . . 2.5 Allgemeines und Wissenstransfer . . . . 3 Wahrnehmung 3.1 Wahrnehmung und Wissenstransfer 3.2 Auge und Information . . . . . . . 3.3 Wahrnehmung und Modell . . . . . 3.4 Auflösung und Sehschärfe . . . . . 3.5 Muster und Erkennung . . . . . . . 3.6 Farbe und Schwarzweiß . . . . . . . 3.7 Raum und Sehen . . . . . . . . . . 3.8 Wissen und Sehen . . . . . . . . . . 3.9 Zusammenfassung . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

4 Diagramme 4.1 Einleitung . . . . . . . . . . . . . . . . 4.2 Daten und Grafik . . . . . . . . . . . . 4.3 Skalen und Zahlen . . . . . . . . . . . 4.4 Analyse und Kommunikation . . . . . . 4.5 Elemente und Aufbau . . . . . . . . . . 4.6 Weber, Fechner und der Sinneseindruck 4.7 Fehler und Wahrnehmung . . . . . . . 4.8 Diagramme und 3d . . . . . . . . . . . 5 Diagrammtypen 5.1 Pop Charts und andere Klassiker 5.2 Neuere Formen der Darstellung . 5.3 Dotplot . . . . . . . . . . . . . . 5.4 Multidisplays . . . . . . . . . . .

I III IV

. . . .

. . . .

. . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

. . . . . . . . .

. . . . . . . .

. . . .

. . . . .

3 3 5 7 9 10

. . . . . . . . .

12 12 12 13 16 18 22 25 30 31

. . . . . . . .

33 33 35 38 40 41 43 46 48

. . . .

50 50 54 55 56

II 5.5

Semigrafische und wortgroße Grafiken . . . . . . . . . . . . . . . .

6 Gestaltungsprinzipien 6.1 Prinzipien nach Cleveland 6.2 Prinzipien nach Kosslyn . 6.3 Prinzipien nach Tufte . . . 6.4 Fazit . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

7 Analyse 7.1 Allgemeines . . . . . . . . . . . . . . . . . . . . . 7.2 Ziel und Zweck . . . . . . . . . . . . . . . . . . . 7.3 Vorgehensweise . . . . . . . . . . . . . . . . . . . 7.4 Getestete Software . . . . . . . . . . . . . . . . . 7.5 Kriterienkatalog . . . . . . . . . . . . . . . . . . . 7.6 Farbe und die Tabellenkalkulationen . . . . . . . 7.6.1 Rahmenbedingungen . . . . . . . . . . . . 7.6.2 Durchführung . . . . . . . . . . . . . . . . 7.6.3 Auswertung . . . . . . . . . . . . . . . . . 7.7 Neuerungen und die Tabellenkalkulationen . . . . 7.7.1 Dotplot . . . . . . . . . . . . . . . . . . . 7.7.2 Panelcharts . . . . . . . . . . . . . . . . . 7.7.3 Sparklines . . . . . . . . . . . . . . . . . . 7.7.4 Aktuelle Funktionalitäten . . . . . . . . . 7.8 Lügenfaktor und die Tabellenkalkulationen . . . . 7.8.1 Rahmenbedingungen . . . . . . . . . . . . 7.8.2 Durchführung . . . . . . . . . . . . . . . . 7.8.3 Untersuchung des Lügenfaktors im Detail. 7.9 Reflexion und Analyse . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

8 Die Besonderheiten im Wissenstransfer mittels Diagrammen

. . . .

. . . . . . . . . . . . . . . . . . .

. . . .

. . . . . . . . . . . . . . . . . . .

60

. . . .

63 63 66 68 72

. . . . . . . . . . . . . . . . . . .

74 74 74 74 76 77 79 79 81 81 84 84 85 85 86 87 87 88 91 95 98

Anhang

101

A Kriterienkatalog

101

B Werte zur Untersuchung des Lügenfaktors

109

C Software- und Datenquellennachweis 111 C.1 Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 C.2 Datenquellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Literaturverzeichnis

115

III

Abbildungsverzeichnis 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37

Bausteine des Wissensmanagements . . . . . . . . . . . . Das menschliche Auge . . . . . . . . . . . . . . . . . . . Dreistufiges Wahrnehmungsmodell . . . . . . . . . . . . . Scharfsicht des Auges . . . . . . . . . . . . . . . . . . . . Ausgewählte Gestaltgesetze . . . . . . . . . . . . . . . . Reizzerlegung des Gegenfarbmodells . . . . . . . . . . . . Kippeffekt 3d . . . . . . . . . . . . . . . . . . . . . . . . Hierarchie der Hinweisreize . . . . . . . . . . . . . . . . . Warme Farben sind näher als Kalte . . . . . . . . . . . . Goldener Schnitt . . . . . . . . . . . . . . . . . . . . . . Merkfähigkeit nach Aufnahme . . . . . . . . . . . . . . . Plot der Zahlentabelle nach Anscombe . . . . . . . . . . Periodensystem der Visualisierungsmethoden . . . . . . . Tortendiagramm in 3d . . . . . . . . . . . . . . . . . . . Schemata klassischer Diagrammtypen . . . . . . . . . . . Vergleich zwischen Kreisdiagramm und Dotplot . . . . . Beispiel für einen Multiway Dotplot . . . . . . . . . . . . Beispiel für einen Matrixplot . . . . . . . . . . . . . . . . Beispiel für einen Conditional Plot . . . . . . . . . . . . Mosaikplot der Titanicpassagiere . . . . . . . . . . . . . Stem-and-Leaf-Plot . . . . . . . . . . . . . . . . . . . . . Sparklines . . . . . . . . . . . . . . . . . . . . . . . . . . Beispiel für Banking . . . . . . . . . . . . . . . . . . . . Dekomposition einer Kurve in Teilaussagen . . . . . . . . Beispiel für small multiples . . . . . . . . . . . . . . . . . Minards Darstellung des Russlandfeldzugs Napoleons . . 6 Farben im Tortendiagramm . . . . . . . . . . . . . . . Vergleich zwischen Farbe und S/W . . . . . . . . . . . . Farbschemata bei Excel 2007 . . . . . . . . . . . . . . . . 2 Kurven mit und ohne Raster . . . . . . . . . . . . . . . Test 1: Balkendiagramme mit den Werten aus Tabelle 9 . Test 2: Balkendiagramme mit den Werten aus Tabelle 10 Grundlage für die Berechnung des Lügenfaktors bei Excel ymax , ymin und y0 für Lügenfaktor . . . . . . . . . . . . . Lügenfaktor und Bestandteile . . . . . . . . . . . . . . . Sichtweisen auf die Visualisierung . . . . . . . . . . . . . Kopie der Sparkline von Seite 62 . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2007 . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

. 8 . 13 . 14 . 17 . 19 . 22 . 26 . 28 . 29 . 29 . 32 . 34 . 37 . 48 . 51 . 55 . 56 . 57 . 58 . 60 . 61 . 62 . 64 . 65 . 69 . 71 . 80 . 83 . 84 . 88 . 89 . 90 . 91 . 93 . 94 . 96 . 112

IV

Tabellenverzeichnis 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20

Kontinuum von Daten zu Wissen . . . . . . . . . . . . . . . . . . 3 Merkmale der Ressource Wissen . . . . . . . . . . . . . . . . . . . 4 Wahrnehmung von Diagrammen . . . . . . . . . . . . . . . . . . . 16 Technische Auflösung ausgewählter Geräte . . . . . . . . . . . . . 18 Hinweisreize für Tiefe . . . . . . . . . . . . . . . . . . . . . . . . . 27 Zahlentabelle nach Anscombe . . . . . . . . . . . . . . . . . . . . 33 Eigenschaften von Diagrammelementen der Fehlerquote nach sortiert 47 Ausgemessene Farbwerte . . . . . . . . . . . . . . . . . . . . . . . 82 Werte für den 1.Test des Lügenfaktors . . . . . . . . . . . . . . . 88 Werte für den 2.Test des Lügenfaktors . . . . . . . . . . . . . . . 89 Allgemeine Kriterien für die Bewertung der Lesbarkeit von Grafiken102 Kriterien für die Bewertung der Lesbarkeit von Achsen . . . . . . 104 Kriterien für die Bewertung der Lesbarkeit von Tickmarks . . . . 105 Kriterien für die Bewertung der Lesbarkeit von Rastern . . . . . . 105 Kriterien für die Bewertung der Lesbarkeit von Beschriftung . . . 107 Kriterien für die Bewertung der Lesbarkeit von Farben . . . . . . 108 Werte zur Untersuchung des Lügenfaktors . . . . . . . . . . . . . 110 Benutzte Software . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 Nachweis der Datenquellen und angewandte Software . . . . . . . 113 Quellen in R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

1

1 Einleitung Die Bedeutung von grafischen Darstellungen ist sprichwörtlich. Trotzdem geschieht es immer wieder, dass man eine Grafik sieht, die nur eine Frage hervor ruft: Was will mir der Autor1 dieser Grafik eigentlich sagen? Ziel dieser Arbeit ist es folgendes zu zeigen: Welche Besonderheiten gibt es im Wissenstransfer mit Diagrammen? Kann man diese Merkmale in aktuellen Tabellenkalkulationen wiederfinden? Dazu gehört der Versuch Kriterien für eine Grafik guter Form — einer Darstellung, die den technischen und wissenschaftlichen Standards entspricht und Ästhetik vermittelt — aufzustellen und die Tabellenkalkulationen nach diesen Kriterien auszuwerten. Am Anfang steht der Wissenstransfer, dessen Definition den Rahmen für die folgenden Überlegungen bildet. Wir betrachten den Wissenstransfer aus der Sicht des Wissensmanagements, der Organisation und des Individuums. Es werden Fakten dargelegt, die zeigen warum der Leser einer Datengrafik vom Ersteller derselben abhängt. Um ein Diagramm wahrnehmen zu können, wird Wahrnehmung im Sinne des Sehens erklärt. Der Schwerpunkt liegt dort auf den Faktoren, die die Wahrnehmung von Diagrammen beeinflussen: Muster, Farbe, Raum und Wissen. Das räumliche Sehen hat eine ungeahnte Bedeutung für Diagramme. Basierend auf diesen Fakten werden wir Diagramme kennen lernen. Im Kontext der Diagramme werden Teile der Wahrnehmung genauer dargelegt. Aufbauend auf klassischen Diagrammtypen werden ausgewählte neue Typen vorgestellt und deren Einsatzmöglichkeiten erklärt. Hier sind Fakten zu finden, die den Einsatz dieser neuen Typen als Ersatz für Bekannte begründen. Gestaltungsprinzipien von Diagrammen werden unter anderem auch einen Archetypus einer analytischen Grafik zeigen. Trotz Ihres Alters hat sie nicht an Ihrer Aussagekraft verloren und zeigt wichtige Punkte beim Erstellen und Erarbeiten einer Datengrafik.

1

Ich bin mir der Debatte um Geschlechtsneutralität bewusst, habe aber aus Gründen der Lesbarkeit in meiner Arbeit vorwiegend die männliche Form, wenn es mir nicht möglich war neutral zu formulieren, gewählt.

2 In der Analyse wird ein Kriterienkatalog zeigen, wie spezifisch manche Ratschläge aus der Literatur sind und warum die Diagramme aus Tabellenkalkulationen in der Standardeinstellung als Ausgangspunkt für Optimierungen zu betrachten sind. Im Detail betrachten wir noch die Farben und den Lügenfaktor in aktuellen Tabellenkalkulationen. Abschließend werden wir die Besonderheiten des Wissenstransfers mit Diagrammen noch einmal Revue passieren lassen und einen Blick in die Zukunft der quantitativen Abbildungen und ihrer Bedeutung für den Arbeitsalltag wagen. Im Anhang sind Kriterienkataloge und ein Verzeichnis der verwendeten Software und Datenquellen untergebracht, falls der Wunsch besteht, bestimmte Daten genauer zu betrachten und eigene Grafiken zu erstellen.

3

2 Wissenstransfer 2.1 Definition und Unterscheidungen Man könnte glauben zu wissen, was Wissen ist. In der Literatur findet man dann vielerlei Definitionen, manchmal sogar eine Liste von Definitionen2 . Das deutet darauf hin wie ungreifbar das Wissen als Begriff ist und wie notwendig es ist klar zustellen worüber man spricht. Folgende Definition von Wissen wird im vorliegenden Text als gültig betrachtet: Wissen bezeichnet die Gesamtheit der Kenntnisse und Fähigkeiten, die Individuen zur Lösung von Problemen einsetzen. Dies umfasst sowohl theoretische Erkenntnisse als auch praktische Alltagsregeln und Handlungsweisen. Wissen stützt sich auf Daten und Informationen, ist im Gegensatz zu diesen jedoch immer an Personen gebunden. Es wird von Individuen konstruiert und repräsentiert deren Erwartungen über Ursache-Wirkungs-Zusammenhänge.3 In einem weiteren Schritt benötigen wir eine Abgrenzung von Wissen zu Information und Daten. Probst/Raub/Romhardt (2003) sprechen in ihrer Arbeit von einem Kontinuum von Daten und Informationen zu Wissen in dem ein Verdichtungsprozess von einzelnen Zeichen hin zu Wissen läuft.4 Der Verlauf einzelner Daten . . . . . . Information . . . . . . Wissen unstrukturiert . . . . . . strukturiert isoliert. . . . . . verankert kontext-unabhängig. . . . . . kontext-abhängig geringe Verhaltenssteuerung. . . . . . hohe Verhaltenssteuerung Zeichen . . . . . . kognitive Handlungsmuster distinction . . . . . . mastery/capability kein sprunghafter, sondern stetiger Qualitätswandel Tabelle 1: Kontinuum von Daten über Information zu Wissen (aus: Probst/Raub/ Romhardt (2003), S. 17) Parameter wird in Tabelle 1 ersichtlich. So ist im Falle von Diagrammen die Tatsache der Kontextbindung von Wissen ein Merkmal, dass es von Daten und 2 3 4

Vgl. Amelingmeyer (2004), S. 41f. Probst/Raub/Romhardt (2003), S. 22. Vgl. Probst/Raub/Romhardt (2003), S. 18.

4 Information trennt. Um zu verstehen, dass Daten keine Information und schon gar kein Wissen sind, betrachten wir die Eigenschaften und Parameter auf der linken Seite der Tabelle, die die Daten darstellen. Daten sind Zeichen, die sich unterscheiden5 , kontext-unabhängig sind und in einer isolierten und unstruktierten Art vorliegen. Bei der Weiterentwicklung von Daten geschieht eine Kontextualisierung, Strukturierung und Verankerung in einem System, wobei man von Information spricht. Dies geschieht solange bis die ursprünglichen Daten nur noch schwer wahrnehmbar sind (durch die Verankerung und Verhaltenssteuerung) und Wissen vorliegt. Im Fall der vorliegenden Arbeit spielt eine Unterscheidung von verschiedenen Arten des Wissens eine untergeordnete Rolle. Wir wollen trotz der Tatsache, dass andere Autoren mit einer unterschiedlichen Definition von Wissen arbeiten, einige andere Unterscheidungen betrachten. Merkmale Kontextbindung Übertragung Explizierung

Aneignung

implizites Wissen gebunden an sensorische Erfahrung gemeinsame Anwendung von Wissen aufwendiger Prozess der Externalisierung durch gemeinsame Praxis

explizites Wissen gebunden an intellektuelle Erfahrung Kommunikation von Wissen Dokumentation in 1. Zahlen 2. Text 3. Bilder durch gemeinsames Lernen

öffentliches Wissen gemeinsame Praxis Wertsteigerung durch Verbreitung setzt gemeinsame „Sprache“ voraus durch geteilte Öffentlichkeit

proprietäres Wissen organisationsgeschützte Praxis Wertminderung durch Verbreitung setzt gemeinsame Interessen voraus durch geteilte Geheimhaltung oder Eigentumsrechte

Tabelle 2: Merkmale der Ressource Wissen (aus: Willke (2001), S. 67) In Tabelle 2 ist eine kurze Aufstellung und Unterscheidung, wie Willke sie getroffen hat, zu finden. Sowohl Nonaka/Takeuchi6 als auch Willke7 benutzen die Trennung zwischen explizitem und implizitem Wissen nach Polyani8 . Implizites 5

6 7 8

Anm. zu Tabelle 1: distinction bedeutet Unterscheidung, mastery/capability kann durch Können übersetzt werden. Vgl. Nonaka/Takeuchi (1997), S. 71f. Vgl. Willke (2001), S. 12. Vgl. Polyani (1985), S. 18–22.

5 Wissen unterscheidet sich von explizitem Wissen unter anderem dadurch, dass es nicht oder nur mit erheblichem Aufwand kodifiziert oder ausgedrückt werden kann. An Hand von Tabelle 2 sieht man, dass es sich bei Diagrammen um explizites respektive explizierbares Wissen handelt. Das implizite Wissen scheint eine untergeordnete Rolle zu spielen. Manche Gestaltungsprinzipien bei der Erstellung von Diagrammen entstammen jahrelanger Praxis und man kann nicht explizit jede Vorgehensweise begründen. Weiterhin kann nicht angenommen werden, dass der Leser eines Diagramms diese Gestaltung so versteht, wie der Empfänger es gemeint hat. Abschließend muss noch einmal betont werden, dass Wissen als direkt mit einer Person „verknüpft“ betrachtet werden kann und immer von einer Person erschaffen wird. Daten und Informationen sind nicht notwendigerweise in einer Person verankert und können auch anders vorliegen. Und es gibt Grund zu der Annahme, dass es nicht möglich ist jedes bzw. jeden Teil eines Wissens zu explizieren. Die Kodifikation von Wissen, also die Erfassung aller Inhalte und Zusammenhänge, ist eine Grundvoraussetzung um einen Transfer vorzunehmen. Transfer ist ein vieldeutiger Begriff. In der Psychologie bezeichnet er die Beeinflussung von Lernprozessen durch Erfahrungen, im wirtschaftlichen Bereich das Übertragen von Werten und die Pädagogik betrachtet den Transfer als die Übertragung von Erlerntem auf eine andere Aufgabe.9 Es bestehen weitere Möglichkeiten, den Transfer zu teilen oder zu klassifizieren: (1) Positiver, (2) Negativer und (3) Nulltransfer sind Staffelungen nach dem Erfolg, (1) Lateraler und (2) Vertikaler Transfer nach der Richtung in einer Organisation und schliesslich noch die Teilung in (1) innovativen und (2) Routinetransfer nach der Art der Anwendung des Übertragenen.10 Teil aller dieser Unterscheidungen ist der Schluss, dass etwas übertragen wird.

2.2 Wissen und Transfer Wenn man die bisher zusammen getragenen Fakten zusammen stellt, ergibt sich folgendes Bild. Wissen, dass nur im Kopf eines Subjekts existiert und dessen Kopf dieses Wissen auch geschaffen hat, widerspricht dem wortwörtlichen Sinn von 9 10

Vgl. Becker (2005), S. 240f. Vgl. Becker (2005), S. 242.

6 Wissenstransfer. Transfer würde bedeuten, dass etwas von A nach B gelangt, nur dass dieses Etwas im Fall des Wissenstransfers Wissen ist und per definitionem mit einer Person verknüpft ist. Hinzu kommt die Möglichkeit, den Wissenstransfer als Aktion eines Systems zu interpretieren. Wir sehen, dass diese wortwörtliche Interpretation des Wortes Wissenstransfer also nicht stimmt. Die Mutmaßung, es könnte sich um die Übertragung von Information handeln anstatt von Wissen liegt auf der Hand, gehören Informationen doch zur Basis des Wissens. Willke (2001) gelangt zu dem Schluss, dass es den Informationsaustausch auch nicht geben kann, weil die beiden austauschenden Systeme nicht dieselben Relevanzkriterien haben, die notwendig wären um aus Daten Informationen zu machen (welches er als ersten Kontext von Relevanzen bezeichnet).11 Er definiert einen Prozess der diesem, wie er es nennt, scheinbaren Informationsaustausch zu Grunde liegt. Er [Anm.: der Informationsaustausch] besteht darin, dass ein System (Ego) eine Information als Signal in Form einer codierten Beobachtung abgibt. Für jedes andere System (Alter) ist dieses Signal nichts anderes als ein Datum, und auch dies nur, wenn es mit seiner Ausstattung an Instrumenten das Signal beobachten kann. Alter kann nun dieses Datum am Maßstab seiner spezifischen Relevanzen bewerten und daraus eine Information konstruieren. Klar ist, dass dies für Alter eine andere Information ist als für Ego, sonst wären beide Systeme ja identisch.12 Unter Ausschluss der Identität von Sender und Empfänger bleibt für den Wissenstransfer die Übertragung von Daten, die auch nur dann funktioniert, wenn diese Daten wahrgenommen werden können. Jetzt werden die Daten, die schon Informationen sind, in einen zweiten Kontext von Relevanzen eingebunden, wodurch sie zu Wissen werden. Diese Relevanzen sind keine Kriterien wie in der ersten Umwandlung, sondern „Erfahrungsmuster“.13 Aus den bisher angeführten Fakten lassen sich folgende Dinge schließen: 1. Der Prozess zwischen den beiden Systemen ist kein Wissenstransfer im wörtlichen Sinne, sondern es handelt sich um einen Datentransfer. 11 12 13

Vgl. Willke (2001), S. 8f. Willke (2001), S. 9. Vgl. Willke (2001), S. 11.

7 2. Der Anstoß des Wissenstransfers kann nicht alleine vom Sender ausgehen. Der Wissenstransfer ist eine Aktion des Empfängers beziehungsweise bedarf der Mitwirkung des Empfängers.14 3. Die übermittelte Nachricht muss vom Sender nicht nur in Relevanzen eingebettet werden, sondern auch aktiv verarbeitet werden, um mehr als Information zu werden. 4. Der Wissenstransfer kann von beiden Seiten gemeinsam oder jeder für sich initialisiert werden, aber nur in Kooperation funktionieren. Der Einflussbereich des Senders ist aber keineswegs gleich Null! Der Sender hat die Verantwortung und den Einfluss auf Qualität und Quantität der Daten, deren Kodifizierung und Auswahl des Transfermediums und somit großen Einfluss auf die Effektivität und Effizienz des Transfers. Das bedeutet aber auch, dass alle am Wissenstransfer beteiligten Personen am Erfolg dieser Weitergabe von Wissen partizipieren. Der Erfolg, im Sinne eines effektiven Transfers, kann wie folgt definiert werden: Wissen wurde dann wirksam weitergegeben, wenn der Lerntransfer in die Praxis gelingt, das heißt die Lernenden später im „richtigen“ Moment darauf zugreifen. Das muss das erste und wichtigste Ziel jeder Wissensvermittlung sein.15 Die Überlegungen in diesem Kapitel bisher waren an die Tatsache angelegt, dass zwei Systeme miteinander kommunizieren und dass diese beiden Systeme Einzelpersonen entsprechen. Natürlich kann das empfangende Systeme aus mehreren Personen bestehen und man kann die letzten Überlegungen noch einmal für diesen Fall durchspielen. Das Ergebnis der Überlegungen wird jedoch dasselbe sein, da durch die Einführung eines Zielpublikums (und das entspricht einem empfangenden System aus mehreren Personen) die Argumentation unverändert bleibt.

2.3 Wissenstransfer und Wissensmanagement Wissenstransfer muss aber auch als Teil eines größeren Ganzen gesehen werden: als Teil des Wissensmanagements. Probst/Raub/Romhardt (2003) definieren eine 14 15

Vgl. Polyani (1985), S. 15. Dollinger (2003), S. 9.

8 Prozesslandschaft16 wie Sie in Abbildung 1 zu sehen ist. Man sieht, dass es dort

Abbildung 1: Bausteine des Wissensmanagements (aus: Probst/Raub/ Romhardt (2003), S. 32): Es gibt keinen Prozess, der Wissenstransfer heißt oder der ganzen Bedeutung entspricht. keinen Kernprozess (im Rahmen) und auch keinen Baustein mit dem Namen „Wissenstransfer“ gibt. Das liegt an dem Fokus, der angelegt wird und der liegt auf den Menschen. Wenn man sich die Definition von Wissen von Seite 3 in Erinnerung ruft: Das Wissen ist in den Köpfen der Menschen und kann somit nicht berührt werden. Insofern ist der Wissenstransfer ein Bestandteil der Wissens(ver)teilung und auch ein Teil der Identifikation, Bewahrung, Erwerb, Entwicklung und eingeschränkt auch Nutzung von Wissen.17 All diese Dinge benötigen den Transfer um zu funktionieren, um Daten zu erhalten oder weiterzugeben. Es ist nahe liegend zu vermuten, dass die Bezeichnung Wissensmanagement eine ähnliche Fehlbezeichnung wie Wissenstransfer ist. Eine Argumentationslinie kann zumindest mit dem Argument begonnen werden, dass Wissen als fest mit einer Person verbunden zu betrachten ist. Dies ist aber nicht Gegenstand dieser Arbeit. Die vorangegangenen Argumente deuten darauf hin, dass es eine Weitergabe von Wissen gibt. Es gibt noch keinen Hinweis inwiefern dieser Transfer effizient ist. Wissenstransfer ist der Transfer von Daten des Senders zu einem Empfänger mit dem Ziel, dass dieser die Daten interpretieren kann und durch Lerntransfer soweit gelangt, dass er Kenntnisse und/oder Fähigkeiten erlangt die vorteilhaft bei der Lösung von Aufgaben sind. 16 17

Vgl. Probst/Raub/Romhardt (2003), S. 28–33. Abhängig von der Art und Weise der Nutzung.

9 Und Wissenstransfer ist der Transfer des Empfängers von einem Sender mit dem Ziel möglichst viele dieser Daten zu empfangen und durch Einbinden in den persönlichen Kontext Vorteile bei der Lösung anderer Aufgaben zu erlangen. Die Rolle des Wissensmanagements liegt nicht im direkten Beeinflussen des Transfers, sondern im Schaffen von Rahmenbedingungen.

2.4 Wissenstransfer und die Organisation Die moderne Organisationstheorie kennt auch den Begriff der organisationalen Wissensbasis, welche sich wie folgt definiert: Die organisationale Wissensbasis setzt sich aus individuellen und kollektiven Wissensbeständen zusammen, auf die eine Organisation zur Lösung ihrer Aufgaben zurückgreifen kann. Sie umfasst darüber hinaus die Daten und Informationsbestände, auf welchen individuelles und organisationales Wissen aufbaut.18 Die Änderungen dieser organisationalen Wissensbasis wird als organisationales Lernen bezeichnet.19 Das Wissensmanagement benötigt den Wissenstransfer um manche dieser Veränderungen zu vollziehen, da mittels des Wissenstransfers zumindest die Wissensbasis des Individuum beeinflusst werden kann. Aus der Perspektive des Wissenstransfers ist die organisationale Wissensbasis die Grundlage aus der er seine Daten für systeminterne und -externe Kommunikation gewinnt. Es existieren heutzutage immer mehr Organisationen, die Ihre Daten in Datenbanken sammeln. Oft ist der Weg dieser Daten über einen automatisierten Report aus der Datenbank an den Endnutzer, der ihn entweder aktiv angefordert hat oder diesen automatisiert zugestellt bekommt. Das Spektrum reicht von DataMining bis zu Fehlerberichten in der Haustechnik. Im Zeitalter von E-Mail und ähnlichen günstigen und einfachen elektronischen Hilfsmitteln stellt sich verstärkt die Frage, wer was mit welchem Detaillierungsgrad wissen muss. Es existieren Barrieren individueller Natur, beispielsweise die Faktoren Vertraulichkeit und Geheimhaltung, sowie die Tatsache, dass es kon18 19

Probst/Raub/Romhardt (2003), S. 22. Vgl. Probst/Raub/Romhardt (2003), S. 23.

10 traproduktiv ist, wenn allen alles Wissen zugänglich gemacht wird.20 Für den Wissenstransfer bedeutet das: Wenn es einfach ist jemandem Daten zu kommunizieren, dann erleichtert das nicht nur die gewünschte Kommunikation sondern es erleichtert auch die unerwünschte Kommunikation. Wenn es hingegen sehr schwer ist zu kommunizieren, dann existiert im schlechtesten Fall keine Kommunikation und somit ein kein Transfer.

2.5 Allgemeines und Wissenstransfer Wissenstransfer als Konzept kann nicht direkt aus dem umgangssprachlichen Gebrauch übernommen werden. Durch die Natur des Wissens ergibt sich, dass Wissen in einem abgeschlossenem System (im Sinne eines Menschen) entsteht und von dort in Form eines Datentransfers zu einer anderen Person gelangen kann. Dem Empfänger obliegt es den Datenstrom zu einer Information umzuwandeln und diese schließlich in Wissen umzuwandeln. Nicht alles Wissen ist von vornherein dazu geeignet expliziert und somit weitergegeben zu werden. Zusätzlich ergibt sich die Problematik, dass der Erfolg des Wissenstransfers — ohne Rücksichtnahme auf Perzeption und Übertragungsfehler — stark von der Mitwirkung des Empfängers abhängt. Die Effizienz und die Effektivität des Wissenstransfers hängt aber auch vom verwendeten Übertragungsmedium ab.21 Somit kann man Wissenstransfer als Prozess definieren, der sowohl Sender als auch Empfänger unabhängig von einander einbezieht. Ziel des Wissenstransfers ist es das erlernte Wissen soweit zu festigen, dass der Umgang mit diesem in der Praxis zur richtigen Zeit möglich ist. Die Unabhängigkeit der beteiligten Systeme geht so weit, dass es problematisch sein kann, eine Zielgruppe oder Zielsysteme zu definieren oder das Umfeld des sendenden Systems zu erfassen. Die Besonderheiten im Hinblick auf Diagramme sind dem hinzuzufügen, die da sind:

20 21

Vgl. Probst/Raub/Romhardt (2003), S. 141–148. Näheres dazu später im Kapitel 3.

11 1. Eine mögliche aber nicht notwendige Asynchronität22 bei der Übertragung, da ein Übertragungsmedium zwischengeschalten wird, das Asynchronität zuläßt. 2. Es gibt sehr wahrscheinlich mehrere Empfänger, aber nicht notwendigerweise. 3. Das Auftreten ist a) alleine. b) in Verbindung mit Text. c) im Text.23 d) gemeinsam mit anderen Diagrammen. 4. Die Übertragung läuft hauptsächlich über den visuellen Kanal. Es besteht im Kontext einer Präsentation die Möglichkeit auditiver Erklärung. Der Wissenstransfer ist nicht ident mit dem Lerntransfer oder Lernen. Lernen hat als Ziel den Lerntransfer, also die Übertragung des Gelernten in die Praxis. Der Wissenstransfer kann im Gegenzug als effektiv betrachtet werden, wenn der Lerntransfer gelingt. Ziel des Wissenstransfers ist es, möglichst viele Daten zu transferieren, die in einer für den oder die Empfänger lesbaren Form vorliegen.

22 23

im Sinne von nicht gleichzeitig Gemeint sind Grafiken in der Größe von Worten. Weiter hinten in der Arbeit ist ein Teilabschnitt diesem Thema gewidmet.

12

3 Wahrnehmung 3.1 Wahrnehmung und Wissenstransfer Wir haben bisher die beteiligten Systeme als Teilsysteme eines Prozesses beleuchtet, ohne nach den Randbedingungen zu sehen. Im Fall des Wissenstransfers mittels Diagrammen handelt es sich um eine optische Übertragung, das bedeutet wir beleuchten den menschlichen Sinn Sehen.24 Der Vorgang des Sehens und somit der visuellen Wahrnehmung ist eine kritische Stelle im Wissenstransfer von Diagrammen oder wie es Cleveland (1994) ausgedrückt hat: No matter how intelligent the choice of information, no matter how ingenious the encoding of information, and no matter how technologically impressive the production, a graph is a failure if the visual decoding fails.25 Dieses visuelle Dekodieren der Nachricht ist ein komplexer Vorgang, deren Grundzüge hier dargelegt werden.

3.2 Auge und Information Die Wahrnehmung visueller Reize findet mit dem Auge statt. Dieses kann nicht jeden Reiz wahrnehmen, sondern nur einen eingeschränkten Bereich der elektromagnetischen Strahlung deren Wellenlänge im Bereich von 380nm bis 760nm liegt.26 Diese Wellen treffen, wie in Abbildung 2 zu erkennen ist, zu aller erst auf die Cornea (auch Hornhaut genannt) und fallen dann durch die Öffnung der Iris auf die Linse. Die Iris ist das Äquivalent zur Blende der Kamera und regelt den Lichteinfall. Durch die Linse wird das Bild kopfüber auf die Netzhaut (die Retina) und somit auf die Zapfen und Stäbchen projiziert. Die Zapfen und Stäbchen sind die Rezeptoren in der Netzhaut. Die Sehgrube (auch Fovea) weist eine hohe Dichte an Zapfen auf, erzeugt so ein sehr scharfes Bild. Wenn man ein Objekt 24

25 26

Natürlich gibt es auch noch andere Möglichkeiten Diagramme wahrzunehmen, wie zum Beispiel die Möglichkeit des Ertastens, wie dies in barrierefreien Anwendungen der Fall sein kann. Wir betrachten die Diagramme ausschließlich als Visualisierungen, da das Miteinbeziehen der taktilen oder auditiven Komponente den Umfang dieser Arbeit sprengen würde. Cleveland (1994), S. 221. Vgl. Zimmermann/Weigert (1995), S. 30 (Augenempfindlichkeit).

13

Abbildung 2: Das menschliche Auge (aus: Ware (2004), S. 39) fixiert, bewegen wir unsere Augen so, dass das gesehene Objekt auf die Fovea projiziert wird.27 Das Auge ist aber nur eine Vorstufe der Wahrnehmung, wie auch in Abbildung 3 zu sehen ist. In der Folge benutzen wir ein vereinfachtes dreistufiges Modell für die visuelle Wahrnehmung des Menschen.28 Durch die Tatsache, dass Licht einmal wahrgenommen wurde ist eine Voraussetzung für den Wissenstransfer gegeben: Der Mensch besitzt die Möglichkeit visuelle Reize wahrzunehmen.

3.3 Wahrnehmung und Modell Dieser Abschnitt gibt in Kürze das Wahrnehmungsmodell nach Ware (2004) wieder.29 Es ist zu zeigen, dass die wahrgenommenen Reize auch zu Daten weiterverarbeitet werden. Auf weitere Quellverweise wird verzichtet, wenn es sich nicht um Quellen Dritter handelt.

27 28 29

Vgl. Mayer (2000), S. 33. Vgl. Ware (2004), S. 20. Vgl. Ware (2004), S. 20–22.

14

Abbildung 3: Dreistufiges Modell der visuellen Wahrnehmung (aus: Ware (2004), S. 21) In Stufe 1 (Parallel Processing to extract Low-Level Properties of the Visual Scene)erfolgt eine Verarbeitung der visuellen Reize durch die Neuronen im Auge und dem visuellen Cortex im Gehirn. Als wichtige Charakteristika dieser Stufe definiert Ware 4 Dinge: • Schnelle parallele Verarbeitung • Extraktion von Eigenschaften, wie etwa Orientierung, Farbe, Textur und Bewegungsmustern • Transitorische Natur der Information, welche kurz in einem Zeichenspeicher gehalten wird • Ein bottom-up datenlastiges Modell der Verarbeitung Wie in Abbildung 3 hervorgehoben wird, ist dies eine wichtige Phase, was die Orientierung und Farberkennung betrifft. In Stufe 2 (Pattern Perception) wird das Sichtfeld in Sektoren und einfache Muster zerlegt (z.B.: gleiche Farbe, Textur, Kontur) und verarbeitet. Ware erwähnt an dieser Stelle die Zwei-Visuelle-Systeme-Hypothese, nach der es zwei Systeme gibt: Eines für Handlung und Fortbewegung, sowie eines für symbolische Objektmanipulation. In Abbildung 3 ist dies durch die Termini „What“-System und „Action“-System dargestellt. Als Charakteristika dieser Stufe zählt er folgende Dinge auf:

15 • Langsames serielles Verarbeiten • Inanspruchnahme von Kurzzeit- und Langzeitgedächtnis • Schwerpunkt auf zu erlernende Aspekte von Symbolen • Ein fließender Zustand zwischen bottom-up Eigenschaftsverarbeitungen und top-down Aufmerksamkeitsmechanismen • Verschiedene Pfade für Objekterkennung und Bewegungskoordination Kennzeichen dieser Phase ist die Verarbeitung der massiven Daten aus Stufe 1 in Gleichzeitigkeit mit Aufmerksamkeitsmechanismen, also Anfragen. In Stufe 3 (Sequential Goal-Directed Processing) sinkt die Anzahl der Objekte, die gleichzeitig im visuellen Kurzzeitgedächtnis gehalten werden können. Um eine externe Visualisierung benutzen zu können, müssen jetzt Anfragen gestellt werden, die durch visuelle Suchstrategien beantwortet werden. Die möglichen visuellen Antworten auf diese Fragen bilden Grundmuster aus denen die Objekte im Kurzzeitgedächtnis zusammengesetzt werden. In dieser Stufe der Wahrnehmung sind auch die Schnittstellen zu anderen Subsystemen (in Abbildung 3 nicht ersichtlich), wie beispielsweise dem motorischen System. Stufe 3 bietet Argumente, warum manche Darstellungsformen durch die Art der Überladung mit Daten nicht funktionieren, wie es etwa bei Liniendiagrammen mit mehreren Linien der Fall ist. Dies geschieht durch die Beschränkungen im Kurzzeitgedächtnis. Es bietet sich an nicht mehr als 7±2 Datensymbole zu verwenden, die in etwa die Kapazitätsgrenze darstellen.30 Hier sind unter Datensymbolen nicht nur Linien, sondern auch Punktgruppen zu verstehen. Näheres dazu im Abschnitt Muster und Erkennung. Im Hinblick auf die Diagramme im Sinne quantitativer Darstellungen sollten auch die Teile des Wahrnehmungsmodells von Cleveland (1994) erwähnt sein.31 Diese gründen nicht auf physiologische Faktoren wie das Modell nach Ware (2004), sondern auf die Arbeit des Empfängers mit dem Diagramm. Aus der Sicht von Cleveland existieren als Randbedingungen einmal quantitative und kategorische Informationen, welche wiederum als physische Information (Name, Jahr, Größe, Gewicht, etc.) und der skalierten Information32 (Symbol, Ort auf dem Diagramm, Abstand zur Grundlinie, etc.) beschrieben werden können. Das visuelle 30 31 32

Vgl. Miller (1956). Vgl. Cleveland (1994), S. 223–227. Man spricht heutzutage auch von der Repräsentation dieser Information

16 Dekodieren besteht nun aus zwei Aktionen: Der Mustererkennung und der Wertzuordnung33 , welche wiederum aus Suboperationen bestehen, die in Tabelle 3 aufgelistet sind. Aus Tabelle 3 kann man zusätzlich schließen, dass es dem Autor Vorgang Mustererkennung

Teilprozess Erfassung Zusammensetzen Schätzen

Wertzuordnung

Scannen Interpolieren Zuordnen

Beschreibung Erkennen eines Elements Zusammenfassen ähnlicher Elemente Unterscheiden, Ordnen, in Verhältnis setzen Suche nach Element Lageschätzung des Elements Element und Wert zuordnen

Tabelle 3: Vorgänge und Teilprozesse bei der Wahrnehmung von Diagrammen (Vgl. Cleveland (1994), S. 224–226) einer Datengrafik obliegt, diese mit dem Gesichtspunkt zu gestalten, die dem Benutzer Arbeit abnimmt. Sollen in einer Abbildung Größen miteinander verglichen werden, so kann man diese schon ordnen. Will man bestimmte Werte besonders betonen, kann man dies tun, indem man die Wertzuordnung oder Erkennbarkeit erleichtert.34 Alle diese Aktionen müssen allerdings auf der Seite des Senders überlegt und umgesetzt werden um den Effekt beim Empfänger zu maximieren.

3.4 Auflösung und Sehschärfe Wie auf Seite 13 schon erwähnt wurde ist die Auflösung des Auges im Bereich der Fovea am höchsten. Dort ist die Dichte ungefähr 180 Rezeptoren pro Grad Sichtwinkel, was in etwa dem vierfachen der aktuellen Auflösung von Monitoren entspricht.35 Eine Möglichkeit detaillierte Information aufzunehmen ist es, diese mit der Fovea zu erfassen. Wenn man der Verfasser einer Visualisierung ist, hat man auch die Möglichkeit die Parafovea zu nutzen, einen Bereich der in etwa 6 Grad im Durchmesser um die Fovea liegt.36 Bei einer Entfernung von 60 cm entspräche 33

34

35 36

Im Original als Pattern Perception and Table Look-Up bezeichnet. Vgl. Cleveland (1994), S. 223f Man findet in der englischsprachigen Literatur an mehreren Stellen die Beschreibung von information that pops out, also Information, die ins Auge springt. Vgl. Ware (2004), S. 62. Vgl. Ware (2004), S. 56.

17

Abbildung 4: Scharfsicht des Auges (aus: Ware (2004), S. 51): Die Scharfsicht des Auges fällt schnell mit dem Abstand zur Fovea. Sehr gut zu sehen ist hier auch der blinde Fleck. das einem Kreis von 6,29cm Durchmesser.37 Jede Grafik, die in einem Buch in einen solchen Kreis passt kann also in bester Detailaufnahme als eine Einheit erfasst werden, unter der Annahme, dass man es etwa 60cm vom Kopf entfernt hält.38 In Abbildung 4 kann man erkennen, wie das Auflösungsvermögen rund um die Fovea verteilt ist und auch die Lage des blinden Flecks, der bisher unerwähnt blieb, aber eine Stelle ohne Auflösung darstellt, da hier der Sehnerv gemeinsam mit den Blutgefäßen ins Auge mündet. Die Stelle des blinden Flecks ist blind, weil es dort keine Rezeptoren gibt. Allerdings decken sich die blinden Flecken beider Augen beim Sehen nicht, sodass das Gehirn aus den beiden Bildern wirklich ein Gesamtbild ohne Lücken erdenken kann.39 Das Auge kann aber nur erfassen, was da ist. Auf der technischen Seite unterscheidet man zwischen Dots beziehungsweise Pixeln pro Inch. dpi: dots per inch Die Fähigkeit der Ausgabe einer bestimmten Anzahl von Punkten auf ein Medium. Diese Angabe bezieht sich auf Drucker und ähnliches. ppi: pixel per inch Die Angabe welche Anzahl an kleinsten Bildeinheiten in einem Medium gespeichert oder ausgelesen werden kann. Das bezieht sich auf Scanner, Monitore und ähnliches. 37 38 39

Berechnung des Autors Entfernung eines Buches vom Gesicht (Schätzung des Autors) Vgl. Mayer (2000), S. 34.

18 Auf der technischen Seite bedeutet das im Fall von aktuellen Monitoren eine Auflösung ab 72dpi und zu erwartenden Druckqualitäten ab 600dpi (vgl. Tabelle 4) Warum existiert eine Auflösung, die weit höher ist, als es eigentlich notwendig Ausgabegerät Monitor TFT Notebook S/W-Laserdrucker Fotodrucker

Auflösung Beispiel 72ppi Usabilityempfehlung 96ppi Acer Travelmate 3000 600dpi Brother HL-2030 interpoliert 1200dpi 1200dpi HP Deskjet 9800 interpoliert 2400dpi

Tabelle 4: Technische Auflösung ausgewählter Geräte wäre? Da eine Auflösung von 150 Punkten pro Grad im Auge vorhanden ist, können die Überauflösungen (bei drucktechnischen Belangen) auf drei Gründe zurückgeführt werden: Aliasing, Graustufen und die bereits erwähnte unregelmäßige Sehschärfe.40 Aliasing entsteht durch das Umrechnen eines Musters mit einem Neuem anderer Wellenlänge.41 Ein bekanntes Beispiel eines unerwünschten Artefakts sind die Moirémuster. Das Aliasing kann durch Antialiasing unterbunden werden, indem man die Durchschnittshelligkeit pro Pixel berechnet und so aus größerer Entfernung ein quasi fehlerfreies Bild entsteht. Da ein normaler Drucker keine echten Grautöne drucken kann (mit Ausnahme weniger Fotodrucker, die über eine graue Druckerpatrone verfügen, z.B.:HP Deskjet 9800, also zumindest einen Grauton ohne Muster erzeugen können), sondern die Grautöne mit schwarzen und weißen Punkten interpoliert werden, wird eine größere Dichte benötigt um möglichst viele dieser Graustufen in Form von Mustern zu erzeugen. Das ist ein Grund, warum Schraffuren als Kennzeichnung von Flächen eher zu unterlassen sind. Ein anderer ist die Interaktion der Schraffur mit den Begrenzungslinien, die Teil des schraffierten Objekts sind.

3.5 Muster und Erkennung Wie wir vorher schon festgestellt haben, findet in Stufe zwei eine erste Verarbeitung von Mustern statt. Diese Verarbeitung muss stattfinden um die optischen

40 41

Vgl. Ware (2004), S. 63–67. Vgl. Ware (2004), S. 64f.

19 Eindrücke zu gruppieren und Objekte zu erfassen. Die zugrunde liegenden Prinzipien bezeichnet man als Gestaltgesetze.42 Berücksichtigt man diese Prinzipien, kann man verschiedene unerwünschte Effekte der Wahrnehmung vermeiden oder erkennen. Zur Demonstration findet man einfache Beispiele für die Gestaltgesetze in Abbildung 5.

Abbildung 5: Ausgewählte Gestaltgesetze: (a) Nähe, (b) Ähnlichkeit, (c) Verbundenheit, (d) gute Fortsetzung, (e) Geschlossenheit, (f) Figur und Hintergrund, (g) „1+1=3 oder mehr“ Die Reihung der folgenden Gestaltgesetze ist willkürlich, da sie in der Kombination die Wirkung ändern können. Das geht bis zum Auslöschen der Wirkung eines anderen Prinzips.43 (a) Gesetz der Nähe: Dieses Prinzip besagt, dass Elemente, die näher zueinander liegen als Gruppe (oder als zusammengehörig) empfunden werden. 42

43

Definitionen und Ausführungen in der Folge nach Vgl. Zimbardo/Gerrig (2004), S. 175–178; Mayer (2000), S. 15, 36–39; Ware (2004), S. 189–201 Ware (2004), S. 200f.

20 Nicht nur die kleinen Quadrate der Abbildung formieren Gruppen, auch die Klammern der Beschriftung bilden Gruppen mit den Buchstaben und diese wiederum mit den Abbildungen. (b) Gesetz der Ähnlichkeit: Auch dieses Prinzip dient der Gruppierung, allerdings werden ähnliche Elemente gruppiert. Zum Beispiel Elemente der gleichen Farbe oder Kontur. (c) Gesetz der Verbundenheit: Miteinander verbundene Elemente werden als zueinander gehörend interpretiert. (d) Gesetz der guten Fortsetzung: Dieses Prinzip hilft sich überlagernde Reize voneinander zu trennen. So wird die vorliegende Figur als sich zwei kreuzende Linien wahrgenommen und nicht als zwei Linien mit einem Knick. (e) Das Gesetz der Geschlossenheit: Dieses Prinzip heißt oft auch das Gesetz der guten Gestalt. Beim Sehen hat der Mensch die Tendenz fehlende Teile zu ergänzen. Dieses Prinzip hilft bei der Trennung von Vorder- und Hintergrund. Die rote Fläche wird als Ellipse im Hintergrund wahrgenommen. (f) Figur und Hintergrund: Eine Figur ist ein Objekt im Vordergrund und kann vom Hintergrund unterschieden werden. Die Figur im Vordergrund muss nicht einmal vollkommen abdecken. Die Okklusion des Hintergrunds wird schon erkannt, wenn das Objekt Transparenz aufweist. Im Falle von 100%iger Transparenz müssen allerdings Kanten und Brechung des transparenten Mediums vorhanden sein, um dieses wahrzunehmen. (g) Das Prinzip 1 + 1 = 3 oder mehr : Das von Josef Albers geprägte Gesetz beschreibt die Tatsache, dass zwei Objekte in Kombination bei weitem nicht nur zwei Objekte sein müssen. Zwei parallele schwarze Linien erzeugen eine dritte Weiße in Ihrer Mitte. Das bedeutet, dass durch die Interaktionen zwischen den beiden Objekten unerwünschte Effekte auftreten können, die allerdings durch das Herabsetzen des Kontrastes zwischen Vorder- und Hintergrund minimiert respektive eliminiert werden können.44 (h) Gesetz des gemeinsamen Schicksals (ohne Abbildung): Elemente, die eine Eigenschaft teilen werden als zusammengehörig empfunden und zusammengefasst(ohne Abbildung). Dies ist zum Beispiel der Fall, wenn ähnliche Kurven zu einer Kurvenschar zusammengefasst werden45 . Die Gestaltgesetze erlauben in Phase 2 die Erkennung von Mustern und die Unterscheidung von Vorder- und Hintergrund. Das Verarbeiten erfolgt in der letzten 44 45

Vgl. Albers (1969), S. 61. Vgl. Schnotz (2002), S. 75.

21 Phase. Es ist festzustellen, dass die hier angeführten Gestaltgesetze keinen Anspruch auf Vollständigkeit haben. Es wurden die Grundlegendsten für statische Darstellungen vorgestellt. Es gilt zu erwähnen, dass es auch Gestaltgesetze für Bewegungen im Gesichtsfeld gibt. Als Beispiel wurde ein Prinzip ausgewählt, weil in Ihm zu sehen ist warum die Effekte von Animationen in Diagrammen schwer vorhersehbar sind und eventuell Größen verschleiern. Gesetz der großen Bewegung: Große Bewegungen verdrängen oder löschen kleine Bewegungen aus. Klassisches Beispiel sind magische Tricks, bei denen die große Bewegung dazu dient die kleineren zu verbergen.46 Animationen von Daten sind diesem Gesetz insofern unterworfen, als die Folgen von Bewegungen schwer abschätzbar sind und interagieren. Um die Effizienz zu verbessern existiert zusätzlich die Möglichkeit das repräsentative Korrespondenzprinzip47 nach Chabris und Kosslyn zu nutzen. Es sagt aus, dass Diagramme Information so darstellen sollen, wie es der mentalen Vorstellung entspricht. Es bezieht sich auf Diagramme die von mentalen Prozessen weiterverarbeitet werden, wie das beispielsweise bei Schachdiagrammen der Fall ist.48 Man kann das Prinzip als Analogon zum Mapping in der Usability betrachten, also dem Abbilden von Gegenständen aus der realen Welt die mit der Realität korrespondieren. Das ist zum Beispiel der Fall, wenn man das Verstellen eines Autositzes über ein kleines Modell des Autositzes zulässt.49 Es gilt noch festzustellen, dass Ersteller von Diagrammen Konventionen und zielgruppen- und diagrammrelevante Faktoren nicht außer acht lassen sollen.50 Die Farbe Rot ist ein schlechter Indikator für Kälte und ein Zuwachs, der nach unten aufgetragen wird, ist schlecht zu verstehen.

46 47 48 49 50

Vgl. Tufte (2005b), S. 56. Übersetzung des Autors Vgl. Chabris/Kosslyn (2005), S. 54. Vgl. Norman (1990), S. 23–27. Vgl. Schnotz (2002), S. 80, Chabris/Kosslyn (2005), S. 48–54

22

3.6 Farbe und Schwarzweiß Wie schon erwähnt besitzt das Auge zwei verschiedene Arten von Rezeptoren: Stäbchen und Zapfen. Da Stäbchen bei guten Lichtverhältnissen überstimuliert werden, kann man sie für das Erfassen von Farbe vernachlässigen. Stäbchen sind in erster Linie für das Sehen bei sehr schlechten Lichtverhältnissen zuständig. Das Farbsehen hängt nur von den Zapfen ab, welche als α-, β- und γ-Rezeptoren vorliegen und für das Sehen der Farben Rot, Grün und Blau sorgen.51 Diese drei Farben erzeugen dann alle anderen Farben. Laut der modernen Gegenfarbtheorie geschieht dies indem die Reize aller drei Zapfenarten auf drei verschiedene Arten verarbeitet werden. Wie man in Abbildung 6 sehen kann, wird zum Beispiel der Luminanzkanal52 durch die Summe aller drei gebildet, wohingegen der Blau-Gelbkanal durch die Differenz zwischen Blau und der Summe der anderen beiden gebildet wird.53

Abbildung 6: Reizzerlegung im Gegenfarbmodell (aus: Ware (2004), S. 111): Im Gegenfarbmodell werden die Reize der Zapfen in Schwarz-Weiß(Luminanz), Rot-Grün- und Gelb-Blau-Kanäle zerlegt. Dies geschieht durch das Übertragen der Summen beziehungsweise Differenzen aus den erfassten Eindrücken. Die Gegenfarbtheorie ist auch der Grund, warum wir zwar rötliche Gelbtöne kennen, aber niemand je auf die Idee kommen würde ein bläuliches Gelb zu beschreiben. Die Paare liegen sich im Farbraum gegenüber und sind in dieser Kombination nicht möglich. Die Umkehrung dieser Überlegung führte historisch zur klassischen Gegenfarbtheorie.54 51 52 53 54

Vgl. Mayer (2000), S. 46. Anm.: Luminanz ist der Ausdruck für Helligkeit. Vgl. Ware (2004), S. 111. Vgl. Ware (2004), S. 110.

23 Auf dem Gebiet der Visualisierungen wird Farbe klassisch zur nominalen Kodierung verwendet. Man benutzt Farbe zum Beispiel um die Zuordnung von Linien zu Produkten mittels Farben herzustellen. Die zu berücksichtigende Faktoren sind55 1. Unterscheidbarkeit. 2. einmalige Farbtöne: Der Abstand der Farben zueinander sollte möglichst groß sein. Rot, Grün, Gelb und Blau sind ein gutes Beispiel. Es ist keine gute Idee verschiedene Grüntöne zu wählen. 3. Kontrast mit dem Hintergrund: Ein merkbarer Unterschied in der Luminanz zusätzlich zur Farbe ist zu empfehlen. 4. Farbsehschwäche.56 5. Anzahl. 6. Objektgröße: Objekt nicht zu klein, vor allem wenn der Farbunterschied auf der Achse Blau-Gelb zu finden ist. 7. Konventionen: Sie stehen oft im Zusammenhang mit kulturellen Dingen. Als Beispiel bedeutet rot meist heiß. Es gilt noch festzuhalten, dass sich die Kodierung mit Farbe nicht in jeder Visualisierung für jede Eigenschaft oder Größe eignet. Sind in einer topographischen Karte die Flächen gleicher Höhe noch farblich kotierbar (als Fläche zwischen den Höhenschichtlinien) und kann ihnen so ein Wert kodiert werden, ist es in einer Balkengrafik schwierig eine weitere Dimension durch farbliche Auszeichnung hinzuzufügen.57 Kelly/Jasperse/Westbrooke (2005) empfehlen den Einsatz von Farbe für die ersten Entwürfe nicht, da eine Grafik in Schwarz und Weiß in jedem Medium verwertbar ist.58 Um Farbe zu beschreiben, bedient man sich eines Farbraumes. Es gibt mehrere Möglichkeiten Farben technisch zu beschreiben. Das hängt mit dem Gamut59 und mit der Absicht, die hinter der Beschreibung steht, zusammen. Für die Be-

55 56

57 58 59

Vgl. Ware (2004), S. 123–127. Farbsehschwäche (manchmal auch Farbenblindheit genannt) existiert in zwei Ausprägungen: Rot-Grün und Blau-Gelb. Man geht davon aus, das etwa 10% der Weltbevölkerung Farbsehschwäche besitzen und die Aufteilung zwischen Männern und Frauen im Verhältnis 9 : 1 vorhanden ist. Vgl. Kosslyn (2006), S. 166f. Vgl. Kelly/Jasperse/Westbrooke (2005), S. 12. Der Gamut ist die Bezeichnung für den Umfang des darstellbaren oder empfangbaren Farbraums. Der Gamut eines Monitors ist anders als der eines Druckers oder auch eines Films.

24 schreibung des Gamuts von Bildschirmen benutzt man die Darstellung in rgb60 . rgb ist ein additives Farbmodell, bei dem sich die drei Grundfarben zu Weiß addieren.61 (1) C ≡ rR + gG + bB In Gleichung 1 entspricht C gleich der Farbe, R, G, und B den verwendeten Lichtquellen und r, g und b der Menge des Lichtes. Dieses Farbmodell ist für den Druck nicht funktionstüchtig, hier benutzt man cmyk62 , ein subtraktives Farbmodell, bei dem Weiß durch weglassen aller Komponenten erzeugt wird. rgb und cmyk beschreiben jeweils einen relevanten Ausschnitt aus dem Farbraum, um alle Anteile des sichtbaren Spektrums darzustellen, hat sich ein weiteres Modell als sehr praktikabel erwiesen: hsl. Mit Hilfe dieser Beschreibung kann man auch die drei Aspekte beleuchten, die für die Visualisierung sehr hilfreich sind63 : H(ue): ist der Farbton. Es ist der qualitative Aspekt des Lichts, der von der Wellenlänge abhängt. S(aturation): ist die Sättigung der Farbe. Dies kann durch das Hinzufügen von Weiß verändert werden. L(ightness): (manchmal auch L(uminance)) ist die Intensität oder Helligkeit einer Farbe. Sie beschreibt die Menge des Lichts, dass entweder reflektiert (bei Druck) oder ausgestrahlt (bei Monitoren) wird. Variation dieses Wertes geschieht durch das Hinzufügen von Grau. Farbe ist eines der unangenehmsten Themen in Zusammenhang mit Diagrammen, vor allem weil wenige Personen wissen, dass die Anzahl der verarbeitbaren Farben Beschränkungen unterliegt. Die sechs Farben, die Personen mit normaler Farbsicht am besten unterscheiden können sind: rötliches Purpur, Blau, gelbliches Grau, gelbliches Grün, Rot und bläuliches Grau.64 Darüber hinaus existieren Untersuchungen zu 11 Farben, die nie miteinander verwechselt werden und zu der

60

61 62 63 64

rgb steht für Rot, Grün und Blau. Diese Farben entsprechen nicht genau den umgangssprachlichen Farben Rot, Grün und Blau. Vgl. Ware (2004), S. 101. cmyk steht für Cyan, Magenta, Gelb sowie Schwarz. K bedeutet eigentlich Key. Vgl. Kosslyn (2006), S. 158 und Ware (2004), S. 104f Vgl. Kosslyn (2006), S. 159.

25 Tatsache, dass der Mensch generell nicht mehr als 9 Farben gleichzeitig folgen kann.65 Zu den Beschränkungen in der Anzahl der zu verwendenden Farben und der Tatsache dass Farbe kein Kontinuum ist kommt, dass die Wahrnehmung des Farbtons stark von den umgebenden Farben abhängt, also dem Kontrast.66 Diesen Effekt gibt es auch bei verschiedenen Grautönen auf Hintergründen unterschiedlicher Helligkeit. Problematisch ist dieser Effekt bei der Kodierung von Regionen mit Farbverläufen oder Graustufen, wie man diese von Landkarten kennt. Wird die Legende auf einem weißen Hintergrund gedruckt und das Diagramm ist zum Großteil schwarz, ergeben sich durch den Unterschied im Kontrast falsche Wertzuordnungen.67

3.7 Raum und Sehen Als Menschen bewegen wir uns in einer dreidimensionalen Welt68 und weil wir die Welt um uns herum in erster Linie optisch wahrnehmen, ist es wichtig, auch die Aspekte des räumlichen Sehens zu beleuchten. Unsere Gehirne und Augen interpretieren alle Wahrnehmungen als räumlich. Wir nehmen die Welt um uns nicht als Wolken oder Punkte wahr, sondern als Gegenstände mit Oberflächen und Oberflächeneigenschaften.69 Die Welt erlaubt uns mittels einfacher Hinweise Raum zu erkennen und wahrzunehmen, obwohl die Abbildung auf der Netzhaut zweidimensional ist70 . Diese sind teilweise auf Gewohnheiten zurückzuführen, wie zum Beispiel die Tatsache, dass wir unbewusst immer annehmen, dass Licht von oben kommt.71 Man kann dies an Hand von Abbildung 7 leicht nachvollziehen.

65

66 67 68

69 70 71

Eine Zusammenfassung mit ausführlichen Quellenverweisen findet man bei Kosslyn (2006), S. 159. Die 11 Farben sind Weiß, Grau, Schwarz, Rot, Grün, Gelb, Blau, Pink, Braun, Orange und Purpur. Vgl. Kosslyn (2006), S. 158 Vgl. Ware (2004), S. 72f. de facto sind es vier Dimensionen, da die Zeit — die vierte Dimension — für das räumliche Sehen keine Relevanz hat, wird Sie hier nicht behandelt. Vgl. Kosslyn (2006), S. 10. Vgl. Mayer (2000), S. 42. Vgl. Ware (2004), S. 245f.

26

Abbildung 7: Kippeffekt — Licht von oben (nachgebildet nach Ware (2004), S. 146): Licht wird immer als von oben kommend angenommen. Um den Kippeffekt wahrzunehmen, müssen Sie den Text jetzt auf den Kopf stellen. Im Normalfall stellt sich dann die Umkehr von konkav zu konvex ein und umgekehrt. Die Hinweisreiztheorie teilt diese Hinweise in drei Kategorien, je nachdem, wie diese reproduziert werden können. Dies ist mit einem statischen Bild (monokular statisch), einem bewegten Bild (monokular dynamisch) oder nur mit zwei Augen reproduzierbar.72 Einen Überblick hierzu findet man in Tabelle 5. Für Diagramme sind in erster Linie die bildhaften Hinweisreize interessant, welche alle verwendet werden können. Es stellt sich für die Anwendung von Tiefe in Diagrammen, wie in allen anderen Anwendungen, eher die Frage, welchen Hinweisreiz man verwenden soll und welche Kategorie. Die Kategorie definiert ob ein monokular statischer, dynamischer oder ein binokularer Hinweisreiz anzuwenden ist. Es bestehen Abhängigkeiten innerhalb der Hinweisreize. Alle Reize hängen von der Okklusion (auch: Verdeckung) ab. Wie in Abbildung 8 zu erkennen ist, bestehen mehrere Abhängigkeiten zwischen den Tiefenreizen. Diese sind durch Pfeile gekennzeichnet und erlauben Rückschlüsse, welcher Tiefenreiz nur in Verbindung mit anderen Tiefenreizen funktioniert. So kann kinetische Tiefe nur funktionieren, wenn die lineare Perspektive richtig abgebildet ist. Natürlich ist es möglich die

72

Vgl. Ware (2004), S. 259f.

27 Monokular statisch (bildhafte) 1 Lineare Perspektive: Das inkludiert offensichtliche Hinweise wie konvergente Linien. 2 Gradient in der Textur: Die einzelnen Elemente einer Textur werden mit steigender Entfernung zum Auge immer kleiner. Es entsteht auch der Eindruck des Zusammenrückens. 3 Gradient der Größe: Objekte mit bekannter Größe spielen hier eine große Rolle. Der Gradient der Größe bedeutet nichts anderes als ein kleiner werden der Elemente mit Entfernung zum Betrachter. 4 Okklusion: Ist die Verdeckung von Gegenständen. Verdeckte Gegenstände können logisch betrachtet nur hinter dem Verdeckenden lokalisiert sein. 5 Tiefenschärfe: Weiter entfernte Gegenstände verschwimmen, verblassen beziehungsweise sind weniger scharf konturiert. 6 Schatten: Eine Folge der Dreidimensionalität und der Tatsache, dass Lichtquellen Punkte im Raum sind. 7 Form durch Schattierung: Eine Folge der Reflexion des Lichtes von Oberflächen sind auch die Schattierungseffekte, die durch die Streuung hervorgerufen werden. 8 Tiefe durch Akkomodation (ist nicht bildhaft): Das Auge fokussiert eintreffendes Licht auf der Retina. Diese Eigenschaft wird weniger dazu verwendet um die Entfernung zu Objekten zu schätzen, als zur Einschätzung der Größe von Objekten. Monokular dynamisch (bewegtes Bild) 1 Kinetische Tiefe: Durch Bewegung eines Objekts wird dessen Form sichtbar. Wenn man den Schatten eines Stückes Draht betrachtet und den Draht dann dreht, entsteht eine Vorstellung von der Form des Drahtes. 2 Bewegungsparallaxe: Gegenstände im Hintergrund bewegen sich langsamer als Gegenstände im Vordergrund. Binokular 1 Augenkonvergenz: Bei der Fixierung eines Objektes, muss sich die Stellung der Augen verändern. Damit wird die Entfernung geschätzt. Diese Schätzung ist nur innerhalb von Armeslänge genau. 2 Stereoskopische Tiefe: entsteht durch die Überlappung der Sichtfelder der beiden Augen. Tabelle 5: Hinweisreize auf räumliche Tiefe (Vgl. Ware (2004), S. 260–283, Mayer (2000), S. 42–46) kinetische Tiefe ohne korrekte Darstellung der Perspektive darzustellen, nur wird dies unerwünschte Verzerrungen bei der Rotation nach sich ziehen.73 Die Okklusion ist der wichtigste Hinweisreiz, denn ohne sie können die anderen Hinweisreize nicht richtig wirken und das Dargestellte ist nicht kohärent. Das 73

Vgl. Ware (2004), S. 283.

28

Vergenz

Kinetische Tiefe

Perspektive

Texturgradient

Verdeckung

Stereo

Schattierung

Schatten

Tiefenschärfe

Abbildung 8: Hierarchie und Zusammenhänge der Hinweisreize auf Tiefe (Vom Autor übersetzt und neu gezeichnet nach Ware (2004), S. 283) bedeutet im Zusammenhang mit Diagrammen, dass der Einsatz von Verdeckung schon der erste Schritt ist, Tiefe darzustellen. Das lässt auch den Schluss zu, dass das Gestaltgesetz Figur und Hintergrund eher priorisiert wird, ebenso das Gestaltgesetz Geschlossenheit, da beide im Zusammenhang mit Okklusion wirken. Für den Umgang mit Diagrammen ist noch ein Effekt sehr wichtig: Warme Farben erscheinen näher als kalte, eine Folge der unterschiedlichen Wellenlängen und der Brechung in der Linse des Auges.74 Das bedeutet in der Folge, dass es zu optischen Konflikten an den Grenzen zwischen warmen und kalten Farben kommt. Für zwei sich kreuzende Linien empfiehlt es sich die wärmere Farbe für die Linie im Vordergrund zu verwenden. Setzt man die Farben umgekehrt ein, drängt sich die warme Farbe in den Vordergrund wie man in Abbildung 9 sieht und kann als störend empfunden werden. Generell sind warme Farben im Vordergrund und kalte für den Hintergrund zu verwenden.

74

Vgl. Kosslyn (2006), S, 11.

29

Abbildung 9: Warme Farben sind näher als Kalte: Es handelt sich hierbei um ein Folge der unterschiedlichen Brechung unterschiedlicher Wellenlänge im Auge. Die Brechung ist auch in Regenbögen und Prismen zu erkennen: Unterschiedliche Ablenkung verschiedener Farben, die sich in den Wellenlängen unterscheiden.

2,00

1:

1,62 1,00

Abbildung 10: Der Goldene Schnitt im Vergleich zu einem Quadrat und einem Rechteck mit Seitenverhältnis 1 : 2. Bei Tufte (2001) finden wir eine zusätzliche Analogie zum Raumempfinden: Die Proportionen der Grafik sollten eher im Querformat als im Hochformat sein.75 Der Hauptgrund ist die Analogie zum Horizont. Somit ist es eine gute Überlegung eher die Fläche unter einer Kurve zu schattieren als die Fläche über einer Kurve. Dies wird von Tufte noch in Kombination mit dem Goldenen Schnitt gesetzt und endet in der Empfehlung die Grafik solle, wenn möglich, eine Breite aufweisen, die gegen das Doppelte der Höhe tendiert.76 Der Goldene Schnitt ist eine ästhetische Faustregel für das Teilen einer Linie. Der kleiner Teil der geteilten Linie soll sich zum Großen verhalten, wie der große Teil der geteilten Linie zur Gesamtheit, wie in Gleichung 2 formalisiert dargestellt. b a = b a+b 75 76

Vgl. Tufte (2001), S. 186f. Vgl. Tufte (2001), S. 190.

(2)

30 Unter Anwendung der Formel 2 ergibt sich für das Goldene Rechteck ein Seitenverhältnis von 1 : 1, 618. Das Goldene Rechteck kann in Abbildung 10 mit einem Quadrat 1 : 1 und einem Rechteck mit der doppelten Breite der Höhe, also dem Seitenverhältnis 1 : 2 verglichen werden.77 Es finden sich bei Tufte einige Abbildungen von anderen Formen, denen auch eine besondere Ästhetik nachgesagt wird, die alle eine horizontale Ausrichtung besitzen sollen.78 Eine Annahme im Zusammenhang mit räumlichen Sehen kann sein, dass die Räumlichkeit beschränkt. Man kann diese Räumlichkeit aber benutzen und mit Ebenen arbeiten, so genannten Layers. Durch Layering kann man eine Trennung (Separation) herbeiführen, die es erlaubt, unwichtige Information in den Hintergrund zu schieben und die Daten in den Vordergrund zu holen. Meist geschieht dies durch Erhöhen der Helligkeit des Hintergrundes und durch die Verwendung von Grautönen.79

3.8 Wissen und Sehen In der kognitiven Psychologie wirft sich die Frage auf, wie das Wissen die Wahrnehmung beeinflusst. Wahrnehmung wird als direkt bezeichnet, wenn man davon ausgeht, dass Wissen und Wahrnehmung zwei voneinander unabhängige Systeme sind und als indirekt (manchmal auch als konstruktivistisch bezeichnet), bei der Ausgangslage des Einflusses von Wissen auf die Wahrnehmung80 . In der visuellen Wahrnehmung existieren Beispiele sowohl für direkte als auch für indirekte Wahrnehmung. Als Beispiel für die indirekte Wahrnehmung wird immer wieder das Beispiel gebracht, dass wir verdeckte Objekte identifizieren können (siehe auch Abbildung 5) oder schon anhand der Konturen Tiere erkennen (man denke an den Umriss eines Kamels). Für die direkte Wahrnehmung werden in der Folge immer die Abbildungen von unmöglichen Gegenständen angegeben. Man denke an die Bilder von M.C. Escher. Dort existieren Abbildungen von unmöglichen Treppen, unmöglichen Mühlen und 77 78 79 80

Berechnung des Autors Vgl. Tufte (2001), S. 189. Vgl. Tufte (2005a), 53–65. Vgl. Wilkening (1988), S. 203.

31 ähnlichen Dingen81 . Im Bereich der visuellen Wahrnehmung ist diese Kontroverse gut nachzuvollziehen. Es ist nicht unwahrscheinlich, dass diese beiden Arten der Interpretation des Zusammenhanges zwischen Wissen und Wahrnehmung nebenher existieren und in einer Wechselwirkung miteinander stehen. Neben den vorher schon ausgeführten Fakten sollen diese Ansätze auch helfen, Entscheidungen zu treffen, wenn es um Visualisierungen geht.

3.9 Zusammenfassung Sehen geschieht unter Beteiligung des Auges und des Gehirns. Die Wahrnehmung mit diesem optischen Apparat ist ein dreistufiger Prozess. In der ersten Phase unterliegt das Sehen vor allem den körperlichen Randbedingungen. In der zweiten Phase wird das erfasste Bild mittels Mechanismen, die mit den Gestaltgesetzen erklärt werden können, weiterverarbeitet und interpretierbar gemacht. Diese Mechanik erlaubt das Erkennen von Objekten und das Trennen derselben vom Hintergrund in Phase drei. Weiters erfolgt in der dritten Stufe des Wahrnehmungsprozesses die Endverarbeitung von Information. Je bekannter die Objekte sind — je höher Ihre Entsprechung in der wahrgenommenen Welt — umso leichter können die Zusammenhänge zwischen dem Diagramm und der subjektiven Wirklichkeit hergestellt werden. Die Bedeutung der Wahrnehmung für Diagramme lässt sich anhand Abbildung 11 sehen. Die Merkfähigkeit für das reine Lesen eines Textes ist am geringsten. Sehen erhöht die Merkfähigkeit um den Faktor 3 auf 30%. Das Maximum existiert für das eigene Handeln, was wiederum das Ziel des Wissenstransfers ist.82 Im Zusammenhang mit Diagrammen sind für die einwandfreie Darstellung aber nicht nur die Gestaltgesetze zu berücksichtigen. Der Detaillierungsgrad wird sowohl nach oben als auch nach unten limitiert. Teilweise durch technische Medien, teilweise durch die Limitierungen unserer Optik.

81 82

Vgl. Escher/Ernst (1994), S. 321, 323. Vgl. Mayer (2000), S. 133.

32

Selbst Tun



Sagen



Hören und Sehen



Sehen



Hören



Lesen



0

20

40

60

80

100

Merkfähigkeit in %

Abbildung 11: Informationsaufnahme und Merkfähigkeit (neu gezeichnet mit Daten nach Mayer (2000), S. 133) Farbe ist ein kritischer Faktor. Die Verarbeitung erfolgt schon in der ersten Stufe des dargestellten Prozesses und die Faktoren, die zu berücksichtigen sind, variieren je nach Einsatz. So gibt es zusätzlich zu den optischen Reizen, die Linien auslösen können, auch Effekte an der Grenze zwischen zwei farbigen Flächen, die wiederum auf den Umgang des Auges mit Wellenlängen zurückzuführen ist.83 Als besonders wichtig stellt sich das räumliche Sehen heraus. Es ist nicht möglich, nicht räumlich zu sehen. Räumliches Sehen funktioniert über Hinweisreize, die in einer Vielzahl in Diagrammen vorkommen, allen voran die Okklusion, die schon beim Kreuzen zweier Linien auftritt. Räumliches Sehen ist nicht 3D-Sehen! Das Gehirn schließt auch auf Raum, wenn man mit einem Auge sieht.

83

Vgl. Kosslyn (2006), S. 162: Bekannt ist dies vor allem für Blau und Rot, die, wenn nebeneinander abgebildet, eine erkennbare (manchmal als vibrierend wahrzunehmende) Grenzlinie erzeugen.

33

4 Diagramme 4.1 Einleitung Warum verwendet man eigentlich nicht Kennzahlen um die Daten zu beschreiben? Sie sind genau. Sie können übersichtlich in Tabellen abgebildet werden und sie besitzen eine Aussage, die alle Daten zusammen fasst. Alle diese Aussagen sind zutreffend. Betrachten wir aber zunächst die Zahlenwerte in Tabelle 6. Einige wichtige Kennwerte sind für alle vier Serien von Zahlenpaaren identisch! Wie unterscheiden sich die Zahlenpaare voneinander? Wie in Abbildung 12 zu sehen ist, wird durch die grafische Aufarbeitung der Zahlen aus Tabelle 6 die Verschiedenartigkeit dieser Zahlenreihen sichtbar. Grafische Aufbereitung enthüllt Zusammenhänge und in letzter Konsequenz die Daten. Die Grafiken müssen nicht allzu groß sein, um diese Zusammenhänge sichtbar zu machen. Man erkennt auch in kleinen Abbildungen genug, wenn das Muster nur eindeutig genug herausgearbeitet wurde. Dieses Beispiel betont die Wichtigkeit # 1 2 3 4 5 6 7 8 9 10 11 A B C D E F

x1,2,3 10,00 8,00 13,00 9,00 11,00 14,00 6,00 4,00 12,00 7,00 5,00 9,00 7,50 110,00 27,50 0,82 3 + 0, 5 · x

y1 8,04 6,95 7,58 8,81 8,33 9,96 7,24 4,26 10,84 4,82 5,68

y2 9,14 8,14 8,74 8,77 9,26 8,10 6,13 3,10 9,13 7,26 4,74

y3 7,46 6,77 12,74 7,11 7,81 8,84 6,08 5,39 8,15 6,42 5,73

x4 8,00 8,00 8,00 8,00 8,00 8,00 8,00 19,00 8,00 8,00 8,00

y4 6,58 5,76 7,71 8,84 8,47 7,04 5,25 12,50 5,56 7,91 6,89

Mittelwert x Mittelwert y Summe der quadrierten Abweichungen Regressionssumme der quadrierten Abweichungen Korrelationskoeffizient Regressionsgerade (kleinste Quadrate)

Tabelle 6: Zahlentabelle mit 4 Serien (aus: Anscombe (1973)): Es gibt Übereinstimmungen in einigen statistischen Kennzahlen, es lässt sich allerdings aus den Zahlen schwer ein (respektive vier) Muster ablesen.

12

12

34





● ●















4

4

● ● ●



6

6

y2

8

● ●





8



y1

10

10





5

10

15

5

10

x1

15

x2

12



10

10

12





8 6





● ● ● ● ● ● ● ● ● ●

4





4







y4

8 6

y3

● ●

5

10

15

x3

5

10

15

x4

Abbildung 12: Plots der Werte aus Tabelle 6 (nach Anscombe (1973)): In den grafischen Darstellungen lässt sich schon sehr viel mehr über die Wertepaare aussagen und Muster erkennen. der Visualisierung von Daten im Zusammenhang mit den Daten selbst, auch wenn die Darstellung ungenauer scheint als die Berechnung. Sowohl die Darstellung als auch Kennzahlen tragen zum Verständnis der Daten bei.84 Es werden heutzutage Daten gesammelt und es werden Fragen gestellt. Die Daten selbst sind nicht die Antworten, sondern die Zusammenhänge zwischen den Daten sind die Antworten. Diese Zusammenhänge können Abhängigkeiten, Muster auf Mikro- oder Makroebene, Konzepte und ähnliches sein. Wie man an Hand des Beispieles von Tabelle 6 und Abbildung 12 ableiten kann, ist es nicht Sache der Daten sich darzustellen, sondern eine Angelegenheit des 84

Anscombe (1973) in Tufte (1974), S. 132f

35 Erstellers von Datengrafiken. Der Ersteller hat die Möglichkeit gewisse Muster und Eigenarten der Daten durch Bilder zu betonen. Wenn man so will, kann der Ersteller die Fragen — die mit großer Wahrscheinlichkeit auftauchen werden — mit Bildern beantworten. Daraus ergibt sich die Bedeutung von Datengrafiken: Sie sind nicht Beiwerk des Textes, sondern haben eine eigene Aussage. Sie müssten also in der Folge gleichberechtigt mit den Absätzen erscheinen und sind Absätzen gleichzusetzen. Wie sich das mit extremen Verkleinerungen verhält, werden wir später behandeln. Ist eine Grafik falsch gewählt oder hat sie keine Aussage, kann der Effekt beim Adressaten negativ sein. Wenn man sich fragt, wieviele Grafiken ein Text oder eine Präsentation fassen kann, so ist die Antwort wohl der folgende Satz von John Wilder Tukey. There needs to be a GOOD PICTURE in response to EVERY type of question FREQUENTLY ASKED 85 Ein letzter Blick auf Abbildung 12 zeigt, dass die 4 Grafiken mehr enthüllen, als die Kennzahlen der Datentabellen. Trotz Ihrer Größe erlauben sie Schlüsse und Vergleich untereinander. Eventuell hätte ein Ordnen der Tabelle 6 von Seite 33 nach der Größe schon manchen Schluss erlaubt, aber die Grafik erlaubt dies viel schneller, ohne das Vergleichen von Werten zueinander. Man kann immer nur eine Spalte sortieren und die übrigen Tabellenfelder sortieren sich dann in Abhängigkeit von dieser. Andererseits ist diese Praxis problematisch, weil man alle Varianten durchspielen müsste, um zu wissen, welche man zeigt.

4.2 Daten und Grafik Der Duden definiert Diagramm in der ersten Form als „zeichnerische Darstellung von Größenverhältnissen in anschaulicher, leicht überblickbarer Form.“ 86 Die vorliegende Arbeit behandelt diese Abbildungen: Diagramme im Sinne quantitativer 85

86

Tukey (1973), S. 803 Anm. d. Autors: Die Formatierung des Originals wurde genau eingehalten. Wiss. Rat der Dudenredaktion (1990), S. 181.

36 Darstellungen. Das bedeutet, dass die graphische Aufbereitung von Zahlen, also Datenmaterial im Mittelpunkt steht, wie das der Fall bei statistischen oder kaufmännischen Grafiken der Fall ist. Bei Kosslyn (1989) finden wir die Unterscheidung in Graphs, Charts, Maps und Diagrams 87 und Harris (1999) unterscheidet die Informationsgrafiken in Charts, Graphs, Tables, Maps und Diagrams 88 . Bei Wilkinson (2005) finden wir die Sichtweise, dass der Graph eine mathematische Definition und somit keine Darstellung ist. Die Grafik ist als Repräsentation des Graphen zu sehen ist und ein Chart ist eine Instanz einer Grafik.89 Dem ist hinzuzufügen, dass Wilkinson unter Grafiken auch die Verwendung von Karten und andere Diagramme sieht, die nicht unbedingt der Kommunikation von Zahlen dienen. Bei Tufte (2001) findet sich der Begriff Datengrafik, der eine gute Definition für Diagramme im Sinne quantitativer Darstellungen darstellt, den wir in der Folge synonym benutzen werden. Tufte definiert den Begriff der Datengrafiken wie folgt: Data graphics visually display the measured quantities by means of the combined use of points, lines, a coordinate system, numbers, symbols, words, shading, and color.90 Diese Definition steht nicht in Konkurrenz mit der von Wilkinson und bietet ein verständlicheres Modell, auch wenn es nur einen Ausschnitt zeigt. Die Visualisierungen von Daten sind sehr vielfältig. Ein Klassifizierungsversuch von Lengler/Eppler (2007) bringt den Großteil aller Visualisierungsmethoden in eine Form, in ein Periodensystem der chemischen Elemente. Wie in Abbildung 13 auf Seite 37 zu sehen ist, fällt der Bereich mit den Datengrafiken in den Bereich der Datenvisualisierungen. Weiters ist eine Zunahme der Komplexität von links nach rechts sowie von oben nach unten zu erkennen. Man sollte nicht außer Acht lassen, dass die Detailtiefe gering ist, da es in dieser Visualisierung um alle Visualisierungsmethoden geht und nicht um die der quantitativen Elemente. Trotzdem enthalten sie alle geläufigen Typen von Visualisierung quantitativer Daten91 .

87 88 89 90 91

Vgl. Kosslyn (1989), S. 186. Vgl. Harris (1999), S. 4. Vgl. Wilkinson (2005), S. 1f. Tufte (2001), S. 13. Detaillierte Beschreibungen sind auf Seite 52 zu finden.

37

Abbildung 13: Periodensystem der Visualisierungsmethoden (aus: Lengler/ Eppler (2007), S. 6)

38 Unter Datenvisualisierung verstehen Lengler/Eppler (2007) 11 verschiedene Formen der Visualisierung von Daten92 . Ein interessanter Punkt ist das Erscheinen des Begriffs Tabelle in diesem Zusammenhang. Schon eine Zahl kann als Datenvisualisierung verstanden werden: Die Einführung der Null in das Dezimalsystem erlaubt eine Darstellung einer Zahl, die sich alleine durch das Niederschreiben mit anderen optisch vergleichen ließ.93 Römische Zahlen können zum Beispiel nicht durch Ihre optische Länge der Größe nach sortiert werden und erlaubten auch keine einfache Berechnung. Die Tabelle ist die Erweiterung des Konzepts Zahl auf Gruppen von Zahlen. Die Hauptfunktion einer Tabelle ist das Abbilden der Details und zwar im Sinne der Werte, wohingegen die Datengrafik auch Details darstellt, allerdings benutzt sie diese Details zum Herstellen eines Überblicks von Zusammenhängen: Veränderungen, Zusammenhänge im Sinne des Wortes, Verläufe, Vergleiche. Man kann in einer Tabelle manche Zusammenhänge und Vergleiche nicht so schnell sehen, wie in einer Datengrafik.94 Wilkinson (2005) vermeidet die Typologien von Charts, wie sie in Abbildung 13 gezeigt werden. Diese Art der Unterteilung vermeide die Perspektive, dass Grafiken als etwas Allgemeines zu verstehen sind und bringt als Beispiel, dass ein Kreisdiagramm nichts anderes sei als eine geteilte Balkengrafik in Polarkoordinaten.95 Der Unterschied zwischen einem Bild und einem Diagramm ist der Abstraktionsgrad. Während das Bild eine Darstellung der Wirklichkeit sein soll, bietet das Diagramm eine abstrahierte Fassung einer Wirklichkeit, die in manchen Fällen wieder auf einer mehrfach gefilterten Wahrnehmung beruht, in dem zum Beispiel Daten von Sensoren gemessen wurden oder Antworten nur im Rahmen eines vorgegebenen Rasters möglich waren.

4.3 Skalen und Zahlen Skalen dienen der Klassifizierung von Messdaten. In der Statistik benutzt man gerne das folgende hierarchische Modell (beginnend an der Basis):96

92 93 94 95 96

vgl. Lengler/Eppler (2007), S. 6. Vgl. Rotman (1993), S. 12f. Vgl. Kosslyn (2006), S. 18f. Vgl. Wilkinson (2005), S. 2. Vgl. Ponocny-Seliger/Ponocny (2005), S. 57f.

39 Nominalskala: Die Daten entsprechen Namen. Statistische Kennzahlen, wie etwa den Mittelwert zu berechnen, wäre sinnlos.Beispiele: Geschlecht, Schulbildung, Farbe, Postleitzahl u.ä. Ordinalskala: Wird auch als Rangskala bezeichnet und bedeutet, dass die Daten ordenbar sind und einer gewissen Wertigkeit unterliegen. Beispiele: sportliche Rangplätze, Ausbildungsgrad u.ä. Es besteht die Möglichkeit Vergleiche zwischen den Werten zu ziehen indem man Operatoren wie gleich, ungleich, größer und kleiner anwendet. Intervallskala: Die Daten tragen neben den Informationen der Rangskala auch Informationen zu Differenzen zwischen den Werten. Beispiele: Alter, Zeit, Temperatur und ähnliches. Zu den Aussagen, die über die Daten der Ordinalskala getroffen werden können, kommt die Aussage über die Gleichheit von Differenzen: Der Temperaturunterschied von 20◦ und 22◦ ist genauso groß wie der zwischen 37◦ und 39◦ , nämlich 2◦ . Rationalskala: Die Messwerte erlauben Aussagen über ihr Verhältnis zueinander, lassen sich also mittels Faktoren zueinander in Relation setzen. Beispiele: Länge, Gewicht, Winkel u.ä. Die Skalen sind hierarchisch aufgebaut, das bedeutet, dass jede Skala die darunter liegende enthält (in der Auflistung war die Reihenfolge von unten nach oben) und somit auch Ihre Eigenschaften - aber nicht umgekehrt.97 Jede Intervallskala ist auch eine Ordinalskala, aber nicht umgekehrt. Nicht jeder Diagrammtyp passt oder macht Sinn in Verbindung mit jeder Skala, wie man am Beispiel Kreisdiagramm und Ordinalskala erkennt. Der Begriff der Skala kann aber auch die Einteilung der Maßeinheiten auf den Achsen eines Diagramms bezeichnen, im Sinne eines Maßstabes. Häufig verwendet werden lineare Skalen, in wissenschaftlichen Arbeiten sehr oft auch logarithmische Skalen auf der Basis 2 oder 10. Letztere sind für ungeübte Betrachter schwerer zu lesen, bieten aber den Vorteil vor allem Vergleiche auf Basis von Zweier- und Zehnerpotenzen gut ablesen zu können und die Schiefe98 von Daten zu kurieren.99

97 98

99

Vgl. Ponocny-Seliger/Ponocny (2005), S. 58. Schiefe ist im Sinne einer Nicht-Normalverteilung zu sehen und liegt beispielsweise vor, wenn Daten sich am unteren und oberen Ende eines Spektrums häufen. Vgl. Cleveland (1994), S. 103ff.

40

4.4 Analyse und Kommunikation Was ist der Beweggrund eine Visualisierung zu verwenden? Visualisierungen von Zahlen können prinzipiell zwei Dingen dienen. Das sind (1) die Analyse und (2) die Kommunikation von Daten.100 Beide Prozesse können als Wissenstransfer verstanden werden. Wobei im Fall der Analyse der Wissenstransfer auf einer anderen Ebene stattfindet und der Sender identisch mit dem Empfänger sein kann, aber nicht notwendigerweise ist. Meist folgt der Analyse eine Kommunikation des Ergebnisses. Die Analyse versucht also Muster oder Konzepte in den Daten darzustellen. Die Anwendungsgebiete sind vielfältig. Ob es sich um die Analyse privater Datenbestände oder ganzer Staaten handelt oder um eine Grafik in einer Präsentation, einem Artikel, einem Report oder auf einer Seite im Intra-/Internet. Alles geschieht mit Mitteln der Statistik. Der Begriff der Statistik wird auf das griechische στ ατ ισ zurückgeführt, welches im lateinischen status wiederzufinden ist und Zustand bedeutet.101 Die Verwendung von Visualisierungen und speziell von Diagramme ist üblich. Das war nicht immer so. Erst zwischen den Hälften des 18. und 19. Jahrhundert kam es zur Verlagerung der Wissenschaft von Worten zu Bildern. Die Graphen, die wir heute in Verwendung haben, wurden zum Großteil damals das erste Mal verwendet.102 Die Datenanalyse wird unterteilt in die explorierende und die konfirmierende Datenanalyse. Durch den Einsatz der Rechenkapazität des Computers kam es zur Erleichterung der Berechnung und der Vorgang der Visualisierung wurde stark vereinfacht.103 Heutzutage bietet der Einsatz von Datengrafiken die Möglichkeit komplexe Zusammenhänge und Zustände einfach und schnell zu kommunizieren. Diagramme tragen dazu bei, die Verständlichkeit eines Textes zu steigern.104 Leider muss man sagen, dass damit auch die Möglichkeiten diese Zusammenhänge — mit oder ohne Absicht — falsch darzustellen, vorhanden ist. Das kann auf die Tatsache zurück100 101 102 103 104

Vgl. Vgl. Vgl. Vgl. Vgl.

Cleveland (1994), S. 23. Wilkinson (2005), S. 111. Wainer (2005), S. 4. Tukey (1980), S. 815. Chabris/Kosslyn (1995), S. 29.

41 geführt werden, dass die Grafik schon eine Form der Interpretation der Daten darstellt.

4.5 Elemente und Aufbau Die Datengrafik besteht, mit wenigen Ausnahmen105 , immer aus denselben Elementen:106 Diagrammfläche: Die Fläche, auf der die Symbole (Punkte, Linien, Boxen, Flächen, etc.) abgebildet werden. In Microsoft Excel wird unter dem Begriff Diagrammfläche der gesamte Hintergrund der Grafik verstanden. Die Diagrammfläche ist aber die Fläche, auf dem der Inhalt des Diagramms abgebildet wird. Achsenfläche: Die Fläche, die von den Achsen eingeschlossen wird. Sie kann, muss aber nicht größer als die Diagrammfläche sein. Achsen: Die Achsen sind meist orthogonal107 angeordnet und folgen laut einer allgemeinen Konvention immer dem Muster: horizontal (oder in x-Richtung) findet sich die unabhängige Variable und auf der Vertikalen (respektive in y-Richtung) befindet sich die abhängige Variable (im Sinne von y = f(x)). Auf den Achsen befinden sich auch kleine Unterteilungen, die so genannten Tickmarks oder Ticks, die eine Zuordnung der Symbole zu ihren Werten erlauben. Achsenbeschriftung: Die Achsenbeschriftung kann Informationen zu den abgebildeten Daten enthalten, aber auch in welcher Skalierung diese vorliegen. Symbol: Die Symbole sind die Elemente, die das eigentlich Diagramm bilden. Das wären die Punkte, Linien, Flächen und ähnliches. Datenbeschriftung: Ist die Bezeichnung der abgebildeten Daten (zum Beispiel: Jahr, Region oder ähnliches) Legende: Für den Fall, dass für die Datenbeschriftung kein Platz auf der Diagrammfläche vorhanden ist, gibt es eine Tabelle mit der Zuordnung der Symbole zur Datenbeschriftung. Titel und Beschreibung: Jedes Diagramm sollte einen Titel haben, damit klar ist, worum es in dieser Abbildung geht. In manchen Fällen empfiehlt es sich 105 106 107

Beispielhaft: kreisförmige Diagramme, 3d-Diagramme und ähnliche Vgl. Cleveland (1994), S. 22–25. d.h.: rechtwinklig

42 auch einen Beschreibungstext hinzuzufügen. Als Beispiel sei erwähnt, dass Cleveland (1994) sein The Elements of Graphing Data so geschrieben hat, dass man die Quintessenz des Textes in den Bildunterschriften nachlesen kann. Referenzlinien und beschreibende Elemente: Elemente auf der Diagrammfläche, die eine Zusatzinformation oder einen bekannten Anhaltspunkt markieren. Als Beispiel sei der Einsatz einer Linie, die die Durchschnittstemperatur markiert, oder ein kleiner Pfeil mit dem Text „Seebeben“ auf der Diagrammfläche, gebracht. Wilkinson (2005) baut in seinem Grammar of Graphics, ausgehend von einer objektorientierten Überlegung, die ein Chart als eine Instanz einer Grafik sieht, alle Charts aus 6 Spezifikationen108 : Data: Eine Menge von Operationen, die aus den Rohdaten Variable erstellt. Trans: Transformationen der Variablen (z.B.: Rangordnung) Scale: Skalentransformationen (z.B.: Logarithmen) Coord: ein Koordinatensystem. Element: der tatsächliche Graph (im Sinne von Punkten) und seine ästhetischen Attribute (z.B.: Farbe). Guide: Beschreibt die Führungselemente (z.B.: Achsen, Legenden, etc.) Auf Basis dieser Objekte sind alle Arten von Datengrafiken zu definieren und aus der entstehenden Definition auch zu produzieren. Es handelt sich hierbei aber nicht um eine Programmiersprache oder eine Heuristik, sondern um eine Grammatik109 , die wiederum aus Syntax110 und Semantik111 besteht: Grammatik gibt Sprache Regeln. Grafiken werden durch eine Sprache erzeugt. Die Syntax von Grafiken liegt in deren Spezifikationen. Die Semantik der Grafik liegt in Ihren Daten.112

108 109

110 111

112

Vgl. Wilkinson (2005), S. 6f. „Einer Sprache zugrunde liegendes Regelsystem.“(Wiss. Rat der Dudenredaktion (1990), S. 288) Regeln die die Kombination von Worten und Sätzen darstellen.Vgl. Wilkinson (2005), S. 21 Regelt die Bedeutung sprachlicher Zeichen und Zeichenfolgen. Sie ist im Zusammenhang mit Grafik als das den Daten zugrunde liegende Konzept zu verstehen.(Vgl. Wilkinson (2005), S. 357) Übersetzung durch den Autor von Wilkinson (2005), S. 634.

43 Das bedeutet in weiterer Folge, dass die Daten ein fixer Bestandteil der Grafiken sind. Die Semantik der Daten beeinflusst maßgeblich das Aussehen der Grafik. Schnotz (2002) empfiehlt für das mühelose Verstehen von Diagrammen die Identifizierbarkeit repräsentationsrelevanter Werte einerseits und andererseits sollten Anstrengungen unternommen werden diese in der richtigen Konfiguration abzubilden.113 Ein Weglassen mancher Diagrammelemente kann schwerwiegende Folgen für die Lesbarkeit haben. Im schlimmsten Fall sinkt die Aussage gegen Null und die Datengrafik erfüllt keine Funktion. Es gibt allerdings keinen detaillierten Prozess, der Diagramme definiert, abgesehen von der Tatsache, dass die Diagrammerstellung wie folgt grob skizziert werden kann: [Quelle] → [Diagramm erstellen] → [Renderer].114 Der Renderer (manchmal auch: Rendering Engine) ist ein Programm respektive Programmteil, der Daten interpretiert und wiedergibt.

4.6 Weber, Fechner und der Sinneseindruck Mitte des 19. Jahrhunderts zeigte Ernst Heinrich Weber in Versuchen, dass Gewicht um einen bestimmten Faktor verändert werden muss, damit man die Änderung wahrnimmt. Gustav Theodor Fechner gelang es 1860 diesen Fakt in einer Formel niederzuschreiben, dem so genannten Weberschen Gesetz (Gl. 3)115 . ∆R =k R

(3)

Hier entspricht ∆R dem für die Wahrnehmung notwendige Reizunterschied, R dem Reiz und k der Weberschen Konstante. Diese kann verschiedene Werte annehmen, je nach Art des Reizes (Helligkeit, Lautstärke, usw.). Fechner hat später auch noch den Zusammenhang zwischen den Intensitäten von Reiz (R) und Empfindung (E) mittels des Fechnerschen Gesetzes (Gl. 4) hergestellt116 . Durch formale Integration gelangt man dann zum Weber-Fechnerschen Gesetz (Gl. 5). ∆E = c ·

113 114 115 116

Vgl. Vgl. Vgl. Vgl.

∆R R

Schnotz (2002), S. 76. Wilkinson (2005), S. 23. Mayer (2000), S. 10, Cleveland (1994), S. 240 Mayer (2000), S. 10f.

(4)

44

E = c · ln

R R0

(5)

Das Gesetz besagt, dass der Reiz geometrisch zunehmen muss um die Empfindung linear anwachsen zu lassen, dass also immer mehr Reiz aufgebracht werden muss um die Steigerung der Empfindung konstant zu halten. R0 bezeichnet in Gleichung 5 den so genannten Schwellenreiz. Das Webersche Gesetz wird von Cleveland (1994) aufs Tapet gebracht um eine relativ umstrittene Praxis zu unterstützen: Den Raster.117 Der Raster ist das Gitter auf der Diagrammfläche und erlaubt die Konvertierung von kleinen Steigerungen in größere indem er exaktere Vergleiche ermöglicht. Allerdings setzt Cleveland den Raster ein um Kurven innerhalb von gestapelten Diagrammen zu vergleichen. Tufte (2001) empfiehlt den Raster weitestgehend wegzulassen oder zumindest in eine andere Ebene zu verlegen, sodass die Präsenz nur noch impliziert wird.118 Man findet bei Cleveland (1994) nur Raster, die bedingt verwendet werden können, um Daten abzulesen. Seine Raster sind meist eine Variante um die Zeichenfläche in gleichgroße Rechtecke oder Quadrate zu teilen, kein Raster, wie man es zum Beispiel aus Microsoft Excel kennt, die der Beschriftungslogik der Achsen folgen. Raster können also mehrere Funktionen haben und/oder unterstützen: Der (1) Vergleich und genaues Ablesen wird erleichtert und die (2) Zuordnung wird verbessert. Tufte (2001) führt gegen den Raster119 das Prinzip der Data-Ink Ratio (Gl. 6) ein.120 Es sagt aus, dass versucht werden soll, den Anteil der nicht notwendigen Elemente aus der Grafik zu tilgen. Data-Ink Ratio =

Data-Ink total ink used to print the graph

(6)

Ziel jeder Visualisierung sei es möglichst viel Chartjunk 121 , wie etwa uninformative Dekoration, Schraffuren, redundante Information und ähnliches weglassenswerte, nicht zu zeigen. Der Maximalwert von 1 ist erreichbar, indem man alle Elemente entfernt, die nicht zur Darstellung der Daten dienen. Wie genau das definiert ist, kann man bei Tufte (2001) nicht nachlesen. Der Raster kann aber so 117 118 119 120 121

Vgl. Cleveland (1994), S. 242. Vgl. Tufte (2001), S. 112. Der Raster dient hier als erste Erklärung für sein Prinzip, es richtet sich aber gegen viel mehr. Vgl. Tufte (2001), S. 93f. Vgl. Tufte (2001), S.107–121: Chartjunk bezeichnet die unnötigen Elemente in einer Grafik. Auf http://www.juiceanalytics.com/weblog/?p=161 (online abgerufen 01.04.2007) findet man ein Excelmakropaket, das hilft, die Excelgrafiken nach den Vorstellungen von Tufte zu reinigen.

45 gestaltet werden, dass er den Daten „nicht im Weg steht“. Was nicht erwünscht ist, ist ein Raster von der Feinheit von Millimeterpapier, auf dem man kaum die Daten von den einzelnen Linien des Rasters unterscheiden kann. Die Data-Ink-Ratio ist allerdings auch kritisch zusehen. So ist Kosslyn (2006) der Meinung, dass man damit auch zu weit gehen kann, indem man — wie Tufte (2001) es getan hat122 — dem Balkendiagramm die Balken nimmt.123 Der Zusatz, den Tufte (2001) seinen drei Ratschlägen zur Data-Ink-Ratio gegeben hat, sei also wörtlich genommen: Das Prinzip ist innerhalb der Grenzen der Vernunft zu benutzen, besonders der dritte Ratschlag. Maximize the data-ink ratio, within reason. Erase non-data-ink, within reason. Erase redundant data-ink, within reason.124 Das Webersche Gesetz bedeutet aber auch für den Ersteller einer Datengrafik, dass er Unterschiede so weit als möglich herausarbeiten sollte. Es ist somit ein Argument für die Praxis, die Achsen einer Grafik nicht bei Null beginnen zu lassen, wenn die Darstellung sonst nachteilig ist125 . Leider kann man diese Handlung auch verwenden um die Tatsachen zu übertreiben, zu verfälschen oder einfach gesagt: um zu lügen.126 Der Unterschied zwischen dem tatsächlichen Reiz und dem empfundenen Reiz findet man oftmals auch in die Praxis umgesetzt: In geographischen Karten verwendet man manchmal Kreise, deren Größe an die empfundene Größe angepasst sind, weil die Flächen nach der Reizempfindung interpretiert werden.127 Es kommt auch zu Fehleinschätzung von Winkeln und in weiterer Folge von Steigungen.128 Im anglikanischen Raum ist als Konkurrenz zu Weber und Fechner noch das Stevenssche Potenzgesetz (Gl. 7) weit verbreitet. ψ = k(φ − φ0 )n

122 123 124 125 126 127 128

Vgl. Tufte (2001), S. 100–102. Vgl. Kosslyn (2006), S. 126f. Tufte (2001), S. 96 und 100:Hervorhebung im Fettdruck durch den Verfasser der Arbeit. Vgl. Kelly/Jasperse/Westbrooke (2005), S. 12. Vgl. Krämer (2007), S. 37–50. Vgl. Harris (1999), S. 381. Vgl. Cleveland (1994), S. 66–79.

(7)

46 Wobei in dieser Gleichung ψ die psychologische Wahrnehmung beschreibt, φ gleich dem physikalischen Reiz, φ0 gleich der Wahrnehmungsschwelle, k ein messabhängiger Faktor und der Exponent n als die Größe, die vom gemessenen Reiz abhängt. n variiert zwischen 0,33 für Helligkeit bis 3,5 für an den Fingerspitzen empfundene Stromstärke.129 Für die Empfindung von Länge ist der Wert im Intervall [0,9;1,1], für Fläche [0,6;0,9] und beim Volumen [0,5;0,8].130 Für das Empfinden von Volumen bedeutet dies, dass wir Volumen als zu klein empfinden, da n < 1 wird auch (φ − φ0 )n < 1.

4.7 Fehler und Wahrnehmung Ein geflügeltes Wort sagt: „Glaube keiner Statistik, die Du nicht selbst gefälscht hast.“ Dieses Sprichwort wird sehr oft auch in Zusammenhang mit statistischen Grafiken gebraucht. Aber nicht alle Fehlabbildungen sind gewollte Lügen. Der Großteil ist entstanden, weil ein guter Effekt gesucht wurde oder weil der Glaube existiert, dass man schlecht ausgewählte Zahlen durch graphische Effekte verbessern kann oder weil falsche Überlegungen zu Stichproben vorhanden sind.131 Lie Factor =

size of effect shown in graphic size of effect in data

(8)

Bei Tufte (2001) finden wir den Lügenfaktor (Gl. 8), der das Verhältnis eines Effekts in der Grafik als Vielfaches desselben Effekts in den Daten beschreibt132 . Das bedeutet, wenn man eine Steigerung um 200% in den Daten abliest und 500% 500% = 2, 5 ergibt. darstellt, das einen Lügenfaktor von 200% Fehlabbildungen, die solche Effekte beinhalten, bedienen sich oft der 3-Dimensionalität, Perspektive oder einem Fehlgriff in der Variation der Dimension. Nehmen wir zur Erklärung der letzten Annahme an, man stellt den Wert eines Euro zum Zeitpunkt der Einführung des Euro mit einem Zuckerwürfel dar und behauptet, dass er nach x Jahren halb so viel Wert besitzt. Der Effekt in den Daten ist 50%. Dann beschliesst man die Seitenlänge des Würfels zu halbieren, man stellt aber den Würfel dreidimensional mit seinem Volumen dar, sodass der abgebildete Effekt 12,5% (entspricht 50%3 ) darstellt. Der Lügenfaktor beträgt 12,5% = 0, 25. 50% Man stellt also nur ein Viertel von dem dar, was dargestellt werden sollte. Die 129 130 131 132

Vgl. Vgl. Vgl. Vgl.

Stevens (1961), S. 31f. Robbins (2005), S. 51. Krämer (2007), S. 97–119. Tufte (2001), S. 57.

47 richtige Seitenlänge wäre, wenn man unbedingt über das Volumen darstellen woll√ te, 3 0, 5 = 0, 79. Es gilt allerdings immer die Empfehlung keine Dimensionen zu benutzen, die man nicht benötigt, auch weil das Vergleichen von Werten psychophysischen Effekten und einer Geschwindigkeitseinbusse beim Lesen unterworfen ist.133 In Tabelle 7 findet man eine Hierarchie von Unterscheidungsmöglichkeiten, die dem Benutzer einer Grafik das Unterscheiden von Proportionen ermöglichen. Sie kann verwendet werden um die Effektivität beim Ablesen und Vergleichen von Werten zu bewerten. Hier finden wir das Volumen aus unserem vorherigen Beispiel erst an sechster Stelle. Es existieren aber auch Untersuchungen, dass bei komplexen Vergleichen diese Hierarchie nicht anwendbar ist um die Performanz zu erklären.134 Man findet in dieser Aufstellung die Fläche schon an fünfter Stelle. Cleveland (1993) bezeichnet Fläche als schlechte Darstellung um Größen zu vergleichen, weil Effekte, die in anderen Kodierungen schon vorhanden sind leicht wieder verloren gehen.135 Nr. 1 2 3 4 5 6

7

Merkmal Anordnung an gemeinsamer Achse bzw. Skala Anordnung an identischer, nicht-ausgerichteter Achse Länge Winkel Steigung Fläche Volumen Dichte Farbsättigung Farbton

Tabelle 7: Hierarchie der Eigenschaften für die Wertdarstellung, sortiert nach Fehlerquote (Vgl. Cleveland (1994), S. 220)

Grafischen Fehlinterpretationen findet man aber nicht nur in den Tagesmedien oder in Fachzeitschriften, sie sind auch in Jahresberichten zu finden.136 Es gilt also immer die Datengrafiken auch Korrektur zu lesen, nicht nur den Text. Oft kann eine Fehlabbildung darauf zurückgeführt werden, dass Nichtexperten einfach und schnell Visualisierungen erstellen können und die Fehler, die sie begehen gar nicht

133 134 135 136

Vgl. Vgl. Vgl. Vgl.

Wilkinson (1994), S. 172, Spence (2004), S. 746 und Tufte (2001), S. 77 Hollands/Spence (2001), S. 429f. Cleveland (1993), S. 142. Beattie/Jones (1992), S. 291.

48 wahrnehmen.137 Es entstehen keine Fehlabbildungen durch die falsche Wahl des Datenmaterials. Die Auswahl der Daten steht am Anfang und dann kommt die Wahl der Methode um diese Daten auch darzustellen. Und schliesslich gilt: „If the statistics is boring, you’ve got the wrong numbers.“ 138

4.8 Diagramme und 3d Durch die Verbreitung der rechnergestützten Datenverarbeitung und in der Folge der Steigerung der Leistung der Computer wurde es immer einfacher schnell und einfach Grafiken aus Daten zu generieren. Heutzutage wird es auch immer einfacher dreidimensionale Grafiken zu generieren, die entweder axonometrisch oder perspektivisch berechnet und mit Effekten wie Tiefenunschärfe versehen werden können. Mit dem Einsatz der Hinweisreize zu Tiefe139 beginnen wir aber dreidimensional zu sehen.

Abbildung 14: Tortendiagramm in 3d (Vgl. Robbins (2005), S. 18–23) Das bedeutet in der Folge: Das Koordinatensystem muss geändert werden, Ablesehilfen für die z-Achse müssen geschaffen werden (zum Beispiel Raster als Wände) und die Daten müssen eventuell anders sortiert werden, um sich nicht gegenseitig zu verdecken. Speziell im Zusammenhang mit Kreis- oder Tortendiagrammen kann es hier zu extremen Verzerrungen kommen. 137 138 139

Vgl. Rogowitz/Treinish (1995). Tufte (2001), S. 80. Vgl. Kapitel 3.7 und die Ausführungen zum Thema

49 Nehmen Sie Zettel und Bleistift und versuchen Sie die Anteile der vier Sektoren in Abbildung 14 zu schätzen. Eine Auflösung der Werte finden Sie auf Seite 55 (die obere Zeile der Diagramme), wo Sie auch eine ebene Darstellung desselben Tortendiagramms finden. Speziell die optische Vergrößerung der Vorderseite durch die„Lippe“, die durch die Höhe des gekippten Kreises entsteht, verursacht eine Fehleinschätzung der Fläche des Bereiches im Vordergrund. Das Schätzen der Anteile, also der Winkel auf einer gekippten Fläche ist eine schwierige Aufgabe. Wenn man die Winkel beiseite lässt und zu dreidimensionalen Balken- und Säulendiagrammen übergeht, die zumeist ein Koordinatensystem aufweisen, muss man sich damit beschäftigen, wo man den Wert ablesen soll, der zu einer Säule oder Balken gehört und unterliegt zusätzlich noch perspektivischen Verzerrungen.140

140

Vgl. Robbins (2005), S. 23–31, Harris (1999), S. 38, Kosslyn (2006), S. 209f und Tufte (2001), S. 67f

50

5 Diagrammtypen Alle Diagrammtypen sind verschieden. Jede hat Ihre Eigenheiten und zum Großteil existieren unzählige Varianten. Zu manchen entstanden in der neueren Zeit auch Alternativen. Die Diagrammtypen, die heute in Verwendung sind, wurden — was den täglichen Bürobedarf betrifft — fast alle von William Playfair erfunden respektive das erste Mal verwendet.141 Bis zum Erscheinen seines The Commercial and Political Atlas im Jahre 1801 war es unüblich Grafiken zum Darstellen von Sachverhalten zu benutzen, geschweige denn diese zu benutzen, um die eigenen Argumente zu untermauern. Es existieren zwar viele Beispiele für Visualisierungen vor Playfair, allerdings beginnt mit seinem Werk langsam die moderne Datengrafik. Er bereitete den Boden für das goldene Zeitalter der Datengrafik.142 Die folgende Aufzählungen der grafischen Möglichkeiten im Zusammenhang mit Daten erhebt keinen Anspruch auf Vollständigkeit.143

5.1 Pop Charts und andere Klassiker Als Pop Charts bezeichnet Cleveland (1994) die drei am häufigsten verwendeten Arten der Visualisierung: (1) Kreisdiagramme, (2) geteilte Balkendiagramme und (3) Flächendiagramme. Pop steht hier für populär, weil diese Diagramme immer wieder in Zeitungen und anderen Breitenmedien zu finden sind. Diese Diagramme sind in der Literatur zur Genüge untersucht und reflektiert.144 Sie werden in die spätere Analyse eingehen, allerdings werden wir diese hier nicht näher behandeln. Einen ähnlichen Status wie die oben angeführten Popcharts haben die Liniendiagramme. Die Liniendiagramme sind für das tägliche Geschäftsleben ebenso

141 142 143

144

Vgl. Wainer (2005), S. 15f. Vgl. Friendly (2007), S. 13ff. Was in diesem kleinen Rahmen auch nicht möglich wäre. Zum Vergleich: Die Referenz von Harris (1999) umfasst knapp 400 Seiten und es fehlen viele wichtige neuere Formen, wie zum Beispiel Dotplot, Trellisdiagramm oder die Sparklines. Vgl. Cleveland (1994), s. 262–269, Harris (1999), S. 281–286, S. 27–52, S. 9–21,Robbins (2005), S. 13–34, Kosslyn (2006), S. 111–134

51

Abbildung 15: Schemata klassischer Diagrammtypen: (1)Kreisdiagramm, (2)Liniendiagramm, (3)Balkendiagramm, (4)Histogramm, (5)Flächendiagramm, (6)Streudiagramm, (7)Tukey Boxplot, (8)Spektrogramm

52 wichtig wie Balkendiagramme145 . Auch diese werden in die Analyse mit eingehen, aber nicht näher behandelt. Man findet die oberhalb im Text angeführten Diagrammtypen neben Neueren auch im Periodensystem der Visualisierungsmethoden (in Abbildung 13 auf Seite 37). Lengler/Eppler (2007) definieren in Ihrem Periodensystem die folgenden Typen von Datengrafiken — und sie finden kleine Ansichten der Typen in Abbildung 15—, welche man verallgemeinert als klassische Formen beschreiben kann: Kreisdiagramm (Abb. 15.1): Mit dem Kreis- oder Tortendiagramm werden klassischerweise Anteile an einer Gesamtheit dargestellt. Die Methode hat Limitierungen, die auf die Kombination von Winkel und Fläche zurückzuführen sind und in der Anzahl der darstellbaren Sektoren. Dies ist vor allem abhängig auch von der Lage der Daten zueinander. Alles in allem kann man die Kreisdiagramme als gestapelte Balkendiagramme mit Polarkoordinaten sehen. Ersatz findet man in Form der Tabelle und im Dotplot (dazu später). Liniendiagramm (Abb. 15.2): Das Liniendiagramm zeigt Verläufe. Dies führt von chronologischen Abfolgen bis zu Häufigkeitskurven.146 Aus Vergleichsgründen werden oft mehrere Liniendiagramme in einen Chart gepackt beziehungsweise es wird ein Liniendiagramm zu anderen Diagrammen hinzugefügt, um einen annähernden Verlauf aufzuzeigen. Balkendiagramm (Abb. 15.3): Auch das Balkendiagramm (respektive Säulendiagramm, je nach Ausrichtung) dient dem Aufzeigen von Verläufen und Zuständen. Allerdings ist hier die Darstellung gewisser Punkte in Zeit und Raum im Vordergrund. Die wichtigsten Varianten sind die gestapelten und die nebeneinander gestellten Balkendiagramme.147 Histogramm (Abb. 15.4): Das Histogramm ist eine spezielle Form des Balkendiagramms, bei dem sich alle Balken berühren und diese gruppierte Werte wiedergeben. In letzter Zeit wird anstatt beziehungsweise zusätzlich zum Histogramm oft ein Kerndichteschätzer gestellt. Dieser ist eine geschätzte Häufigkeitskurve der Werte und somit eine Art stetiges Histogramm. Die einfachste Form des Histogramm ist das so genannte „Stem-and-leafdiagramm“, dass ganz ohne grafische Elemente auskommt (näheres dazu später). 145

146 147

Bezeichnend für die Tatsache, dass die Liniengrafik an Bedeutung gewinnt ist sicher auch die Popularisierung des Finanzmarktes. Man findet bei Kosslyn (2006) zwar ein Kapitel zu Liniengrafiken, Flächendiagramme sind dort eher eine Spielart der Liniendiagramme — Flächendiagramme im Sinne von Blasendiagrammen erscheinen dort nicht explizit. Besondere Erwähnung hat hier die Glockenkurve der Normalverteilung verdient. Manchmal auch Juxtaposition genannt.

53 Flächendiagramm (Abb. 15.5): Das Flächendiagramm stellt die Werte mittels der Fläche dar. Dies reicht vom einfachen Flächendiagramm (Fläche zwischen zwei Linien respektive Linien und Achse) bis hin zu Blasendiagrammen (welches hier abgebildet ist), dass eine dritte Variable mittels der Blasengröße darstellt. Streudiagramm (Abb. 15.6): Das Streudiagramm ist ein sehr vielseitiges Diagramm, bei dem jeder Punkt den Zusammenhang zwischen zwei Werten darstellt und als Gesamtheit die Korrelation zwischen zwei Variablen. Sehr oft findet man hier Linien, die ein approximiertes Modell der Beziehung darstellen sollen (im vorliegenden Fall mit der Methode der kleinsten Quadrate). Das Streudiagramm unterliegt nicht den Beschränkungen in den Datenmengen, denen die vorher erklärten Diagramme unterliegen. Tukey Boxplot (Abb. 15.7): Der Tukey Boxplot bildet mit jeder box die Verteilung innerhalb einer Datenreihe ab, in dem er eine Reihe von statistischen Lagemaßen abbildet:Die Lagemaße Minimum, Median und Maximum, sowie die Streuungsmaße erstes und drittes Quartil. In manchen Versionen findet man zusätzlich auch noch den Mittelwert und Ausreißer.148 sreißer.149 Spektrogramm (Abb. 15.8): Das Spektrogramm ist der Versuch 3 Variablen innerhalb eines Diagramms abzubilden, indem man mit Farbe den z-Wert abbildet. Der z-Wert entspräche einer dritten und abhängigen Dimension, die bei Spektrogrammen mittels Farbe abgebildet werden. Ursprünglich ist das Spektrogramm ein Diagramm aus der Akustik mit der Abbildung von Zeit, Frequenz und Amplitude (Farbe). Andere Formen dieser Type von Darstellung sind verschiedene Formen von Landkarten (Höhenschichtlinien!) und Konturplots. Im Periodensystem der Visualisierungsmethoden sind die ersten Einträge zwar Datenvisualisierungen, nur sind diese nach näherer Betrachtung als Grundlage für die anderen zu betrachten:

148

149

Vgl. Ponocny-Seliger/Ponocny (2005), S. 1–4: Der Median ist der mittlere Wert einer Reihe, als der Wert, der sich nach dem wertmäßigen Ordnen einer Reihe, in der Mitte befindet. Das 1.Quartil bezeichnet den Wert, unter dem 25% der anderen Werte liegen, das 3.Quartil ist entsprechend mit 75% definiert. Man kann den Median auch als 2.Quartil bezeichnen. Vgl. Ponocny-Seliger/Ponocny (2005), S. 1–4: Der Median ist der mittlere Wert einer Reihe, als der Wert, der sich nach dem wertmäßigen Ordnen einer Reihe, in der Mitte befindet. Das 1.Quartil bezeichnet den Wert, unter dem 25% der anderen Werte liegen, das 3.Quartil ist entsprechend mit 75% definiert. Man kann den Median auch als 2.Quartil bezeichnen.

54 Kontinuum: Das Kontinuum ist der Zusammenhang zwischen zwei Gebilden. Vom Standpunkt der Visualisierung ist der lückenlose Zusammenschluss von Punkten als Kontinuum zu sehen: Gerade, Kreis, usw. Tabelle: Die Tabelle ist eine Matrix aus Elementen, die im zweidimensionalen Fall aus Zeilen und Spalten gebildet wird.150 Die Elemente der Matrix bilden die Werte, die in einer Tabelle aus Zwecken der Übersicht verzeichnet werden. Es existieren Tabellen unterschiedlicher Dimensionalität. Eindimensionale Tabellen (vom Typ 1 : m oder m : 1) entsprechen Aufzählungen, zweidimensionale Tabellen (vom Typ m : n) den Tabellen des täglichen Sprachgebrauchs mit Zeilen und Spalten und mehrdimensionale Tabellen, die noch weitere Dimensionen erfassen können, allerdings immer nur Ausschnittsweise zweidimensional sinnvoll zu repräsentieren sind. kartesische Koordinaten: Das Koordinatensystem Σ eines affinen Raumes besteht im wesentlichen aus einem Ursprung 0 und n linear unabhängigen Vektoren x1 , . . . , xn die einen Vektorraum Vn aufspannen. Bildet x1 , . . . , xn eine orthonormale Basis151 so spricht man von einem kartesischen Koordinatensystem.152 Im Falle der im täglichen Gebrauch befindlichen Koordinatensysteme bedeutet dies zwei Achsen, die im Winkel von 90◦ zueinander stehen und eine Fläche aufspannen, auf der Punkte oder Punktmengen (Linien, Kurven, etc.) durch Referenzierung auf das Koordinatensystem dargestellt werden können.

5.2 Neuere Formen der Darstellung Die Geschichte der Visualisierungen in den letzten 50 Jahren ist vor allem geprägt durch die Einführung computergestützter Berechnungen und Visualisierungen.153 Genau genommen zählt der Boxplot des letzten Abschnitts auch zu diesen Neuerungen, allerdings ist er gerade in der Statistik als robuste Darstellung von Lagemaßen von solcher Bedeutung, dass er sich relativ schnell etabliert hat. In den letzten Jahrzehnten des 20.Jahrhunderts kamen vor allem interaktive Techniken der explorativen Datenanalyse hinzu.154 Nicht alle neuen Methoden sind für die

150 151 152 153 154

Vgl. Grosche/Ziegler/Ziegler (1991), S. 148. Anm. des Autors: Stehen die Vektoren rechtwinklig normal aufeinander. Vgl. Grosche/Ziegler/Ziegler (1991), S. 210. Vgl. Friendly (2007), S. 31. Wie etwa die Folgenden: Lensing, Focusing, Brushing und Slicing. Details und mehr bei Wilkinson (2005), S. 552–577

55 breite Anwendung verwendbar155 , aber manche bieten gerade im modernen Umfeld Möglichkeiten Daten verbessert darzustellen. Die folgende Auswahl betrifft Visualisierungstechniken, die Verbesserungen brachten, indem Sie gewisse Nachteile klassischer Methoden durch Vorteile ersetzen und die vor allem für klassische Büroaufgaben tauglich sind: Für das Reporting, webbasierte Anwendungen und multivariate156 Daten.

5.3 Dotplot

A

D



C



B



B D C

A



0

20

40

60

80

100

60

80

100

%

A

D



C



B B



D C

A



0

20

40 %

Abbildung 16: Vergleich zwischen Kreisdiagramm und Dotplot: Es ist leichter die Werte mittels des Dotplot nachzuvollziehen. Obwohl nicht angeführt entspricht die Aufteilung im ersten Fall 40 : 20 : 20 : 20. Im zweiten Fall ist das Verhältnis 40 : 22 : 20 : 18. Der Unterschied ist bei den Dotplots besser zu erfassen. Der Dotplot wurde als Antwort auf die Standardverfahren bei der Datenvisualisierung erfunden, wie die Kreis- und Balkendiagramme, um deren Schwächen in der Darstellung zu umgehen.157 Der Dotplot ist ein Diagramm, bei dem die 155

156

157

z.B.: Chernoff-Gesichter, bei denen multivariate Daten in kleine Cartoongesichter codiert werden und der Gesichtsausdruck genauso einen Wert repräsentiert wie die Größe der Ohren (Vgl. Harris (1999), S. 72) Vgl. Ponocny-Seliger/Ponocny (2005), S. 97 multivariat: die Variablen hängen voneinander ab und. Vgl. Cleveland (1994), S. 152.

56 Werte mittels Symbolen auf parallelen (meist gepunkteten) Achsen aufgetragen werden, die eine gemeinsame Skala besitzen. Wie in Abbildung 16 zu sehen ist, sind die Vorteile gegenüber dem Kreisdiagramm neben der genaueren Vergleichbarkeit der Daten im Sinne von x > y, x < y oder x = y, auch die Faktorisierung der Daten im Sinne von x = a · y. Es ist sehr schwer und nur für geübte Augen erkennbar, dass die Sektoren in der zweiten Zeile geringfügig voneinander abweichen, wobei dies im Dotplot ersichtlich ist.

5.4 Multidisplays Die Anordnung mehrerer Grafiken gemeinsam nennt man Multidisplays oder Panelcharts. Die Anordnung beieinander ergibt sich aus Zusammenhängen, nicht aus der Tatsache, dass sie nebeneinander stehen. Die Anordnung ist eine Folge der Datenstruktur.

1932 1931

● ●

20

30

Crookston Trebi Wisconsin No. 38 No. 457 Glabron Peatland Velvet No. 475 Manchuria No. 462 Svansota



Waseca ●

● ● ● ●

● ● ● ● ●





● ● ● ●

● ●

● ● ●

● ● ●





● ●







● ● ●



● ● ●

● ●

20

30

40

50

● ●

Duluth





● ● ●



● ●

● ●

● ● ●









Grand Rapids Trebi Wisconsin No. 38 No. 457 Glabron Peatland Velvet No. 475 Manchuria No. 462 Svansota

●● ● ●





● ● ●



Morris

● ●●







University Farm



● ● ● ● ●







● ●

● ● ● ●







60



● ● ● ●

Trebi Wisconsin No. 38 No. 457 Glabron Peatland Velvet No. 475 Manchuria No. 462 Svansota

50



● ● ● ●

40

● ● ●● ● ● ● ● ● ● ● ● ● ● ●

60

Gerstenernte (Büschel/Acre)

Abbildung 17: Beispiel für einen Multiway Dotplot: Diese Abbildung zeigt die Erntergebnisse für Gerste verschiedener Sorten auf 6 Farmen in den Jahren 1931, 1932.

57 Die Entwicklung dieser Darstellungsformen wurde angetrieben vom Wunsch Modelle aus moderaten bis sehr großen Datensätzen basierend auf Experimenten zu bauen.158 Durch ein nebeneinander Stellen von Displays entsteht neuer Einblick und man hat die Möglichkeit bedeutsame Aspekte der Daten herauszukehren.159 So kann, wie in Abbildung 17 zu sehen ist, das Darstellen mehrerer kleiner Displays sehr sinnvoll sein. In Abbildung 17 ist vor allem die Farm Morris herausragend. Cleveland (1993) enthält eine Abhandlung über die Möglichkeit eines Aufzeichnungsfehlers in dieser Causa.160 Diese Arten der Darstellung sind ein sehr guter Ersatz für Kreis-, Balken- und Säulendiagramme. Anderson's Iris Data − 3 versch. Spezies

2.0

3.0

4.0

Sepal.Length

● ● ● ● ● ● ● ●● ● ●● ● ●● ● ●●● ● ● ● ●●● ● ● ●● ●● ● ● ● ●● ● ● ●● ●●● ● ● ●● ● ●● ●● ●● ●●● ● ●● ●●● ●●●● ●● ●● ● ●● ●●●●● ● ● ●●● ●●●●● ● ● ● ● ●● ●● ●● ● ●● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ●●

● ● ● ● ●● ● ● ●● ● ●● ● ● ● ● ● ● ● ●● ●● ● ● ●● ● ● ●● ●● ●



● ● ●● ● ●●● ● ● ● ●● ●● ● ● ●●●● ●● ● ●●● ●● ● ●● ● ● ●●●● ● ● ●●● ● ●● ●●●● ● ●●●● ●● ● ●●●● ● ● ●● ● ●●● ●● ●● ● ● ● ● ● ●● ●● ●● ● ●● ●

2.5

● ● ●●●● ● ● ●● ● ●●● ●● ●● ● ●● ● ●● ●●● ●● ●●●●● ●

● ● ●● ● ● ●● ● ●● ● ● ●●● ●● ●●●●●●● ● ● ●● ●

4.5

5.5

● ● ● ● ● ●●● ● ● ● ●● ●●● ●●● ●● ●● ● ●● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ●● ●● ● ●● ●● ●● ● ●● ●● ● ● ●●● ● ●● ●● ● ● ●●●● ●●● ●● ● ● ● ●● ● ● ●



● ● ● ● ● ● ● ● ●●● ● ●● ● ● ●●● ● ● ●● ● ●● ● ●● ● ●●●●●●● ● ●● ● ● ● ● ● ● ● ●● ●●●● ● ● ● ● ●● ● ● ●●● ●●●● ● ● ●● ● ● ●● ●● ● ●● ●

1.5 0.5

Sepal.Width

●●● ● ● ● ●● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ●●

6.5

● ●● ● ●● ●● ●●● ●● ● ●●●●● ● ● ● ●● ● ●● ● ● ● ●●● ●● ● ● ● ●● ● ● ● ● ● ●● ● ● ● ●● ● ● ● ●● ● ●●● ● ●● ● ● ● ● ● ●● ● ● ●● ● ● ●● ● ● ● ●

7.5



● ● ● ● ●● ● ● ● ●● ● ● ● ●● ● ● ●● ●●●●●●● ●●●● ●●● ● ●●●● ●●●●● ● ● ●●● ● ●● ● ● ● ● ● ● ● ●●●● ●● ● ● ● ● ● ●●●● ●●● ● ● ● ● ● ● ●● ● ●●● ● ● ● ● ● ● ●●● ●● ● ● ● ● ● ● ●● ● ●● ●● ● ●● ● ●● ●●● ● ●●● ● ● ● ● ●● ●●● ●● ● ● ●● ●● ●● ●● ● ● ● ● ●

● ●● ●● ●● ●● ●● ●● ● ● ● ● ●● ● ●●●●●●●● ● ● ●● ● ● ●

● ● ● ●●● ● ● ●● ● ●●●● ●●●●●●●● ● ● ●● ● ●

● ● ● ● ● ●●● ● ● ●● ●● ● ●●● ● ● ● ●● ●●● ●

Petal.Length ● ● ●● ●●● ● ● ●● ● ● ● ● ● ● ●● ● ● ●● ●

● ● ● ● ● ● ●●● ● ● ● ● ● ●● ● ● ● ● ● ● ● ●● ● ●●●●●● ● ● ● ● ●● ● ● ●●●●● ●●●●●●● ● ● ●●●● ●●● ● ●● ● ●●● ●●



●● ●

●●● ● ● ● ●● ● ● ● ● ●● ●●● ●● ●● ● ●● ● ● ●●

2.5

● ●●●● ● ● ● ● ● ● ● ●● ● ● ● ● ● ● ● ● ● ● ●●● ● ● ●●●● ● ● ● ● ● ● ● ● ● ●● ● ●● ● ● ●●● ● ●●●● ●● ● ● ● ●● ●● ●● ● ● ● ●● ●●● ● ● ● ● ● ● ● ●

●● ● ● ● ● ● ● ●●●● ● ●● ● ● ● ● ●● ● ● ● ● ● ●● ● ●● ● ● ●● ● ●●●● ● ● ●● ● ● ●● ● ●● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ● ● ●●●● ● ● ● ●●●● ●

7.5

● ● ● ● ●● ● ● ● ● ● ● ● ● ●● ● ●● ●●●● ●● ● ● ● ● ● ● ●● ●●●● ●● ●● ●● ● ● ● ●● ● ● ● ●● ●●● ●●● ● ● ● ●●● ●●●●●● ● ●● ● ● ● ● ●● ● ● ● ●● ● ●●● ● ●●● ●●● ● ●● ●●●● ● ● ● ● ●● ● ●● ● ● ●

1.5

6.5

0.5 ● ● ● ●● ● ●● ●● ●●●●●● ●●●● ● ● ● ● ● ● ●● ● ● ●● ● ● ● ●● ● ● ● ● ●● ● ● ● ●● ● ● ● ● ● ●●● ● ● ● ● ● ● ● ● ● ● ● ● ●● ●● ● ● ● ● ● ● ●● ● ● ●●● ● ● ●

5.5

4.0 ● ●

4.5

3.0

1 2 3 4 5 6 7

2.0

Petal.Width

● ● ●● ● ●● ● ●● ● ● ●● ● ● ● ● ●● ●● ●

1

2

3

4

5

6

7

Abbildung 18: Beispiel für einen Matrixplot: Es wurden hier für 3 Spezies von Iris, die Abmessungen der Kelch- (Sepalum) und Kronblätter (Petalum) der Blüten gegeneinander aufgetragen. Es ergibt sich mitunter die Möglichkeit kleine Vielfache 161 darzustellen, was als eine Art von Bildergeschichte verstanden werden kann. Das kann bei multivaria158 159 160 161

Vgl. Vgl. Vgl. Vgl.

Cleveland/Fuentes (1997), S. 1. Maindonald (2004), S. 33. Cleveland (1993), S. 328–339. Tufte (2005a), S. 67–80.

58 ten Daten so weit gehen, dass alle Variablen gegeneinander in einem Matrixplot gezeichnet werden, wie in Abbildung 18 zu sehen ist.162 Die Anwendungsmöglichkeiten von Multidisplays oder Panelcharts sind so vielfältig wie die Bezeichnungen: Bei S-Plus heißen die Grafiken Trellis-, bei R Latticeund manchmal findet man die Bezeichnung Draftman’s Chart 163 Given : wool

B

A

10

20

30

40

50

50

70

0

H





10

● ● ●

● ● ●● ● ● ●● ●





● ●



● ● ●●

M

● ●● ● ●

● ●

30

breaks

50

70



● ● ●



10





●●

30

● ● ● ● ●





L

50

70



Given : tension

30



● ●● ● ●

10



0

10

20

30

40

50

Index

Abbildung 19: Beispiel für einen Conditional Plot: Es handelt sich hier wieder um einen Rasterchart für die Reißfestigkeit zweier Wollsorten in verschiedenen Stichproben, der allerdings zwei Konditionen unterliegt: (1) Wollsorte und (2) Zugstärke. Das Begriffswirrwarr bei den Panelcharts hat unter anderem auch urheberrechtliche Gründe: Trellis ist ein Markenzeichen der Insightful Corporation.164 S-Plus und R sind zwar Implementierungen von S, einer statistischen Programmiersprache, aber R ist ein Open Source Produkt und S-Plus kommerziell.

162

163 164

Oft bezeichnet der Begriff Matrixplot aber das Auftragen mehrerer Sichtweisen in einem geordneten Raster Vgl. Harris (1999), S. 143. Produzent von S-Plus.

59 S dient oft als Unterbau für Statistiksoftware und wird deshalb als Lingua Franca der Statistik bezeichnet.165 R ist ein Dialekt von S, der sich stark an die Programmiersprache C lehnt. Die Syntax ist fast identisch.166 Um zu zeigen wie Variable von anderen Variablen abhängen, verwendet man gerne conditional plots, wie in Abbildung 19 beispielhaft dargestellt. Man erkennt hier die Abhängigkeit der Brüche innerhalb einer Wollsorte in Bezug auf die Zugstärke und den Unterschied zwischen den Wollsorten. Dies bildet eine Alternative zu Diagrammen mit zwei y-Achsen und Kurven, die superpositioniert wurden. Alle diese Verfahren können sich auch aller Methoden bedienen, die auf die Daten in Ihnen anwendbar ist. Das bedeutet, dass man bei der Verwendung eines Histogramms einen Kerndichteschätzer, bei der Verwendung von Liniendiagrammen Glättungsfunktionen usw. usf.. Der Fokus der Multidisplays liegt kaum noch im Anzeigen von Werten, sondern in der Vermittlung von Zusammenhängen und Verhältnissen innerhalb der Daten. Durch das Schrumpfen der Grafiken gewinnen Methoden der Darstellungsoptimierung an Bedeutung. Fehler werden in der Verkleinerung genauso transportiert und wenn es sich um Multidisplays handelt, eben vervielfacht. Eine interessante Form der Verdichtung von Daten stellt auch der Mosaikplot dar, der besonders gut dazu geeignet ist kategorische Daten in einem Display darzustellen.167 Abbildung 20 erzählt die Schicksale der Passagiere der Titanic. Der Mosaikplot ist eine Erweiterung des Balkendiagramms auf mehrere Kategorien. Die Dimensionen zeigen die Anteile der Subkategorien an den Hauptkategorien und können noch einmal geteilt werden, um eine weitere Kategorie anzuzeigen. Das bedeutet, dass die horizontale Unterteilung das Verhältnis von Crew zu Klassenpassagieren zeigt, welche wiederum in Erwachsene und Kinder geteilt werden. Die Vertikale Unterteilung spiegelt die Verhältnisse männlich:weiblich und überlebte:gestorben. Es sind hier also 4 Kategorien berücksichtigt. In Abbildung 20 findet man eine explodierte Ansicht eines Mosaikplots. Im Normalfall würden sich alle Balken auch berühren können, sodass eine geschlossene Fläche entsteht. Aufgrund der extremen Größenunterschiede in den Daten war dies hier nicht möglich, auch aus Rücksicht auf die Beschriftung.

165 166 167

Vgl. Friendly (2007), S. 32f. Vgl. R Development Core Team (2006), S. 1. Vgl. Friendly (1992), S. 4f.

60

Abbildung 20: Mosaikplot der Titanicpassagiere: Die Abbildung beschreibt das Verhältnis von Geschlecht, Reisestatus und ob überlebt wurde oder nicht (grün=ja/rot=nein). Man sieht, dass alle Kinder überlebt haben, die nicht in der dritten Klasse gereist sind.

5.5 Semigrafische und wortgroße Grafiken Die simpelste Art einen Zustand zu beschreiben ist ein Wort und eine Zahl.168 Allerdings zeigt sie keine Struktur oder Zusammenhänge in den Daten, nur den Wert.169 Um mehrere Werte darzustellen bedient man sich der Tabelle und in weiterer Form dann Visualisierungen von Daten. Dies kann auch in semigrafischen oder wortgroßen Grafiken erfolgen.

168 169

Vgl. Tufte (2006), S. 168 Zum Beispiel: Zuwachs 12% Vgl. Tukey (1972), S. 293.

61 Eine Art ist der Stem-and-Leaf -Plot. Es handelt sich hier um eine simple Art des Histogramms.170 Daten werden ihrer Größe nach geordnet und zugeordnet. Abbildung 21 stellt einen solchen Plot dar. Der Vorteil liegt auf der Hand: Er ist einfach und schnell zu erstellen, man benötigt keine Hilfsmittel technischer Natur und kann sich doch einen Überblick über die angesammelten Daten verschaffen. Nachteil ist das unabsichtliche Runden der Werte. Nehmen wir an Abbildung 21 zeigt die Höhe von Bergen des Voralpenlandes und der Stem entspricht 100 Metern, also würde die Legende lauten:„11k5 = 10 150 Meter“. Wir hätten alle Berge auf 10 Meter genau. Für einen Überblick wäre das mehr als genug. Für einen weiteren Vergleich reicht es nicht, da die Genauigkeit stark beschnitten wurde. 11 12 13 14 15 16

57 369 259 26 49 4

11k5 = 115 Pfund

Abbildung 21: Stem-and-Leaf-Plot: Es handelt sich hier um einen kleinen Stemand-Leaf-Plot des Gewichtes von 15 Frauen in Pfund. Links neben der Teilerstrich ist der so genannte Stem (Stamm) und rechts die Leaves (Blätter). Für die erste Zeile bedeutet dies, dass hier die Gewichte 115 und 117 Pfund kodiert wurden. Das Stem-and-Leaf-Diagramm ist nur ein Beispiel von vielen, in denen die Grenze zwischen Diagramm und Tabelle verschwimmt.171 Der Nutzen ist es das Muster zu erkennen und trotzdem die Daten schnell ablesen zu können. Vor allem, weil man in Wirklichkeit nur ein Blatt Papier benötigt und zu einem plakativen Ergebnis kommt. Der augenblickliche Trend zu Intra- und Internetportalen verlangt eine andere Art der Aufarbeitung der Daten. Sie soll schnell erfassbar sein, das wichtigste darstellen und optisch ansprechend sein. Da eine der Randbedingungen aber der Platz ist — im Sinne eines Anteils an Fläche — führt dies zur Verkleinerung der Datengrafiken. Ein Ergebnis dieser Verkleinerungen sind die Sparklines.172 Tufte (2006) entwickelte diese Grafik aus der Überlegung heraus, dass die gebräuchlichste Art von Datendarstellung ein Wort gefolgt von einer Zahl ist. Innerhalb eines Kontextes 170 171 172

Vgl. Tukey (1972), S. 295–297, Ponocny-Seliger/Ponocny (2005), S. 14, Harris (1999), S. 369f Vgl. Tufte (2001), S. 139–159. Vgl. Tufte (2006), S. 46-63.

62 erlangt diese Zahl dann Bedeutung.173 Dieser Kontext entsteht indem der Verlauf oder die Entwicklung der Zahl als Miniatur dem Wort nahe gestellt wird, deswegen auch die Beschreibung mit wortgroßen Grafiken. Um zu verstehen, was das bedeutet, ist es besser, wir betrachten als Beispiel den folgenden Aktienverlauf Daimler Chrysler, 12%, 129174 und Abbildung 22 um die Häufung von solcher Grafiken zu sehen.

Abbildung 22: Sparklines: Um den generellen Verlauf zu sehen und um die Zahlen im Kontext erfassen zu können, bieten sich Sparklines an (Ausschnitt aus einem Screenshot von Andreas Flockermann abgerufen am 25.03.2007 von http://www.edwardtufte.com/bboard/q-anda) Auf den Internetseiten mancher Anbieter von Finanzinformationen sind Sparklines schon Standard. Es muss noch einmal betont werden, dass die Größe und die Datenintensität die Sparklines ausmacht und nicht etwa die Tatsache, dass sie eine Liniengrafik sind. In Abbildung 22 erkennt man neben den Liniengrafiken in der mittleren Spalte, auch in der Spalte links daneben eine Verlaufsgrafik mit binärer Information175 und rechts einen Bulletgraph, ein kleines Balkendiagramm, dass das Verhältnis von Soll zu Ist ausdrücken soll. 173 174

175

Vgl. Tufte (2006), S. 47. Vgl. Löffler (2007), S. 1 und beachten Sie die Tatsache, dass es nicht möglich ist vorangegangene Abbildung wie die übrigen in diesem Text zu beschriften. Würde man Sie freistellen, würde der Effekt verloren gehen. Sie finden sie freigestellt als Abbildung 37 auf Seite 112 hier: Win/Loose, aber es könnte genauso gut jedes andere binäre Kriterium sein: ja/nein, Mann/Frau, rechts/links, etc.

63

6 Gestaltungsprinzipien Bis zu diesem Punkt standen physio- und psychologische Randbedingungen für die Wahrnehmung und verschiedene Formen der Datengrafik im Mittelpunkt. Im folgenden werden nun die Gestaltungsprinzipien von drei Autoren einschlägiger Literatur dargelegt. Diese haben Ihre Arbeitsschwerpunkte in den verschiedenen Teilen der für Diagramme relevanten Teile der Visualisierung: Technik, Wissenschaft und Kunst.176 Sie entsprechen auch den Empfehlungen von Wilkinson (2005), der diese Wissenschaftler und ihre Bücher als Quellen für die Anleitung zur Erstellung guter Grafiken empfiehlt.177 William S. Cleveland ist ein Statistiker, Stephen M. Kosslyn ein Psychologe und Edward R. Tufte ist ein Statistiker und Politikwissenschaftler, der manchmal als Designer beschrieben wird. Alle drei haben schon mehrere kritische Publikationen zum Thema Grafik herausgebracht und sowohl Cleveland als auch Tufte können sich als Erfinder einer Visualisierungsmethode bezeichnen. Sie vereinen auch die drei Sichtweisen auf die Visualisierung: (1) Kosslyn vertritt die Sicht der Wissenschaft, (2) Cleveland den Standpunkt von Technik und Wissenschaft und (3) Tufte die Sicht von Kunst und Technik. Etwaige Begriffsübersetzungen aus dem Englischen im nachfolgenden Teil sind durch den Autor dieser Arbeit entstanden.

6.1 Prinzipien nach Cleveland Die Prinzipien in diesem Abschnitt sind aus Cleveland (1994): The Elements of Graphing Data. Cleveland ist Statistiker und hat neben dem oben angeführten Buch zahlreiche andere wissenschaftliche Arbeiten zum Thema Darstellung von statistischen Daten geschrieben. Clear Vision: Das Prinzip der Clear Vision hat den Gedanken der freien Sicht auf die Daten im Mittelpunkt. Überflüssiges soll vermieden und die Daten eindeutig kodiert werden. Das Anliegen des Prinzips der freien Sicht

176 177

Vgl. Wijk (2005), S. 8. Vgl. Wilkinson (2005), S. 1.

64 betrifft insbesondere überlagerte Daten und die beschreibenden Elemente, wie Achsen und Legende.178

Jährliche Sonnenflecken

Sonnenflecken/Jahr

1700

1750

1800

1850

1900

1950

2000

1750

1800

1850

1900

1950

2000

150

100

50

Sonnenflecken/Jahr

0

1700 100 0

Jahr

Abbildung 23: Das klassische Beispiel für Banking: Die Anzahl der Sonnenflecken pro Jahr. In der unteren Grafik erkennt man, dank Banking, wodurch man die Veränderungen und die Art der Veränderungen besser lesen kann. Im vorliegenden Fall eine Art Zyklus und den Unterschied zwischen dem Ansteigen und Abfallen.(Vgl. Cleveland (1994), S. 69) Clear Understanding: Der Leser sollte die wichtigsten Schlüsse in grafischer Form vorfinden. Wenn nicht so gängige Dinge, wie etwa logarithmische Skalen verwendet werden, empfiehlt Cleveland, diese zu erklären. Im Falle der logarithmischen Skalen etwa empfehlen sich zwei. Eine Skala mit dem Logarithmus und eine mit dem tatsächlichen Wert. Wichtig für das Verstehen eines Graphen ist auch die Klarheit desselben, es ist also unbedingt Korrektur zu lesen.179 178 179

Vgl. Cleveland (1994), S. 25–54. Vgl. Cleveland (1994), S. 54–66.

65 Banking to 45◦ : Das Ansichtsverhältnis eines Graphen ist ein wichtiger Faktor beim Schätzen von Veränderungsraten. Wenn die Orientierung von Liniensegmenten bewertet werden soll um Veränderungsraten abzulesen, bringt man die Segmente in eine mittlere Schräglage von 45◦ .180 Der Effekt ist in Abbildung 23 wiedergegeben.

5.85 5.80 5.85 5.80

−0.002

0.000

remainder

0.002

5.75

trend

5.90

−0.010

0.000

seasonal

5.75

data

5.90

Scales: Die Skalen und Achsen sind den Daten anzupassen, nicht umgekehrt. Die Verwendung von logarithmischen Skalen kann helfen die Darstellung zu verbessern. Skalenbrüche sollten immer vollständig sein und die Daten dürfen sich nicht darüber fortsetzen.181

1960

1970

1980

1990

time

Abbildung 24: Dekomposition einer Kurve in ihre Teilaussagen: Gezeigt wird die Zerlegung des CO2 -Ausstoßes des Vulkans Mauna Loa (Hawaii) in saisonale Schwankungen, einen Trend und den Rest. Die kleinen Boxen auf der rechten Seite der Grafik stellen jeweils dieselbe Größe dar und sollen den Bezug erleichtern.(Vgl. auch Darstellung derselben Daten in Cleveland (1994), S. 7) 180 181

Vgl. Cleveland (1994), S. 66–79. Vgl. Cleveland (1994), S. 80–109.

66 General Strategies: Das Visualisieren von Daten ist ein iterativer, experimenteller Prozess, bei dem am Ende eine große Menge an Daten in eine kleine Fläche gepackt ist. Wenn es zur Lesbarkeit beiträgt, sollten Daten mehrmals gezeichnet werden. Viele nützliche Graphen benötigen vorsichtige und detaillierte Betrachtung.182 In Abbildung 24 wird demonstriert, dass auch die Dekomposition von Daten in Teile zu einem besseren Verständnis beitragen kann.

6.2 Prinzipien nach Kosslyn Die folgenden Prinzipien sind aus Kosslyn (2006): Graph Design for the Eye and Mind. Kosslyn ist Psychologe und hat neben dem oben angeführten Buch auch zahlreiche Papers zu den Themen Visuelle Wahrnehmung, Mentale Bilder und visuelle Kommunikation geschrieben. Zuallererst muss eine Verbindung mit dem Empfänger hergestellt werden.183 Principle of Relevance: 184 Effektive Kommunikation zeigt die relevanten Daten. Wird zu wenig gezeigt, verwirrt es den Betrachter; wird zu viel gezeigt, überfordert es den Betrachter. Principle of Appropriate Knowledge: 185 Die Kommunikation sollte an das Zielpublikum angepasst sein und etwas Neues zeigen, aber nicht zu viel. Kosslyn (2006) hebt hier besonders Konzepte, Jargon und Symbole hervor und die Tatsache, dass der Leser mit der Information umgehen kann, wenn er das Konzept zumindest in Teilen schon kennt. Dann ist die Aufmerksamkeit zu erlangen und auf das Wesentliche zu richten.186 Principle of Salience: 187 Die Aufmerksamkeit richtet sich auf die großen wahrnehmbaren Unterschiede. Illustrationen sind zum Darstellen von relativen Werten zu verwenden. Principle of Discriminality: 188 Im Gegensatz zum vorherigen Prinzip bezieht sich dieses auf die Unterscheidbarkeit der Elemente voneinander. So muss 182 183 184 185 186 187 188

Vgl. Vgl. Vgl. Vgl. Vgl. Vgl. Vgl.

Cleveland (1994), S. 110–118. Kosslyn (2006), S. 6. Kosslyn (2006), S. 6. Kosslyn (2006), S. 7. Kosslyn (2006), S. 7. Kosslyn (2006), S. 7. Kosslyn (2006), S. 7f.

67 eine Tickmark als eine solche erkennbar sein und sich auch vom Hintergrund abheben. Principle of perceptual Organization: 189 Dieses Prinzip bezieht sich auf die Tatsache, dass der Mensch dazu neigt Elemente zu gruppieren, diesen dann folgt und sich an sie erinnert. Hierzu gehört neben den Gestaltgesetzen auch das Dreidimensionale Sehen und das integrieren sowie separieren von Dimensionen190 . Verständnis muss gefördert werden und das Gedächtnis muss unterstützt werden.191 Principle of Compatibility: 192 Das verwendete Muster sollte mit dem, was es repräsentiert korrelieren. 1. Surface-Content Correspondence: Die Verpackung sollte dem Inhalt entsprechen. Wenn Hitze mit blau markiert ist, wird der Leser Probleme bei der Interpretation haben. 2. More is More: Wenn etwas im Wert zunimmt, sollte sich das in der Grafik als Zuwachs auswirken. Wachstum wird mit einer Bewegung nach rechts oder nach oben kodiert und nur in Ausnahmefällen anders. 3. Perceptual Distortion: Manche visuelle Dimensionen werden verzerrt. So wird zum Beispiel Fläche, Intensität von Farbe und Volumen unterschätzt, je größer die Rate der Veränderung ist. 4. Spatial Imprecision: Ungenauigkeit beim Bewerten von räumlichen Verhältnissen hängt mit der Tatsache zusammen, dass verschiedene Teile des Gehirns die Oberflächeneigenschaften und die räumlichen Eigenschaften registrieren. 5. Cultural Conventions: Es ist zum Beispiel nicht gut, für Stopp grün zu verwenden. Principle of informative changes: 193 Jede Änderung wird als Veränderung aufgefasst. Ändert sich die Farbe, wird eine Änderung impliziert. Principle of capacity limitations: 194 Dieses Prinzip besteht aus zwei Teilen: Beschränkungen im (1) Kurzzeitgedächtnis und (2) in der Verarbeitung. Eine Visualisierung wird vom Betrachter nicht verstanden, wenn er mehr 189 190

191 192 193 194

Vgl. Kosslyn (2006), S. 8–13. Farbe ist zum Beispiel eine integrierte Dimension. Sie kann als Unterscheidungsmerkmal fungieren, ist aber nicht so effizient wie der Abstand, als ein Beispiel für eine separierte Dimension. Vgl. Kosslyn (2006), S. 14. Vgl. Kosslyn (2006), S. 14–16. Vgl. Kosslyn (2006), S. 17. Vgl. Kosslyn (2006), S. 17–20.

68 als 4 Informationen gleichzeitig behalten muss. Gleichzeitig kann es Probleme beim Verständnis einer Grafik geben, wenn viele Verarbeitungsschritte notwendig sind um diese zu lesen.

6.3 Prinzipien nach Tufte Die folgenden Prinzipien sind aus Tuftes The Visual Display of Quantitative Information, Envisioning Information, Visual Explanations und Beautiful Evidence. Tufte ist Politikwissenschaftler und Statistiker, dessen letzte Bücher sich ausschließlich mit dem Design von Visualisierungen beschäftigen. Graphische Integrität: 195 Die Daten sollen für sich sprechen und repräsentieren ihren Wert direkt proportional. Eindeutiges, ausführliches und gründliches Beschriften sollten verwendet werden, um grafische Verzerrung und Doppeldeutigkeit zu bekämpfen. Wichtige Ereignisse sollten ebenfalls in den Daten beschriftet werden. Die Anzahl der abgebildeten informationsbefördernden Dimensionen (Variablen) sollte die Anzahl der in den Daten vorhandenen nicht übertreffen. Grafik darf nicht außerhalb des Kontext zitieren. Es besteht die Möglichkeit die Daten zu variieren, aber es soll keine Variation im Design stattfinden. Data-Ink: 196 Die verwendeten grafischen Elemente sollten zum Großteil den Daten entsprechen (siehe auch Seite 44). Allerdings muss hier angemerkt werden, dass zum Thema Data-Ink zwei wichtige Ratschläge gehören: „Above all else show the data.“ und „Revise and edit.“ 197 Multifunctioning Graphical Elements and Small Multiples: 198 Die multifunktionalen grafischen Elemente bilden die Grundlage für die kleinen Vielfachen. Der Autor verlangt jedes grafische Element zu verwenden, um die Daten zu zeigen. Wenn es sein muss, hat dies auch mehrere Male zu geschehen. Kleine Grafiken können mit einer hohen Datendichte nebeneinander wiederholt werden und so Serien abbilden, die einen Verlauf mit einer weiteren Dimension zeigen, respektive multivariate Zusammenhänge darstellen. Es bilden sich Serien von Bildern, die groß genug sind um den Unterschied

195 196 197 198

Vgl. Tufte (2001), S. 53–77. Vgl. Tufte (2001), S. 93–105 und 124–137. Beide: Tufte (2001), S. 105. Vgl. Tufte (2001), S. 139–175, Tufte (2005a), S. 66-79

69 zwischen den einzelnen frames zu erkennen. Gut entworfene small Multiples sind199 : • unausweichlich vergleichend • geschickt multivariat • geschrumpfte Grafiken von hoher Datendichte • normalerweise basierend auf einer großen Datenmatrix • Fast ausschließlich mit Data-Ink gezeichnet • effizient in der Interpretation • Oftmals erzählerisch im Inhalt, Veränderungen im Verhältnis von Variablen zeigend, während die Indexvariable sich verändert und enthüllen auf diese Weise Interaktionen und multiplikative Effekte.

Abbildung 25: Beispiel für Small Multiples (entnommen aus Baker/ Bushell (1995), S. 8): Im unteren Bereich zeigt die Zeitlinie in groben Zügen das Entstehen einer Gewitterwolke. Meteorologische Details werden in der großen Version über dieser Zeitlinie gezeigt. In Abbildung 25 ist im unteren Bereich eine Anwendung solcher kleinen Vielfachen zu sehen. Sie bilden dort eine Zeitlinie und zeigen in Miniaturen die Zustände zu bestimmten Zeitpunkten. Vor allem die Eigenschaft des erzählerischen Inhalts lässt sich gut nachvollziehen. 199

Vgl. Tufte (2001), S. 175.

70 Layering and Separation: 200 In Envisioning Information bringt Tufte ausführlich das Konzept der Ebenen und Trennung um Information aus einer Grafik herauszuarbeiten. Dies geschieht im Normalfall über das Verstärken der Luminanz in Ebenen, die als weiter hinten oder weiter unten gesehen werden sollen.201 Diese Methode Tiefe zu erzeugen entspricht der optischen Tiefenschärfe und stellt keine perspektivische Verzerrung dar. The smallest effective Difference: 202 In Visual Explanations ist eines der Leitmotive der kleinste wahrnehmbare Unterschied. Dies bezieht sich jedoch nicht auf Daten, sondern auf Darstellungen allgemein. Alle Unterschiede sollten so fein wie möglich sein, aber noch immer klar und effektiv. Tufte’s Lieblingsgrafik ist eine Darstellung des Russlandfeldzuges Napoleons von Charles Joseph Minard (siehe auch Abbildung 26). Sie stellt wohl — dank Tufte — die berühmteste statistische Grafik dar. Anhand dieser Grafik kann man die fundamentalen Prinzipien von analytischem Design nachvollziehen: Zeige Vergleiche, Kontraste und Unterschiede: 203 Am Beginn des Russlandfeldzuges steht das Überschreiten des Flusses Niemen (In Abbildung 26 findet man eine Anmerkung links unten!). Dort endet die Kampagne auch wieder. Ersichtlich ist das Verhältnis von nach Moskau ziehender (in heller Farbe) und zurückkehrender Armee (in schwarz). Zeige Kausalität, Mechanismen, Struktur und erkläre: 204 Die Temperaturskala im unteren Teil der Grafik beginnt erst beim Rückzug von Moskau. Sie beginnt am Gefrierpunkt. Das französische Original zeigt, nicht wie die englische Übersetzung, nur die Reaumur-Skala.205 Beachten Sie die Veränderungen in der Breite der Linien beim Überschreiten von Flüssen. Zeige Multivariate Daten: 206 Diese Grafik enthält 6 Variablen: (1) Die Größe der Armee, (2+3) die geographische Lage (i.e.: Längen- und Breitengrad), (4) die Richtung der Armee und (5) die Temperatur zu (6) verschiedenen Tagen. Multivariate Daten sind immer mehr als 1–2 Variablen. 200 201

202 203 204 205 206

Vgl. Tufte (2005a), S. 53–65. Im Normalfall, werden strukturelle Elemente in einer Datengrafik, wie es zum Beispiel das Raster ist, in Grau gehalten Vgl. Tufte (2005b), S. 73–78. Vgl. Tufte (2006), S. 126f. Vgl. Tufte (2006), S. 128f. Vgl. Tufte (2006), S.126. Vgl. Tufte (2006), S. 129f.

71

Abbildung 26: Charles Joseph Minards Darstellung des Russlandfeldzuges 18121813.(gescannt und nachbearbeitet aus: Tufte (2006), S. 123f, Übersetzung Dawn Finley, nachgezeichnet Elaine Morse von Minard (1869))

72 Integriere Beweise: 207 In dieser Grafik finden sich neben Worten und Zahlen verschiedene Diagramme (Temperatur). Tufte schließt das Einbinden von Bildern in Grafiken nicht aus. Dokumentiere: 208 Der Kopf der Grafik enthält neben dem Titel und dem Autor auch eine Vielzahl anderer Informationen: Was wird in welcher Form dargestellt? Wann wurde die Grafik erstellt? Woher kommen die Daten? Welche Annahmen wurden getroffen? Wer hat die Grafik erstellt? Weiter unten findet man den Maßstab und Angaben zu Verleger und Drucker unter dem Rahmen. Der Inhalt ist das Wichtigste: 209 Das Wort Napoleon ist auf der Karte nicht zu finden. Minard stellte nur die Fakten — den Tod vieler Menschen — dar. Die Grafik befindet sich in seinem Werk folgend auf Hannibals Feldzug über die Alpen und war die Letzte. Tufte tituliert diese Karte auch als anti-war-poster.210 Minards Russlandfeldzug ist ein vieldiskutiertes Werk. Man findet ihn bei Wilkinson (2005)211 als Analysebeispiel und in Form von Neuerstellungen und Nachbildungen bei Friendly (1999)212 , bei Ihaka (2001)213 und natürlich besonders ausführlich bei Tufte (2006)214 . Tufte vertritt eine Ästhetik der Einfachheit, die er damit begründet, dass die Daten die komplexe Information darstellen. Gerade dieses Wechselspiel zwischen Komplexität und Einfachheit ist es, was zum gegenseitigen betonen führt: Es gibt keine Einfachheit ohne Komplexität.215

6.4 Fazit Schon in den allgemeinen Gesetzen, die noch keine Ratschläge für spezielle Grafiken enthalten sind einige Gestaltungsregeln enthalten, die an Hand von Visualisierungssoftware zeigbar wäre. Ein Teil der Regeln betrifft die Auswahl oder 207 208 209 210 211 212 213 214 215

Vgl. Vgl. Vgl. Vgl. Vgl. Vgl. Vgl. Vgl. Vgl.

Tufte (2006), S. 130f. Tufte (2006), S. 132f. Tufte (2006), S. 134-136. Tufte (2006), S. 137. Wilkinson (2005), S. 623–629. Friendly (1999). Ihaka (2001), S. 5f. Tufte (2006), S. 122–139. Maeda (2006), S. 45–51.

73 Handhabung der Daten im Vorfeld. Dann wird das Ergebnis allgemein beschrieben, aber selten der Weg dorthin. Auch tauchen immer wieder Ratschläge für das extensive, aber intelligente Beschriften auf. Außerdem werden Möglichkeiten zum Vergleich zwischen den Daten besonders betont. Tukey (1967) ging so weit zu sagen, dass es immer eine Referenzlinie gibt — implizit oder explizit. Sollten die geplotteten Symbole für sich alleine stehen, wird das Gehirn sich seine Referenz einfach erfinden, denn was das Auge besonders gut kann — implizit und explizit — ist vergleichen.216 Es wurden viele gute Ratschläge gegeben und in der Literatur anhand von Beispielen dokumentiert, aber wenige konkrete Vorgehensweisen vermittelt.

216

Vgl. Tukey (1967), S. 593.

74

7 Analyse 7.1 Allgemeines Wie steht es um den Standard bei Visualisierungen in gängiger Bürosoftware? Kann der Benutzer davon ausgehen, dass sein Befehl an die Software, eine bestimmte Grafik zu erschaffen, optimal umgesetzt wird? Es existieren viele Untersuchungen zur Materie der Datenvisualisierung. Im Folgenden werden nicht nur die bisher gebrachten Argumente — und Schlussfolgerungen daraus — dargestellt, sondern auch die Best Practices aus der Literatur. Gemeinsam stellen diese Fakten einen Kriterienkatalog dar, der im Folgenden zur Analyse von Software verwendet wird.

7.2 Ziel und Zweck Zweck dieser Analyse war es festzustellen, inwieweit das Wissen zum Thema Visualisierung in aktuelle Softwareprodukte eingeflossen ist. Das Ziel war es festzustellen bis zu welchem Grad Darstellungskriterien automatisch erfüllt werden. Das Ergebnis war ein Kommentar zum Stand der Datenvisualisierung mit Tabellenkalkulationen. Wenn der Leser es wünscht, kann er daraus eine Empfehlung für eine Software ablesen, die für eine bestimmte Tätigkeit geeignet ist.

7.3 Vorgehensweise Es wurden verschiedene Typen von Büropaketen217 ausgewählt. Die Kriterien für diese Auswahl waren: 1. Enthält eine Tabellenkalkulation. Der Ausgangspunkt ist, dass die Datengrafiken aus Zahlen produziert werden. Datenbankmanagementsoftware wurde 217

Wobei der Begriff Officesoftware treffender wäre, die Entscheidung aber für den deutschen Begriff fiel

75 aus dieser Analyse ausgeschlossen, weil zwar die meisten Arbeitsplätze Tabellenkalkulation besitzen und eventuell sogar eine Spezialistensoftware218 , aber wenige Arbeitsplätze einen Zugang zu Datenbanksoftware besitzen. Textverarbeitung und Tabellenkalkulation findet man fast auf jedem Arbeitsplatz. 2. Die Anwendung ist verbreitet. 3. Die Tabellenkalkulation kann Datengrafiken erzeugen. 4. Die Tabellenkalkulation ist lokal installierbar. Es wurden nur die Tabellenkalkulationen der Büropakete in den Standardeinstellungen getestet. Da sie ob Ihrer Geläufigkeit für die Vermittlung von Zahlen Standard sind, waren folgende Formen von Datengrafiken Gegenstand des Tests: 1. Kreisdiagramm 2. Liniendiagramm 3. Balkendiagramm Dazu wurde ein Kriterienkatalog hinzugezogen. Die Kriterien befinden sich in den Tabellen 11 bis 16 — im Anhang ab Seite 101 — sowie die Quellenhinweise. Die Kriterien sind nach Erfüllung bewertet. Wird ein Kriterium erfüllt, bedeutet dies einen Punkt. Wird ein Kriterium durch Nachbesserung erfüllt, bedeutet dies auch einen Punkt, allerdings in einem zweiten Bewertungsschema. Zusätzlich wurde noch untersucht, ob die getestete Software folgende aktuellere Darstellungsformen unterstützt: (1) Dotplot, (2) Panelcharts219 , (3) Sparklines und (4) aktuelle Funktionalitäten, wie Loess220 , Kerndichteschätzer221 , Banking und Jittering222 . 218

219 220

221

222

Das wäre zum Beispiel im Bereich der Buchhaltung Rzl aber genauso jede andere Anwendung, die Zahlen auswerten kann z.B.:Sap Mehrere Charts, die quasi gestapelt sind. Loess oder Lowess steht für locally weighted regression und bezeichnet eine Kurve, die hilft Abhängigkeiten zwischen zwei Variablen als Kurve darzustellen. (Vgl. Cleveland (1994), S. 168– 180) Eine Methode um ein Histogramm mittels einer parametrisierten Kurve anzunähern. (Vgl. Verzani (2002), S. 18) Das Streuen von Plotsymbolen um etwaige Überlappungen besser sichtbar zu machen. Stellen Sie sich 20 Datenpunkte vor, die in einem Diagramm aber nur als 5 Punkte zu sehen sind. Durch Jittering kann man die Punkte so darstellen, dass man — als Beispiel — am Maximum durch geringe Verschiebungen eine Häufung von 15 Punkten sehen kann, die ein und den selben Datenwert haben.

76 Die Liste bildet nur einen Ausschnitt aus dem aktuellen Geschehen. Die Auswahl wurde vom Autor unter dem Gesichtspunkt getroffen, dass diese Darstellungsarten und Werkzeuge Vorteile in üblichen Reportings und ähnlichen Dokumenten aus dem Büroalltag darstellen. Abschließend wurde erhoben, ob die Tabellenkalkulationen in den Standardeinstellungen lügen und der Lügenfaktor berechnet (siehe auch Seite 46). Dies geschah für Balkendiagramme.

7.4 Getestete Software Microsoft223 hat zu Beginn dieses Jahres sein neues Büropaket Microsoft Office 2007 veröffentlicht. Die Oberfläche wurde komplett überarbeitet und es soll herausgefunden werden, ob es auch Änderungen in der Diagrammerzeugung der Tabellenkalkulation Microsoft Excel 2007 gegeben hat. Neben dieser neuen Version sind auf dem Markt noch die Vorläuferversionen verbreitet, wie Microsoft Office 2003 beziehungsweise dessen Vorgänger Office XP. Die Diagramm-Engine hat sich in den erwähnten Vorgängerversionen von Office 2007 nicht geändert. Microsoft hält im Augenblick 90% der Marktanteile der Officesoftware224 und die Auswahl dieser Software ist somit berechtigt. Die Auswahl einer zweiten Version ist insofern berechtigt, als Microsoft Office einen Quasistandard in der Kommunikation zwischen Firmen und Privaten darstellt. Es ist, durch die Änderung des Dateiformates, nur eine Frage der Zeit, bis der Großteil der Firmen beginnt auf die Fassung 2007 umzusteigen. Die Tabellenkalkulation heißt Excel. Microsofts größter Konkurrent ist die frei verfügbare Open Office Suite von OpenOffice.org.225 Im März 2007 wurde die Version OpenOffice.org 2.2 released. OpenOffice baut auf Suns226 StarOffice auf, ist aber zum Unterschied von diesem unter einer Open-Source-Lizenz227 frei verfügbar. Das Betrachten dieses Softwarepakets hat den Vorteil, dass es (1) bei Privatanwendern weit verbreitet 223 224 225 226 227

http://www.microsoft.com/ Vgl. http://futurezone.orf.at/it/stories/173727/ abgerufen am 23.02.2007 http://www.openoffice.org/ http://www.sun.com/ Eine Open Source Lizenz erlaubt die Weitergabe und Bearbeitung des Quellcodes, solange dieser wieder frei zur Verfügung gestellt wird. Es existieren mehrere Varianten dieser Lizenz. Vgl. http://www.opensource.org

77 ist und (2) Bestandteil jeder größeren Linuxdistribution ist. Weiters existiert es in einer Version, die von USB-Stick gestartet werden kann.228 Die Tabellenkalkulation heißt Calc. Als Referenz werden Abbildungen verwendet die mit R erstellt wurden. R ist keine Tabellenkalkulation, sondern eine Implementierung der Statistikprogrammiersprache S 229 von R Development Core Team230 , die unter einer Open-SourceLizenz läuft. R besitzt ein starkes grafisches Modul, ist durch Module erweiterbar und läuft in einer eigenen Kommandozeilenumgebung.231 Durch die Orientierung an der Kommandozeile ist in dieser Software nur ein Minimum zu erwarten, da viele Einstellungen erst durch explizites Aufrufen entstehen respektive beeinflusst werden. Beispiel: Raster. R entwickelt sich gerade zum Standardvisualisierungsund Berechnungstool für den akademischen Bereich. Es existiert ein Dateninterface mit Microsoft Excel.232 Die mit R erzeugte Referenzgrafik dient als Vergleichsbasis für ein zu erwartendes Minimum. Wir werden also folgende drei Softwarepakete mit dem Kriterienkatalog und gegeneinander vergleichen: 1. Microsoft Excel 2007 2. Microsoft Excel 2003 3. OpenOffice.org Calc 2.2 und als Referenz werden wir folgendes Produkt benutzen: 1. R 2.4.1

7.5 Kriterienkatalog Diese Kriterientabelle stellt den Stand der Dinge dar und erhebt keinen Anspruch auf Vollständigkeit. Problematisch ist das Einpflegen der Prinzipien in diese Tabelle. Manche dieser Gestaltungsregeln sind auf Elemente anwendbar, andere hin228 229 230 231

232

Vgl. http://www.portableapps.com/ Es existieren auch kommerzielle Versionen von S, deren wichtigste S-Plus von Insight ist. http://www.r-project.org/ Es existieren auch grafische Benutzeroberflächen, die aber meist nur die gängigen Parameter der gängigen Berechnungen und Visualisierungen abbilden. Für Details sind zu finden bei http://mailman.csd.univie.ac.at/mailman/listinfo/rcom-l

78 gegen sind sehr allgemein geschrieben oder befassen sich mit Überlegungen zu den Daten. Sie sind Ratschläge. Zu dem existieren Widersprüche, wie zum Beispiel bei der Thematik Tickmarks #305 und #306.233 Beide Kriterien haben Ihre Berechtigung und sind das Ergebnis verschiedener Argumentationslinien und verschiedener Kontexte. Zeigen die Tickmarks nach innen, sind die Werte besser abzulesen, weil sie mit den Elementen in der Grafik gruppieren. Zeigen die Tickmarks nach außen, gruppieren sie besser mit Ihrer eigenen Beschriftung und können nicht zu unerwünschten Effekten führen. Sie können zum Beispiel nicht mit den Elementen auf der Achsenfläche in Konflikt geraten. In der Folge entsteht durch die Wahl oder die Erfüllung eines Kriteriums eine Abhängigkeit anderer Kriterien, die dann erfüllt oder nicht erfüllt werden müssen.234 Die Kriterien #210 und #211 — sie behandeln die Begriffe Achsenfläche und Datenfläche — setzen voraus, dass es einen Unterscheidung zwischen den Begriffen in der Software gibt. Es existieren Kriterien die Legende betreffend und das Kriterium #518 besagt, dass die Daten direkt zu beschriften sind und keine Legende verwendet werden soll. #103 behandelt die Tatsache, dass viele Daten in eine kleine Menge gepackt werden können. Dies entspricht zwar einer Möglichkeit und könnte mit der DataInk-Ratio (siehe Gleichung 6) berechnet werden, ist aber von der Art der Daten abhängig. Daten auf Nominalskalen benötigen schon wegen der Beschriftung mehr Platz als Streudiagramme. #101 verlangt die Werte der y-Achse den zu zeigenden Effekten anzupassen. Bei Nominalskalen findet man sehr oft die Kategorien auf der y-Achse, aber keine Funktionswerte. #101 impliziert auch, dass ein Achsbruch notwendig sein könnte, um die Effekte zu zeigen und #207 verlangt Proportionalität. Die Kriterien #106 und #110 gehen davon aus, dass mehrere Datenreihen abgebildet werden. #111 und #107 gehen davon aus, dass Symbole zum plotten von Daten verwendet werden und sich diese überlappen.

233

234

Um beide Kriterien zu erfüllen, müssten die Tickmarks weder nach innen noch nach außen zeigen, sind also praktisch nicht vorhanden. Die Kriterien der Tickmarks stehen im Zusammenhang mit den Elementen, sowie der Achsenbzw. Datenfläche.

79 Und es existieren nicht anwendbare Kriterien, wie zum Beispiel #100: Die Datengrafik soll, wenn es möglich ist, ein Querformat aufweisen. Ergo sind die Kriterien Ratschläge, beziehungsweise eine Reaktion auf Datenstrukturen, wie zum Beispiel alle Achsenkriterien in Tabelle 12, die mit logarithmischer Skalierung oder einem Achsenbruch zu tun haben. Ebenso verhält sich der Sachverhalt mit den Beschriftungskriterien in Tabelle 15. Die Kriterien sind in diesem Sinne, auch wegen der Widersprüche, wieder Gestaltungsprinzipien und somit nicht wissenschaftlich eindeutig auswertbar, da sie Empfehlungen der Autoren darstellen und deren Erfahrungen aus konkreten Anwendungen widerspiegeln. Die Grenze zwischen Gestaltungskriterium und Prinzip ist zu sehr abhängig von der Datenstruktur, welche Visualisierungsmethode gewählt wurde und vor allem, ob die Abbildung explorativ oder kommunikativ verwendet wird. Der erarbeitete Kriterienkatalog kann unter diesen Bedingungen nicht objektiv angewandt werden; beziehungsweise hätte eine Anwendung des Kriterienkatalogs keine allgemein gültige Aussage.

7.6 Farbe und die Tabellenkalkulationen 7.6.1 Rahmenbedingungen

Es gibt eine Reihe von Bedingungen die Farbe betreffend und es wäre interessant eine relativ eindeutige zu finden und auszuwerten. Grundsätzlich entwirft jede der Tabellenkalkulationen in den Standardeinstellungen die Grafiken in Farbe. Dies ist ein messbares Kriterium. In Tabelle 16 ist das Kriterium #602 zu finden. Direkte Widersprüche konnten keine gefunden werden. Einschränkungen sind aber auch hier zu setzen. Der Einsatz von Farbe ist nicht vorauszusetzen, auch wenn alle Tabellenkalkulationen bei der Generierung von Grafiken so handeln als ob. So existiert die Empfehlungen so wenig Farbe als möglich zu verwenden (vgl. Kriterium #604).

80

A B C D E F

A B C D E F

A B C D E F

2

3

1

4

6

5

Abbildung 27: Die ersten 6 Farben im Tortendiagramm: bei Excel 2003, Calc 2.2, Excel 2007 und R (von oben nach unten): Gut zu erkennen sind die Farben und der Drehsinn bei Excel 2003 und Calc 2.2.

81 7.6.2 Durchführung

Im Folgenden sieht man wie die ersten 6 Farben in den unterschiedlichen Büropaketen verarbeitet werden und ob sie dem Kriterium #602 „Die sechs Farben, die der Mensch am besten unterscheiden kann sind rötliches Purpur, Blau, gelbliches Grau, gelbliches Grün, Rot und bläuliches Grau“ 235 entsprechen. Um dies zu erreichen werden Kreisdiagramme mit 6 gleich großen Sektoren generiert und die Farben betrachtet. Die Erstellung basiert auf der Tatsache, dass Farben immer in der selben Reihenfolge angewandt werden.236 Die Sektoren werden mit den ersten sechs Buchstaben des Alphabets gekennzeichnet um auch die Reihenfolge zu erkennen. In Abbildung 27 ist gut zu erkennen, wie sowohl Excel 2003 als auch Calc 2.2 die Sektoren von der 12 Uhr-Position aus zählen. Während Excel 2003 im Uhrzeigersinn arbeitet, bewegt sich Calc 2.2 in die Gegenrichtung. Die Farben sind bei beiden identisch (siehe auch Tabelle 8). Die anderen Farben bei Excel 2007 sind nicht nur auf das geänderte Bedienungskonzept zurückzuführen. Excel unterstützt in der neuesten Version mehr Farben.237 Diese werden mitunter dazu benutzt realistischere 3D-Effekte zu zeigen. Es ist fragwürdig, die Standardeinstellungen von Excel 2007 auszuwerten, weil gerade im Hinblick auf Farben, das neue Officepaket mehrere Paletten und eine ausgereifte Vorschau vorzuweisen hat, die es dem Benutzer erleichtert, schnell ein neues Design auszuprobieren. Belässt man es bei der Standardfarbpalette und verändert das Subschema nicht, so erhält man eine Kreisdiagramm, wie in Abbildung 27 zu sehen ist.

7.6.3 Auswertung

Alle Grafiken wurden mittels des virtuellen Druckers pdf-Creator 0.80238 in PdfDokumente gedruckt und schliesslich die Farben mittels der Farbpipette des Bild-

235 236

237

238

Vgl. Kosslyn (2006), S. 159. Sollten 6 Liniendiagramme erzeugt werden, wären die verwendeten Farben identisch mit den Farben der Kreisdiagramme. Die Anzahl der Farben wurde von 56 auf 4’294’967’296 erhöht (online abgerufen am 17.03.2007 von http://www.xlam.ch/ExcelLim.htm). Weitere Änderungen umfassen die Tickmarks und die Programmierbarkeit (Vgl. Office IT and Servers User Assistance (2006), S. 118–120) http://www.pdfcreator.de.vu/

82 bearbeitungsprogramms Gimp v2.2.13 239 ausgelesen. Die Ergebnisse sind in Tabelle 8 nachzulesen. Wie zu erkennen ist, sind die Farben bei Calc 2.2 und Excel 2003 wirklich identisch. Beide Microsoftprodukte drehen im Uhrzeigersinn, die anderen beiden dagegen. Weiters ist ersichtlich, dass die Tabellenkalkulationen bei 12 Uhr zu zeichnen beginnen, wobei die Statistiksoftware R bei 3 Uhr beginnt. Den Referenzwinkel bei 12 Uhr und 3 Uhr anzusetzen ist üblich.240

1.Farbe 2.Farbe 3.Farbe 4.Farbe 5.Farbe 6.Farbe Ab Sinn

Excel 2007 212,59,65 2,61,67 79,53,65 267,38,56 193,63,69 27,72,86 12 Uhr Positiv

Excel 2003 240,40,100 330,67,60 60,20,100 180,20,100 300,100,40 0,50,100 12 Uhr Positiv

Calc 2.2 240,40,100 330,67,60 60,20,100 180,20,100 300,100,40 0,50,100 12 Uhr Negativ

R 0,0,100 192,25,90 6,12,100 180,12,100 240,8,98 48,14,100 3 Uhr Negativ

Tabelle 8: Ausgemessene Farbwerte in HSL (Hue[◦ ],Saturation [%],Lightness [%]) Excel 2007 weist, wie in Abbildung 27 zu sehen ist, dunkle deckende Farben auf. Ganz im Gegensatz zu R, dass 5 Pastelltöne verwendet und einen Sektor in Weiß gesetzt hat. Es handelt sich offensichtlich in allen 4 Fällen nicht um die 6 Farben, von denen in Kriterium #602 die Rede ist. Die Unterscheidbarkeit beim Druck in Graustufen ist bei Excel 2003 und Calc 2.2 am besten, wie Sie in Abbildung28 sehen können. Excel 2007 bietet gleichmäßige Farben, die bei einer Wiedergabe in Farbe gleichmäßig erscheinen und somit Fehlabbildungen durch Helligkeitsdifferenzen vermeiden. R packt zwar helle Töne in die Grafik, bietet aber durch die vorhandene Farbsättigung zumindest für die ersten drei Sektoren genügend Unterscheidung. Wie man in Abbildung 29 sehen kann, bietet Excel 2007 noch Subfarbschemata unter Zuhilfenahme des ausgemessenen Grundschemas, erweitert um eine Variante in Graustufen. Da hier eine Variation in der Helligkeit der Farben stattfindet, sind die unifarbenen Varianten und die Graustufen besser auf einem Monochromdrucker wiedergegeben als die sechsfarbige Variante. Das Kriterium — die Verwendung der 6 Farben rötliches Purpur, Blau, gelbliches Grau, gelbliches Grün, Rot und bläuliches Grau — ist von keinem der Testkandidaten erfüllt worden. Die in Excel 2007 verwendeten Farben lassen eine 239 240

http://www.gimp.org/ Vgl. Harris (1999), S. 282ff.

83

Abbildung 28: Vergleich zwischen Farbe und S/W: Die jeweils obere der beiden Zeilen stellt Office 2007 dar, die untere Office 2003 bzw. Calc 2.2. Es wurde mittels pdf-Creator im unteren Teil ein monochromer Laserdrucker simuliert.

84

Abbildung 29: Farbschemata bei Excel 2007: Die Farbschemata sind in einer Matrix mit Designvariationen ausgekreuzt und basieren auf den neuen Grundfarben (Screenshot des Autors). Darstellung mit gleicher Helligkeit zu und unterstützen so die gleichmäßige Interpretation der Elemente, soweit diese in Farbe ausgegeben werden. Die Darstellungen in Excel 2003 und Calc 2.2 bieten höhere Unterscheidungsmöglichkeiten beim monochromen Druck und erleichtern die Unterscheidbarkeit von eingefärbten Elementen. Nicht berücksichtigt wurden Effekte, die auf die Struktur der Daten zurückzuführen ist.

7.7 Neuerungen und die Tabellenkalkulationen 7.7.1 Dotplot

Der Dotplot ist, wie bereits ausgeführt, eine gute Alternative zu Kreisdiagramm und geteiltem Balkendiagramm. Er bietet den Vorteil die Werte, das sie an einer gemeinsamen Achse ausgerichtet sind, genauer zu vergleichen. Außerdem lassen sich auch negative Werte darstellen, was bei Kreisdiagrammen nicht möglich ist.241 Die Methode ist schon länger bekannt, in technischen Kreisen weitgehend verbreitet. Von allen Kandidaten beherrscht nur R den Dotplot als native Funktionalität. Für Excel 2003 existiert ein Makro, dass hilft Dotplots zu erstellen.242 Es basiert 241 242

Außer in seltenen Fällen. Vgl. Harris (1999), S. 282. Download des Excelmakros über http://peltiertech.com/Excel/Charts/DotPlot.htm (online abgerufen 01.04.2007)

85 auf dem Überlagern zweier Diagramme, wobei ein Balkendiagramm dazu benutzt wird, die Führungen für die Punkte zu zeichnen und ein zweites um die Punkte ans Ende zu setzen.

7.7.2 Panelcharts

Auch die Panelcharts sind, außer in R, nur schwer technisch realisierbar. Von vornherein existiert in den untersuchten Tabellenkalkulationen keine Vorlage. Das Stapeln und Anordnen der Grafiken muss von vornherein geplant sein um die Achsen aufeinander abzustimmen. Als Alternative bieten sich Prozeduren an, die diese Grafiken annähernd erstellen.243

7.7.3 Sparklines

Die Verkleinerung von Grafiken wird insofern unterstützt, als sie möglich ist. Es ist aber, um ein lesbares Ergebnis zu bekommen, viel Einstellungsarbeit notwendig. Als Alternative zur manuellen Erarbeitung bieten sich Anbieter von kommerziellen Plug-Ins für Microsoftprodukte an, die mittels eigener Schriftarten arbeiten und nicht mit den eingebauten Diagrammen.244 In Excel 2007 besteht zwar die Möglichkeit den Hintergrund der Zellen über die bedingte Formatierung mit horizontalen Balken zu füllen, die im Verhältnis zum Zellenwert stehen. Allerdings leidet die Lesbarkeit darunter und die Methode mit einer Formel der Art =wiederholen(”|”;A1/10)245 in einer separaten Zelle bietet den Komfort, das man die Laufweite der Balken auf seine Wünsche anpassen kann. Dies entspricht zwar nur der klassischen Strichliste, bietet aber die Möglichkeit, Größen innerhalb der Tabelle zu visualisieren, die dann auch beim Sortieren der Tabelle erhalten bleiben und nicht mit der Zahl in Interaktion treten.

243

244

245

Einen guten Überblick findet man bei http://processtrends.com/toc_panel_charts.htm (online abgerufen 01.04.2007) Zum Beispiel mit den Produkten von http://www.bonavistasystems.com und http://www.bissantz.de/sparkmaker/index_de.asp (online abgerufen 01.04.2007) Das ist Excel- und Calcsyntax. Die Komponente A1/10 wurde willkürlich gewählt. Der Divisor demonstriert allerdings eine Art Maßstab, der auf Werte angewandt werden sollte. Etwaige Reste der Division werden nicht dargestellt.

86 7.7.4 Aktuelle Funktionalitäten

Die Benutzerführung des Diagrammelements Näherungsfunktion wurde in Excel 2007 überarbeitet und nicht erweitert. Calc 2.2 kennt auch Näherungslinien, allerdings auch keine aktuelle Technik. Erwähnenswert ist noch, dass der Boxplot sowohl bei Calc 2.2 als auch bei Excel 2003 und Excel 2007 keine Standardform einer Grafik ist. Wieder existieren für die Microsoftprodukte Workarounds246 und mehrere Plug-Ins247 . Für Calc 2.2 können die Workarounds nachgemacht werden, da sie entweder auf einer allgemeinen Kursgrafik oder gestapelten Diagrammen beruhen. Um in Excel Multidisplays zu imitieren existiert ebenfalls ein hilfreiches Plug-In, dass auch den Export als Bild gestattet.248 Verbessert wurde in Excel 2007 die Unterstützung logarithmischer Skalen, für die nun über die Benutzerführung eine beliebige Basis gewählt werden kann. Die Voreinstellung ist 10. Eine Voreinstellung für natürliche Logarithmen auf der Basis der Eulerschen Zahl e ist nicht vorgesehen und muss von Hand eingegeben werden.

246

247

248

Bei Microsoft findet man ein Workaround über eine Kursgrafik unter http://support.microsoft.com/kb/155130/de (abgerufen 13.04.2007) und basierend auf gestapelten Balkendiagrammen sowohl horizontal als auch vertikal anwendbar bei http://peltiertech.com/Excel/Charts/BoxWhisker.html (abgerufen 13.04.2007). In beiden Fällen werden keine Ausreißer unterstützt, weil die Werte des Boxplots vorab berechnet werden müssen. Sowohl Excel als auch Calc besitzen Berechnungsroutinen für die Kennwerte Median, Quartile und Minimum/Maximum. Wobei von den frei verfügbaren Plug-Ins die Versionen http://www.learnline.nrw.de/angebote/eda/medio/tipps/boxfunktion.htm (abgerufen 13.04.2007) und http://peltiertech.com/Excel/Charts/BoxWhisker.html (abgerufen 13.04.2007) interessant sind. Beide unterstützen in den vorliegenden Fassungen keine Ausreißer. Das ist auf die Tatsache zurückzuführen, dass die Werte des Boxplots berechnet werden und nicht die Rohdaten als Basis benutzt werden. http://j-walk.com/ss/excel/files/charttools.htm (abgerufen 13.04.2007). Auf der Seite von John Walkenbach findet sich auch ein Tool um Konturplots mit Excel zu erstellen: http://www.j-walk.com/ss/excel/files/gradcontour.htm (abgerufen 13.04.2007).

87

7.8 Lügenfaktor und die Tabellenkalkulationen 7.8.1 Rahmenbedingungen

Der Lügenfaktor (Lie-Factor) wurde schon auf Seite 46 als Quotient aus tatsächlicher und dargestellter Veränderung vorgestellt. In Gleichung 9 ist eine formalisierte Form zu sehen, in der Lf der Lügenfaktor ist, und ∆g die relative Änderung in der Grafik und ∆d die relative Änderung in den Daten beschreibt. ∆ versteht sich zwingend als relative Änderung wie in Gleichung 10 formuliert. Lf =

∆g (mit∆d 6= 0) ∆d

(9)

| x2 − x1 | x1

(10)

∆=

Daraus folgen drei mögliche Ergebnisse: Übertreibung: ∆d < ∆g ↔ Lf > 1 Der Grafische Effekt vergrößert Relationen in den Daten und stellt somit eine übertriebene Fassung der Datenrealität dar. Korrekte Wiedergabe: ∆d = ∆g ↔ Lf = 1 Wenn die Effekte überein stimmen, werden die Daten korrekt wiedergegeben. Untertreibung: ∆d > ∆g ↔ Lf < 1 Wenn die Relationen in den Daten größer sind als die Relationen in der Grafik wird eine Untertreibung dargestellt. Es wird ausgeschlossen, dass Wahrnehmungsfehler in die Untersuchung mit einfließen. Wahrnehmungsfehler wie in Abbildung 30 zu sehen sind, waren nicht Gegenstand der Untersuchung. Obwohl es sich hier um ein klassisches Beispiel für eine zu erwartende Fehlinterpretation handelt, ist der dargestellte Effekte gleich dem Effekt in den Daten. Es gilt festzustellen, dass der Lügenfaktor nur über die informationsvermittelnde Variable zu messen ist. Und die Veränderung wird immer als gesamtes wahrgenommen. Ändert man also zwei Dimensionen eines Plotsymbols, so wird die Veränderung von Fläche wahrgenommen.

1000 800 600 f(x) 400 200 0

0

200

400

f(x)

600

800

1000

88

0

2

4

6

8

10

0

2

4

x

6

8

10

x

Abbildung 30: 2 Kurven mit und ohne Raster: Obwohl es so aussieht, als ob beide Kurven sich einander annähern, handelt es sich hier um die Funktion f (x) = x3 und die Funktion f (x) = x3 + 100. Es sind also zwei identische Kurven, wobei eine um 100 Einheiten die yAchse hinauf geschoben wurde. Der Abstand ist somit konstant 100. Der Raster bietet zwar Hilfe, kann aber nicht dazu beitragen die konstante Differenz zu betonen. 7.8.2 Durchführung

Es wurde angenommen, dass beim Vorhandensein von positiven und negativen Werten N ull auf jeden Fall Teil der y-Achse sein wird und somit eine korrekte Abbildung vorhanden sein wird. Es bleibt der Fall zu behandeln, in dem die Funktionswerte 249 entweder alle positiv oder negativ sind. In einem ersten Durchlauf wurde das Verhalten mit Werten untersucht, die sowohl ungefähr Null, als auch deutlich größer gewählt wurden. Die Auswahl der Zahlen war willkürlich. 17

170

123

125

154

1

2

3 120

Tabelle 9: Werte für den 1.Test des Lügenfaktors In Abbildung 31 findet man die Ergebnisse für die Auswertung mit den 9 Werten aus Tabelle 9. Es ist zu erkennen, dass die Werte unterscheidbar dargestellt werden. Auch die Werte, die ungefähr Null entsprechen sind unterscheidbar.

249

Das sind die Werte, die auf der y-Achse aufgetragen werden.

89

Diagrammtitel

180

180

160 160

140 140 120 120 100 100 Reihe1 80

Datenreihen1 80

60 60 40 40 20 20 0 0

1 1

2

3

4

5

6

7

8

2

3

4

5

6

7

8

9

9

Haupttitel 150

180 160 140 100

120 100 Spalte A

80 50

60 40 20

0

0 Zei- Zei- Zei- Zei- Zei- Zei- Zei- Zei- Zeile 1 le 2 le 3 le 4 le 5 le 6 le 7 le 8 le 9

Abbildung 31: Test 1: Balkendiagramme mit den Werten aus Tabelle 9: Von links oben, nach rechts unten sind die Darstellungen von Excel 2007, Excel 2003, Calc 2.2 und R 2.4.1 Die Darstellungen entsprechen einem Lügenfaktor von 1. Das entspricht den Effekten in den zu Grunde liegenden Daten und bedeutet keine Verzerrung in der Darstellung. Im nächsten Schritt wurde versucht, neun Werte rund um den Wert 5 zu gruppieren. Dies geschah im Intervall ±10% ohne die Grenzen des Intervalls miteinzubeziehen, 5 bildet den Mittelwert. Tabelle 10 zeigt die Werte der Reihe im Detail.

4,8

5

5,2

5,3

4,9

5,1

5,4

4,6

4,7

Tabelle 10: Werte für den 2.Test des Lügenfaktors

Wie in Abbildung 32 zu erkennen ist, arbeiten die verschiedenen Tabellenkalkulationen unterschiedlich. Der Schnittpunkt der y- mit der x-Achse liegt bei R

90

5,6 5,6

5,4 5,4

5,2 5,2

5

5 Reihe1

Datenreihen1 4,8

4,8

4,6

4,6

4,4 4,4

4,2 4,2

1 1

2

3

4

5

6

7

8

2

3

4

5

6

7

8

9

9

Haupttitel 5

5,5 5

4

4,5 4 3,5 3

3 Spalte I

2,5

2

2 1,5

1

1 0,5 Zei- Zei- Zei- Zei- Zei- Zei- Zei- Zei- Zeile 7 le 8 le 9 le le le le le le 10 11 12 13 14 15

0

0

Abbildung 32: Test 2: Balkendiagramme mit den Werten aus Tabelle 10: Von links oben, nach rechts unten sind die Darstellungen von Excel 2007, Excel 2003, Calc 2.2 und R 2.4.1 und Calc nach wie vor bei 0. Bei Excel hingegen lässt sich erkennen, dass dieser Schnittpunkt einen Wert ungleich Null trägt (siehe dazu auch Abbildung 33). Ausgehend von der Tatsache, dass im ersten Test die Werte im Bereich 1 bis 170 lagen und der Mittelwert bei 79,44 war und der Lügenfaktor 1 betrug, lässt sich folgendes schließen: Excel schränkt den dargestellten Wertebereich ein, wenn die Werte nicht über einen gewissen Prozentsatz vom Mittelwert abweichen. Im vorliegenden Fall von Excel 2007 (siehe Abbildung 33) liegt der Lügenfaktor zwischen 0,1/0,4 = 11, 5 (beim Vergleich 4,6 und 4,7) und 0,8/1,2 = 3, 83 (beim 0,1/4,6 0,8/4,6 Vergleich 4,6 und 5,4). Der erste Fall ist allerdings abhängig von der Struktur der Daten. Betrachtet man die Grenzen bedeutet dies ein Lügenfaktor von mindestens 3,8 und somit eine Übertreibung.

91

5,6

5,4

5,2

5

Datenreihen1 4,8

4,6

4,4

4,2 1

2

3

4

5

6

7

8

9

Abbildung 33: Grundlage für die Berechnung des Lügenfaktors bei Excel 2007 7.8.3 Untersuchung des Lügenfaktors im Detail.

Recherchen ergaben, dass der Mindestwert der Achse bei Excel ab Version 97 vom Verhältnis zwischen ymax und ymin abhängt.250 Das Minimum der y-Achse ist 0, wenn die Differenz der abgebildeten positiven Extrema ymax und ymin größer als 16,667% von ymax ist (siehe Gleichung 11). In der Folge werden 16,667% als 16 dargestellt um die folgenden Berechnungen zu erleichtern.

∆y = ymax − ymin >

1 ymax 6

(11)

Ist ∆y kleiner als 16 ymax wird das Minimum der y-Achse auf einen Wert y0 gesetzt, der kleiner oder gleich dem Ergebnis aus Gleichung 12 ist. Kleiner oder gleich, weil der Wert dem Bemaßungsschema angepasst wird.

y0 = ymin − ((ymax − ymin )/2)

250

http://www.xlam.ch/xlimits/charts.htm online abgerufen am 14.04.2007

(12)

92 Wenn es sich um einen Scatterplot oder ein Blasendiagramm handelt werden die Werte automatisch auf einen Wert kleiner oder gleich ymin gesetzt. Unter den Annahmen, dass (1) alle y-Werte positiv sind, (2) die Kriterien für ein Verschieben des Ursprungs gerade erfüllen und (3) in der Folge Lf einen Wert annimmt (der ein Grenzwert oder ein Mindestwert sein kann) ergeben sich für den Dividenden und den Divisor die folgenden Werte: ymax , ymin > 0 1 ymax − ymin = ymax 6 ymax − ymin ∆d = ymin (ymax − y0 ) − (ymin − y0 ) ∆g = ymin − y0

(13) (14) (15) (16)

Durch Umformen und Zusammenführen der Gleichungen ergibt sich schliesslich für den (Lügenfaktor) Lfmin in Gleichung 20. 1 ymax 12 1 ymax ∆d = 6 ymin 1 1 (ymax − ymin + 12 ymax ) − (ymin − ymin + 12 ymax ) ∆g = = 1 ymin − ymin + 12 ymax y0 = ymin −

1 y ymax − ymin 6 max = =2 1 1 y y 12 max 12 max 2 ymin = 12 = ∆g /∆d = 1 y ymax 6 max

= Lfmin

(17) (18)

(19) (20)

ymin

Weil aber ymax und ymin über y0 zusammenhängen ergibt sich schliesslich für Lfmin , wie in Gleichung 21 zu sehen ist, 10. Lfmin = 12

5 ymax ymin = 12 6 = 10. ymax ymax

(21)

Das bedeutet, dass sich für Werte, die die Kriterien gerade noch erfüllen, die Lügenfaktoren gegen 10 bewegen. Und das unter Betrachtung der Extrema: Also dem größten eingegebenen Wert ymax und dem Kleinsten ymin .

93

1800

1600

1400

1200

1000

ymax ymin y0

800

Lf 600

400

200

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34

Abbildung 34: ymax , ymin und y0 für Lügenfaktor In einem letzten Schritt wurde mit einem fixen Wert ymax von 1000 von der 16,667%-Grenze weg ymin -Werte aufgetragen. Es wurden die y0 -Werte durch Erstellen von Grafiken ermittelt. Das Ergebnis ist in Abbildung 34 zu sehen. Die exakten Werte finden sich im Anhang in Tabelle 17 auf Seite 110. Wie zu sehen ist schrumpft mit abnehmender Differenz ∆y auch die Differenz zwischen den Werten y0 und ymin , während der Lügenfaktor stark steigt. Für alle Wertetripel wurden die Änderungen in den Daten und die Änderungen in der graphischen Darstellung berechnet. Wie in Abbildung 35 zu erkennen ist, verändert sich bei Annäherung von ymin an ymax vor allem der Bestandteil des Lügenfaktors, der die Darstellung behandelt. Dies führt zu einem Lügenfaktor von über 1000. Dass der Lügenfaktor im untersuchten Fall unter 10 fällt, kann man auf die Verschiebung von y0 zurückführen. Im Rechenbeispiel wurde ein Wert angenommen, der quasi einem Maximum entspricht. In der Untersuchung wurde der von der Software benutzte Wert y0 benutzt.

94

10000 Lf(y) 1000

y0 in % ymax

100

10 ∆g 1 1

2

3

4

5

6

7

8

9

10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34

0,1

0,01 ∆d 0,001

Abbildung 35: Lügenfaktor und Bestandteile Daraus folgt aber auch, dass wenn die Darstellung der verkürzten Achsen automatisch in die Grafik fließt, es automatisch zu Effekten in Größenordnungen von Größer als 10 kommen kann. Speziell bei Werten, die sich sehr eng um einen Wert bewegen (indem sie zum Beispiel um einen Wert oszillieren, wie das bei Umsätzen der Fall sein kann) kommt es, ohne Zutun des Erstellers der Grafik, zu Übertreibungen. Excel unterstützt auch in der neuen Version keine Achsenbrüche und somit ist wieder das Können des Erstellers251 gefragt oder eine zusätzliche Software notwendig um den Lügenfaktor zu dämpfen. In Verbindung mit dem Weber-Fechnerschen Gesetz gewinnt man eine neue Perspektive: Will man die Unterschiede zwischen Werten darstellen und kann dies nur unter Verwendung von verkürzte Achsen, wird der Lügenfaktor größer. Je höher der Lügenfaktor ist, umso mehr muss eine Vergrößerung der Differenzen stattfinden, um den Unterschied wahrzunehmen. In Abbildung 35 ist zu erkennen, wie ∆g relativ gleichmäßig bleibt während sich ∆d verkleinert. Ein Algorithmus in Excel 2007 optimiert die grafische Darstellung und der Lügenfaktor steigt in erster Linie durch das Schrumpfen von ∆d .

251

http://peltiertech.com/Excel/Zips/BrokenYAxis.zip (online abgerufen 14.04.2007)

95 Ist der Kleinste der Werte 10% unter dem Größten, ist bei Excel 2007 mit Verzerrungen in der Größenordnung weniger Zehnerpotenzen zu rechnen. Beträgt der relative Unterschied nur noch 5% und schrumpft nähert sich der Lügenfaktor schnell zwei Zehnerpotenzen, verhundertfacht sich also. Beträgt der Unterschied nur noch 1% wird in Excel 2007 ein Lügenfaktor von 1665 erzeugt. In diesen Größenordnungen kann, aber muss nicht, klar sein, dass man eine Vergrößerung betrachtet. Ein Hinweis oder eine Betonung im Sinne des schon erwähnten Achsenbruchs ist hier wünschenswert.

7.9 Reflexion und Analyse Die Tabellenkalkulationen aus der Analyse konnten nicht getestet werden, da jedes Kriterium auf Annahme eines gewissen Kontextes aus Datenstruktur, Datenquantität und Darstellungsmethodik beruht und somit einen Ratschlag darstellt, aber keine allgemeine Regel. Außerdem gab es bei den gesammelten Kriterien Prinzipien, die sich widersprechen. Auf eine Auswertung wurde aus den angeführten Gründen verzichtet. Den Tabellenkalkulationen fehlen grundlegende Mechanismen um mit größeren Datenmengen abbildungstechnisch umzugehen. Dazu gehören darstellungsrelevante, wie etwa Banking und Jittering und berechnungsrelevante, wie etwa Loess und Kerndichteschätzer. Versuchsweise wurde ein Prinzip aus der Tabelle Farbe ausgewählt und untersucht. Dieses wurde nicht erfüllt. Die Neuerungen auf dem Sektor der Visualisierungen, die sich im Bereich der Technik schon durchgesetzt haben und im akademischen Feld immer bekannter werden, sind nicht realisierbar oder nur unter der Verwendung Produkte Dritter. Das mag auf der einen Seite am kaufmännischen Fokus von Tabellenkalkulationen liegen und andererseits an der Tatsache, dass es für die breite Masse noch nicht interessant ist.252 Zudem hat sich gezeigt, dass es in den Standardeinstellungen von Excel zu Fehlabbildungen im Sinne von Tufte’s Lie-Factor kommt. Der Lügenfaktor steigt bei abnehmender Differenz zwischen den Werten deutlich mehr als linear an. Manche der neueren grafischen Lösungen lassen sich mit Plug-Ins von Fremdanbietern oder Workarounds zumindest für die Microsoftprodukte realisieren. Die 252

Der Aufwand der Hersteller konzentriert sich üblicherweise auf Markterfordernisse.

96 Referenzsoftware würde einen Großteil visualisieren, ist jedoch für den Alltag und den Großteil der Benutzer wegen der fehlenden Bedienungsoberfläche im Stile einer Tabellenkalkulation unbrauchbar. Effektivität Effizienz Eleganz

Technologie & Werkzeuge

Schönheit

Kunst

Visualisierung

Wirkliche Welt

Wissenschaft Allgemeine Gesetze Vorhersagekraft

Abbildung 36: Sichtweisen auf die Visualisierung als Disziplin (modifiziert nach: Wijk (2005), S. 8) und Bewertungskriterien Es folgt aus diesen Fakten, dass es am Wissen des Erstellers liegt, was er aus den Daten macht. Die Randbedingung ist Technik.253 In Abbildung 36 ist ein Modell zu sehen, welches Sichtweisen auf die Visualisierung als Disziplin darstellt. Die Technik ist eine von Ihnen. Jede dieser Sichtweisen — die technische, die wissenschaftliche und die künstlerische —weist ein eigenes Bewertungsschema auf. Die technische Sicht verlangt Effektivität und Effizienz, die Wissenschaftliche allgemeine Gesetze und Vorhersagekraft, und die Kunst strebt nach Schönheit und Eleganz. Alle diese Standpunkte wollen ernst genommen werden.254 Die gute Visualisierung versucht alle diese Perspektiven einzunehmen und im Kontext der Daten zu repräsentieren. Die Widersprüche in den Kriterien könnten auch auf die verschiedenen Sichtweisen zurückzuführen sein. Ein anderer Faktor ist die Interaktion der syntaktische Dimension der Grafik mit der semantischen Dimension der Daten.

253 254

Wobei die Technik als Technologie und Werkzeuge zu verstehen ist. Vgl. Wijk (2005), S. 8.

97 Was bleibt ist der Best Practice: „Graphing Data should be an iterative, experimental process.255 Proofread your graphs.256 Strive for Clarity.257 “

255 256 257

Cleveland (1994), S.112. Cleveland (1994), S. 63. Cleveland (1994), S. 64.

98

8 Die Besonderheiten im Wissenstransfer mittels Diagrammen Wissenstransfer umfasst Sender und Empfänger als unabhängig voneinander agierende Systeme. Ziel des Wissenstransfers ist es das Gelernte zu festigen und auf andere Aufgaben zu verlagern. Diagramme dienen dem Untermauern von Argumenten und dem Transport von abstrahierten Daten. Diese Daten liegen in einem standardisierten Kontext vor, den Sender und Empfänger gleichermaßen kennen müssen. Im Hinblick auf Diagramme ist die Einbettung in verschiedene Umfelder (alleine, mit oder im Text und gemeinsam mit anderen Grafiken), die wahrscheinliche Asynchronität, die manchmal vorhandene Uneindeutigkeit bezogen auf den oder die Empfänger und die Fixierung und Limitierungen des Übertragungsmediums. Da die Diagramme visuell empfangen werden, unterliegen sie den Rahmenbedingungen und Gesetzmäßigkeiten des Sehens. Als starke Einflussfaktoren sind die Gestaltgesetze und das räumliche Sehen zu betrachten, weil diese grundlegende Mechanismen sind. Besondere Vorsicht ist bei der Verwendung von Farben gegeben, da diese subjektiver Interpretation unterliegen und nicht für jede Art von Information gleichermaßen geeignet sind. Diagramme können in Ihren klassischen Formen verschiedene Arten von skalierten Informationen befördern und auf mehrere Arten in Ihre Bestandteile zerlegt werden. Diese Zerlegung gibt jedoch keinen Aufschluss über die Tatsache, wie das Diagramm zu seiner guten Form kommt. Die Aussage von Datengrafiken können eine analytische oder eine kommunikative Dimension enthalten, je nach Verwendungszweck. Außerdem sind die Daten ein Bestandteil der Grafik, in dem sie durch Ihre semantische Dimension die Form und Art der Grafik mit beeinflussen. Diagramme sind dazu geeignet Zusammenhänge und Veränderungen darzustellen, nur beschränkt um Werte zu kommunizieren. Darstellungsfehler bei Diagrammen sind vor allem auf falsche Dimensionierung und Wahrnehmung zurückzuführen. Im Zusammenhang mit den untersuchten Tabellenkalkulationen wurden Tendenzen zu Übertreibungen in bestimmten Wertebereichen gefunden. Diese Übertreibung sind Teil der Standardeinstellungen.

99 Von 3d-Darstellungen ist abzuraten, da sie große Fehlerquellen in der Wahrnehmung darstellen. Oft hat die dritte Dimension ohnehin nur eine schmückende Funktion. Allerdings sei noch einmal betont, dass nur der Hinweisreiz der Verdeckung genügt um Räumlichkeit zu implizieren. Wir sehen eigentlich immer räumlich. Zu den klassischen Diagrammtypen sind in den letzten Jahren neue Darstellungstypen hinzugekommen, die Schwächen der Populären ausgleichen und die Verarbeitung von komplexeren Daten zulassen. Es ist ein Trend zur Verkleinerung und Vervielfachung festzustellen, der auf die neuen Medien und technische Möglichkeiten zurückgeführt werden kann. Die Vervielfachung dient nicht nur dazu, um mehrere Sichtweisen und Variablen darzustellen, sondern kann auch helfen zeitlichen Verlauf zu zeigen. Von der Vielzahl an Gestaltungsprinzipen und Beispielen in der Literatur kann sich der Ersteller von Diagrammen leiten lassen, es existieren jedoch keine allgemeinen Kriterien oder Gesetze, mit denen man eine Grafik guter Form erstellen kann. Dies ist darauf zurückzuführen, dass die syntaktische Dimension der Grafik mit der semantischen Dimension der Daten interagiert und somit zu Handeln im Kontext zwingt. Es bleibt als Empfehlung die visuelle Gestaltung der Daten (1) auf das Zielpublikum maßzuschneidern, (2) auf den Zweck der Visualisierung abzustimmen (explorativ oder kommunikativ)258 und (3) den Prozess der Gestaltung iterativ zu gestalten und im Vorfeld mehrere Arten der Darstellung in Erwägung zu ziehen. Datengrafiken sollten auch als Absatz behandelt werden. Die Visualisierung für ein größeres Zielpublikum ist im Kontext von Wissenschaft, Technik und Kunst zu betreiben, um den vielfältigen Sichtweisen gerecht zu werden. Diese Sichtweisen bieten verschiedene Werkzeuge, Kriterien und Ziele um ein optimales Ergebnis zu erzielen. Das letzte Viertel des 20. Jahrhunderts hat einige Neuerungen gebracht und stand im Zeichen der hochdichten Daten und neuer grafischer Methoden, vor allem für computergestützte Anwendungen. Außerdem wurden Visualisierungswerkzeuge

258

Analog dazu bietet sich ein Beispiel aus der Wirtschaft: Die Zahlen in Reports für die Unternehmenssteuerung sind anders aufbereitet als die Zahlen in einer Bilanz und trotzdem sind beide Informationen über ein Unternehmen.

100 einer breiten Öffentlichkeit zugängig. Aufgrund der Recherche lassen sich folgende Trends ableiten: • Wegen der verbesserten Methoden im Bereich der Computergrafik wird es verstärkt zur Erforschung und zum Einsatz von 3d-Grafiken kommen. Es ist auch mit verschiedenen neuen Darstellungstechniken zu rechnen. • Datenanalysetools werden Einzug in den Firmenalltag halten. Techniken der interaktiven Datenanalyse sind bald Bestandteil von Tabellenkalkulationen, Datenbankfrontends und jeder Statistiksoftware. • Wie in Microsoft Office 2007 zu sehen ist, werden sich Softwarehersteller darauf konzentrieren, dem Benutzer die gestalterische Arbeit noch weiter abzunehmen und ein professionelles Aussehen der Datengrafiken quasi zu automatisieren. Die Benutzer werden lernen müssen, dass gutes Aussehen nicht mit Inhalt oder korrekter Auswahl der Visualisierungsmethode gleichzusetzen ist. • Der Trend zur Verkleinerung von Datengrafiken wird anhalten und wortgroße Grafiken werden an Bedeutung gewinnen. Wie gezeigt wurde, ist das Thema des Wissenstransfers von Diagrammen stark an die Technologie, die zur Visualisierung und Analyse der Daten verwendet wird, gekoppelt. Zusätzlich wirken die Beschränkungen des Mediums und grundlegende Mechanismen der menschlichen Physiologie. Man benutzt Datengrafiken um Entscheidungsgrundlagen zu schaffen, zu unterhalten, zu dokumentieren oder um zu forschen. Die Visualisierung ist eine simple, aber komplexe Kulturtechnik. Eine Kulturtechnik des Wissenstransfers.

101

A Kriterienkatalog Im folgenden finden Sie den für die Analyse erarbeiteten Kriterienkatalog. Da es nicht zur Anwendung dieser Tabellen kam, bieten sie schliesslich und endlich einen Katalog von Empfehlungen erfahrener Autoren, der als Entscheidungshilfe beim Erstellen von Diagrammen dienen kann. Allgemein Beschreibung

Quelle

100

Die Datengrafik soll, wenn es möglich ist ein Querformat aufweisen.

Vgl. Tufte (2001), S. 186

101

Die Werte der y-Achse sind den zu zeigenden Effekten anzupassen.

Vgl. Kosslyn (2006), S. 86

102

Die wichtigste Variable ist immer auf der x-Achse. Ist dies nicht entscheidbar ist die mit dem einfachsten Muster auszuwählen.

Vgl. Kosslyn (2006), S. 81– 83

103

Eine große Menge an quantitativen Daten kann auf eine kleine Fläche gepackt werden.

Vgl. Cleveland S. 110

104

Machen Sie das wichtigste Element zum Herausragendsten.

Vgl. Kosslyn (2006), S. 161

105

Nominalskalen sind entweder so zu ordnen, dass der gewünschte Vergleich möglich ist, oder das einfachste Muster entsteht.

Vgl. Kosslyn (2006), S. 85f

106

Stellen Sie sicher, dass sich kreuzende oder beinahe kreuzende Linien unterscheidbar sind.

Vgl. Kosslyn (2006), S. 143

107

Verwenden Sie unterscheidbare Symbole für Punkte, die durch Linien verbunden sind.

Vgl. Kosslyn (2006), S. 143

108

Stellen Sie sicher, dass best-fittingLinien unterscheidbar und herausragend sind.

Vgl. Kosslyn (2006), S. 154

109

Tragen Sie Sorge dafür, dass Hintergrundelemente nicht mit den Inhalten gruppieren.

Vgl. Kosslyn (2006), S. 187

id

(1994),

102

110

Überlagerte Datenreihen müssen eindeutig und sofort als zusammengehörig erkennbar sein.

Vgl. Cleveland (1994), S. 51

111

Überlappende Datensymbole müssen unterscheidbar sein

Vgl. Cleveland (1994), S. 50

112

Überlegen Sie die Verwendung von Fehlerfahnen.

Vgl. Kosslyn (2006), S. 70

113

Verwenden Sie keine dreidimensionale Perspektive um exakte Information zu vermitteln.

Vgl. Kosslyn (2006), S. 174

114

Verwenden Sie unterscheidbare Symbole (Kreis, gefüllter Kreis, gefülltes Dreieck und Plus)

Vgl. Kosslyn (2006), S. 144

115

Visuelle Klarheit muss bei Reproduktion und Verkleinerung erhalten bleiben

Vgl. Cleveland (1994), S. 53

116

Wenn die Natur der Daten eine Form vorschlägt, folgen Sie dem Vorschlag.

Vgl. Tufte (2001), S. 190

117

Wenn es mehr als eine best-fitting-Linie gibt, beschriften Sie jede direkt.

Vgl. Kosslyn (2006), S. 156

118

Wenn es wichtig ist prozentuelle oder multiplikative Veränderungen zu sehen, verwenden Sie eine logarithmische Skala.

Vgl. Cleveland (1994), S. 95

119

Zeichnen Sie positive und negative Werte relativ zur Basisachse.

Vgl. Kosslyn (2006), S. 91f

Tabelle 11: Allgemeine Kriterien für die Bewertung der Lesbarkeit von Grafiken

Achsen Beschreibung

Quelle

200

Zentrieren Sie Achsenbeschriftung und setzen Sie sie parallel zur Achse.

Vgl. Kosslyn (2006), S. 103

201

Wenn Daten auf verschiedenen Panels verglichen werden sollen, sind die Skalen dem anzupassen.

Vgl. Cleveland (1994), S. 86

id

103

259

202

Wenn zwei abhängige Datenreihen gedruckt werden, verwenden Sie sowohl für die Datenreihen als auch für die Skalen verschiedene Farben respektive Muster.

Vgl. Kosslyn (2006), S. 79

203

Skalenbrüche sind immer total und Werte werden nicht über die Skalenbrüche verbunden.

Vgl. Cleveland S. 104

204

Stellen Sie sicher, dass das Verhältnis Höhe zu Breite der Achsen, Unterschiede in den Inhalten unterscheidbar macht.

Vgl. Kosslyn (2006), S. 77

205

Transformiere die Skala, damit ein guter Eindruck entsteht.

Vgl. Kosslyn (2006), S. 88f

206

Verwenden Sie bei 3D-Graphen immer Wände.

Vgl. Kosslyn (2006), S. 180

207

Intervalle sollten sich proportional zu ihrer Größe auf den Achsen abbilden.

Vgl. Kosslyn (2006), S. 91

208

Es ist manchmal hilfreich zwei Skalen für die selbe Achse zu verwenden (z.B.: Gallonen, Liter)

Vgl. Cleveland (1994), S. 83

209

Für genaue visuelle Eindrücke bei Liniendiagrammen duplizieren Sie die YAchse nach rechts

Vgl. Kosslyn (2006), S. 78

210

Die Datenfläche ist kleiner als die Achsenfläche.

Vgl. Cleveland (1994), S. 31

211

Die Datenfläche sollte immer fast der Achsenfläche entsprechen.

Vgl. Cleveland (1994), S. 82

212

Bei Verwendung einer logarithmischen Skala, sollte die Beschriftung mit den tatsächlichen Größen korrespondieren.259

Vgl. Cleveland (1994), S. 62

(1994),

Da Cleveland (1994) immer einen Achsenrahmen verwendet, meint er die doppelte Verwendung. Ist beispielhaft die Beschriftung der oberen x-Achse 0, 1, 2, 3, . . ., so muss die untere x-Achse mit 1, 10, 100, 1000, . . . beschriftet werden, weil 100 = 1, 101 = 10, 102 = 100, . . .

104

213

Bei zwei abhängigen Variablen setzen Sie eine Achse rechts und die andere links. 260

Vgl. Kosslyn (2006), S. 80

214

Benutzen Sie eine Unterbrechung der Skala, nur wenn unbedingt notwendig.

Vgl. Cleveland S. 104

215

Die Achsen sind immer paarweise zu verwenden

Vgl. Cleveland (1994), S. 31

216

Die Achsen sollten leicht wahrnehmbar sein.

Vgl. Kosslyn (2006), S. 76

217

Die Achsenfläche ist nicht überfüllt(i.e.: Legende und sonstige Notizen haben auf der Achsenfläche nichts zu suchen. Wenn notwendig, lieber die Daten öfter abbilden, um die Details nicht zu verklären)

Vgl. Cleveland (1994), S. 36

218

Die Daten auf einer logarithmischen Skala zu zeigen, kann Schiefe innerhalb der Daten ausgleichen.

Vgl. Cleveland S. 103

219

Der Nullpunkt muss nicht Teil der Achse sein.

Vgl. Cleveland (1994), S. 92

(1994),

(1994),

Tabelle 12: Kriterien für die Bewertung der Lesbarkeit von Achsen

Tickmarks Beschreibung

Quelle

300

Verwenden Sie ein Tickmark, wenn der Wert wichtig ist.

Vgl. Kosslyn (2006), S. 94

301

Wähle den Umfang der Tickmarks so, dass sie mindestens oder in etwa dem Umfang der Daten entsprechen.

Vgl. Cleveland (1994), S. 80

302

Ticks werden bei runden Ziffern und regulären Größen positioniert.

Vgl. Kosslyn (2006), S. 104

303

Platzieren Sie größere Tickmarks an beschrifteten Ticks und auf dem halben Weg zwischen ihnen — wenn es Sinn macht.

Vgl. Kosslyn (2006), S. 94

id

260

Kosslyn (2006) führt als Beispiel eine Grafik an, deren x-Achse Jahre abbildet und über der zwei sich kreuzende Linien für die Produktion und die Kosten abgebildet sind.

105

304

Platzieren Sie Tickmarks in regelmäßigen Abständen.

Vgl. Kosslyn (2006), S. 93

305

Zeichnen Sie die Tickmarks nach Innen.

Vgl. Kosslyn (2006), S. 93

306

Tickmarks sollten nach außen zeigen.

Vgl. Cleveland (1994), S. 31

307

Tickmarks mit Vernunft verwenden.

Vgl. Cleveland (1994), S. 39

308

Die Positionierung der Beschriftung der Ticks ist in unmittelbarer Nähe der Ticks.

Vgl. Kosslyn (2006), S. 104

Tabelle 13: Kriterien für die Bewertung der Lesbarkeit von Tickmarks

Raster Beschreibung

Quelle

400

Der Raster ist in der Ebene hinter den Daten!

Vgl. Kosslyn (2006), S. 185

401

Benutzen Sie einen inneren Raster, wenn genaue Vergleiche relevant sind.

Vgl. Kosslyn (2006), S. 71

402

Benutze eine Referenzlinie, wenn es einen wichtigen Wert gibt, der zu zeigen ist.

Vgl. Cleveland (1994), S. 42

403

Verwenden Sie verschiedene Arten von Raster, wenn höhere Präzision verlangt wird.

Vgl. Kosslyn (2006), S. 183

404

Referenzlinien sollen nicht mir den Daten konkurrieren

Vgl. Cleveland (1994), S. 42

405

Machen Sie Rasterlinien relativ dünn und leicht.

Vgl. Kosslyn (2006), S. 182

id

Tabelle 14: Kriterien für die Bewertung der Lesbarkeit von Rastern

Beschriftung Beschreibung

Quelle

500

Beschriften Sie alles Datenmaterial

Vgl. Kosslyn (2006), S. 106

501

Beschriften Sie Daten so weit als möglich direkt.

Vgl. Kosslyn (2006), S. 106

502

Beschriften Sie kritische Punkte (z.B.: Extrema) explizit.

Vgl. Kosslyn (2006), S. 149

id

106

503

Datenbeschriftungen dürfen nicht mit den Daten konkurrieren

Vgl. Cleveland (1994), S. 43

504

Datenzuordnung erfolgt über direkte Beschriftung oder eine Legende

Vgl. Cleveland (1994), S. 46

505

Der Großteil der Liniensegmente sollte sich gegen 45◦ lehnen

Vgl. Cleveland (1994), S. 69

506

Der Titel der Grafik beschreibt welche Frage die Grafik am leichtesten beantwortet.

Vgl. Kosslyn (2006), S. 108

507

Die Beschriftung der Daten hat so zu erfolgen, dass Sie leicht zu finden ist.

Vgl. Kosslyn (2006), S. 95

508

Die Beschriftung sollte möglichst gleichartig sein und bei korrespondierenden Elementen auf jeden Fall.

Vgl. Kosslyn (2006), S. 101

509

Die Legende ist außerhalb der Datenfläche

Vgl. Cleveland (1994), S. 47

510

Die Legende ist rechts oben bei einfachen Displays und zentriert darüber bei mehreren Displays.

Vgl. Kosslyn (2006), S. 189

511

Die Legende sollte sich den Elementen zuordnen lassen.

Vgl. Kosslyn (2006), S. 189

512

Die Schrift ist in Groß- und Kleinbuchstaben, mit Serifen.

Vgl. Tufte (2001), S. 183

513

Die Schrift ist klar, präzise und moderat.

Vgl. Tufte (2001), S. 183

514

Entfernen Sie redundante Beschriftungen

Vgl. Kosslyn (2006), S. 197

515

Fügen Sie den Titel unter die Abbildung, außer wenn die Abbildung für sich alleine steht.

Vgl. Kosslyn (2006), S. 188

516

Hinweise sind entweder im Titel oder in der Bildunterschrift

Vgl. Cleveland (1994), S. 47

517

Kleine Nachrichten erklären die Daten.

Vgl. Tufte (2001), S. 183

518

Beschriftungen befinden sich auf der Grafik (keine Legende benötigt).

Vgl. Tufte (2001), S. 183

519

Nicht geläufige Elemente sollen erklärt werden (z.B.: Fehlerfahnen)

Vgl. Cleveland (1994), S. 59

107

520

Positionieren Sie alle Bezeichnungen der Elemente gleichförmig.

Vgl. Kosslyn (2006), S. 148

521

Positionieren Sie Beschriftungen am Ende von Linien.

Vgl. Kosslyn (2006), S. 148

522

Verwenden Sie eine Legende, wenn direkte Beschriftung nicht möglich ist.

Vgl. Kosslyn (2006), S. 69

523

Worte laufen von links nach rechts

Vgl. Tufte (2001), S. 183

524

Worte sind ausgeschrieben. Keine mysteriösen Abkürzungen.

Vgl. Tufte (2001), S. 183

Tabelle 15: Kriterien für die Bewertung der Lesbarkeit von Beschriftung

Farben, Schattierung, Schraffur Beschreibung

Quelle

600

Aneinander grenzende Farben sollten verschiedene Helligkeit besitzen.

Vgl. Kosslyn (2006), S. 160

601

Beim Füllen einer Fläche ist nur eine Farbe oder ein Muster zu verwenden.

Vgl. Kosslyn (2006), S. 136

602

Die sechs Farben, die der Mensch am besten unterscheiden kann sind rötliches Purpur, Blau, gelbliches Grau, gelbliches Grün, Rot und bläuliches Grau.

Vgl. Kosslyn (2006), S. 159

603

Farben sind so gewählt, dass Personen mit Fehlsichtigkeit und Blindheit für Farben, die Farben trotzdem unterscheiden können.

Vgl. Tufte (2001), S. 183

604

Farben sind zu vermeiden, so weit es geht.

Vgl. Tufte (2001), S. 183

605

Keine Schraffuren in der Grafik

Vgl. Tufte (2001), S. 183

606

Nicht mehr als 11 Farben.261

Vgl. Kosslyn (2006), S. 159

607

Respektieren Sie Kompatibilität und Konventionen von Farben.

Vgl. Kosslyn (2006), S. 163f

608

Schattierungen von Flächen sollten unten dunkler sein als oben.

Vgl. Tufte (2001), S. 187

id

261

Die 11 Farben, die nie verwechselt werden sind:: Weiß, Grau, Schwarz, Rot, Grün, Gelb, Blau, Pink, Braun, Orange und Purpur.

108

609

Schraffur sollte sich durch mindestens 30◦ unterscheiden.

Vgl. Kosslyn (2006), S. 170

610

Sorgen Sie dafür, dass die visuellen Eigenheiten beim Schattieren unterscheidbar sind.

Vgl. Kosslyn (2006), S. 169

611

Variieren Sie Schraffuren gleichen Musters mit einer Dichte von mindestens 2:1

Vgl. Kosslyn (2006), S. 171f

612

Vermeiden Sie blau und rot in angrenzenden Flächen.

Vgl. Kosslyn (2006), S. 162f

613

Vermeiden Sie blau, wenn die Grafik kopiert werden soll.

Vgl. Kosslyn (2006), S. 166

614

Vermeiden Sie Farbe um quantitative Information zu codieren.

Vgl. Kosslyn (2006), S. 166

615

Verwenden Sie bei Vergleichen keine Abstufungen in der Helligkeit. Hell wird als größer empfunden.

Vgl. Kosslyn (2006), S. 216

616

Verwenden Sie Farbe nur in Kombination mit Farbsättigung um Steigerung darzustellen.

Vgl. Kosslyn (2006), S. 167

617

Verwenden Sie Farben zum Gruppieren von Elementen.

Vgl. Kosslyn (2006), S. 165

618

Verwenden Sie Farben, die im Spektrum gut getrennt sind.

Vgl. Kosslyn (2006), S. 158

619

Verwenden Sie keinen Hintergrund, der mit Ihren Daten in Konflikt gerät.

Vgl. Kosslyn (2006), S. 186

620

Verwenden Sie warme Farben für den Vordergrund.

Vgl. Kosslyn (2006), S. 161

Tabelle 16: Kriterien für die Bewertung der Lesbarkeit von Farben

109

B Werte zur Untersuchung des Lügenfaktors Die Werte in der folgenden Tabelle wurden manuell ermittelt, indem eine Grafik mit zwei Balken erzeugt wurde. Der eine Balken wurde konstant mit ymax gewählt und ymin in Fünfer-Schritten an ymax angenähert. Die erste Position von ymin bei 833,5 wurde gewählt aus der Tatsache, dass 100016,667%=833,33 noch keine Verkürzung hervorruft. Die letzte Position bei 999, weil bei einer Differenz von 0 keine Verkürzung der Achsen mehr stattfindet. Der Wert y0 stellt den Ursprung der y-Achse dar und wurde abgelesen. Aufgrund der abgelesenen Werte kann nicht ausgeschlossen werden, dass y0 auf Grund einer unbekannten Mechanik bei Änderung des Wertes von ymax sich auf andere Art und Weise ändert. Am Verlauf der Funktion Lügenfaktor wird sich daran aber nur wenig ändern.

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22

ymax

ymin

y0

∆g

∆d

Lf(y)

1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000

833,5 840 845 850 855 860 865 870 875 880 885 890 895 900 905 910 915 920 925 930 935 940

750 750 750 750 750 750 750 750 800 820 820 820 840 840 840 860 860 880 880 880 900 910

1,99 1,78 1,63 1,5 1,38 1,27 1,17 1,08 1,67 2 1,77 1,57 1,91 1,67 1,46 1,8 1,55 2 1,67 1,4 1,86 2

0,1998 0,1905 0,1834 0,1765 0,1696 0,1628 0,1561 0,1494 0,1429 0,1364 0,1299 0,1236 0,1173 0,1111 0,1050 0,0989 0,0929 0,0870 0,0811 0,0753 0,0695 0,0638

9,98 9,33 8,89 8,5 8,14 7,82 7,52 7,25 11,67 14,67 13,62 12,71 16,27 15 13,92 18,2 16,64 23 20,56 18,6 26,71 31,33

110 23 24 25 26 27 28 29 30 31 32 33 34

1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000 1000

945 950 955 960 965 970 975 980 985 990 995 999

910 920 930 940 940 955 960 970 975 984 992 998,4

1,57 1,67 1,8 2 1,4 2 1,67 2 1,5 1,67 1,67 1,67

0,0582 0,0526 0,0471 0,0417 0,0363 0,0309 0,0256 0,0204 0,0152 0,0101 0,0050 0,0010

27 31,67 38,2 48 38,6 64,67 65 98 98,5 165 331,67 1665

Tabelle 17: Werte zur Untersuchung des Lügenfaktors

111

C Software- und Datenquellennachweis C.1 Software Dieses Dokument wurde mit LATEX 2ε in der Schriftenfamilie Computer Modern gesetzt und als Dokument im Pdf-Format ausgegeben. In Tabelle 18 ist alle verwendete Software aufgelistet. Nicht näher angeführt sind Softwarepakete von innerhalb LATEX 2ε , die zur Erstellung notwendig sind und Teil der Distribution MikTeX 2.4 sind. Name Adobe Reader Calc Darkshot Draw Excel Excel

Version

URL

8.0 2.2 2.0 2.2 2003 2007

http://www.adobe.com http://www.openoffice.org http://www.darkleo.com http://www.openoffice.org http://www.microsoft.com http://www.microsoft.com

Gimp

2.2.13

http://www.gimp.org

GSView

4.7

http://www.tug.org

Inkscape Jabref

0.45.1 2.1

http://www.inkscape.org http://jabref.sourceforge.net

PdfCreator

0.80

http://www.pdfcreator.de.vu

R Scribus TeXnicCenter

2.4.1 1.3.3.7 1 Beta 6.31

http://www.r-project.org http://www.scribus.com http://www.toolscenter.org

Beschreibung Pdf-Betrachter Tabellenkalkulation Screenshotsoftware Vektorgrafiksoftware Tabellenkalkulation Tabellenkalkulation — Testversion Bildbearbeitungssoftware Postscriptsoftware (um Seite aus Pdf zu extrahieren) Vektorgrafiksoftware Literaturverwaltung für BibTEX Virtueller Drucker der neben Pdf auch Postscript und diverse Bildformate erzeugt. Statistiksoftware Dtp-Software Editor für LATEX 2ε

Tabelle 18: Zur Erstellung des Textes und der Abbildungen benutzte Software

C.2 Datenquellen In Tabelle 19 befinden sich die Datenquellen für alle Abbildungen. Beim Scannen wurde ein Canon IR2016i eingesetzt. Die verwendete Software finden Sie im Detail

112 Daimler Chrysler, 12%, 129 Abbildung 37: Kopie der Sparkline von Seite 62 in Tabelle 18. Den Quellenverweis, soweit er vorhanden ist, finden Sie direkt bei der Grafik. In diesem Abschnitt finden Sie nur Datenquellen und verwendete Software. Die Datenquellen sind Teil der Beispieldatenquellen von R 2.4.1 und können dort gefunden werden. Auch ist eine Zusammenstellung der Datenquellen aus R mit einer Kurzbeschreibung in Tabelle 20 auf Seite 114 zu finden. Für Abbildung 15 gilt — da sie aus mehreren Teilen besteht — dass diese von links nach rechts und anschließend von oben nach unten aufgelistet sind. Ebenso gilt das für nachfolgende Abbildungen. Man findet hier ebenfalls eine Kopie der Sparkline von Seite 62 in Abbildung 37, da diese aus ästhetischen und anwendungstechnischen Gründen dort direkt im Text verankert wurde und so keine Nummerierung tragen konnte. Abb.

Seite

Datenquelle

Erstellt

1

8

Scan

Gimp 2.2.13

2

13

Scan

Gimp 2.2.13

3

14

Scan

Gimp 2.2.13

4

17

Scan

Gimp 2.2.13

5

19

6

22

7

26

Draw 2.2

8

28

Draw 2.2

9

29

Draw 2.2

10

29

Draw 2.2

11

32

R 2.4.1

12

34

13

37

14

48

15

51

Inkscape 0.45.1 Scan

anscombe

Nachbearbeitung

Scribus 1.3.3.7 Gimp 2.2.13

R 2.4.1 Gsview 4.7

help(pie) rpois VADeaths rchisquared trees cars

Calc 2.2

Draw 2.2

R 2.4.1

Scribus 1.3.3.7

113 rnorm sqrt(abs(x)) 16

55

40, 20, 20, 20 40, 22, 20, 18

R 2.4.1

17

56

barley

R 2.4.1

18

57

iris

R 2.4.1

19

58

Warpbreaks

R 2.4.1

20

60

Titanic

R 2.4.1

21

61

women

LATEX 2ε

22

62

Online

23

64

sunspot.year

R 2.4.1

24

65

co2

R 2.4.1

25

69

Gsview 4.7

Gimp 2.2.13

26

71

Scan

Gimp 2.2.13

27

80

1, 1, 1, 1,

28

83

29

1, 1, 1, 1,

1, 1, 1, 1,

Scribus 1.3.3.7 Gimp 2.2.13

1, 1, 1, 1,

1, 1, 1, 1,

1 1 1 1

Excel 2003 Calc 2.2 Excel 2007 R 2.4.1

Druck über pdfCreator Druck über pdfCreator Druck über pdfCreator

Tab. 8

Draw 2.2

Druck über pdf-Creator

84

Excel 2007

Darkshot 2.0

30

88

x3 x3 + 100

R 2.4.1 R 2.4.1

31

89

Tab. Tab. Tab. Tab.

9 9 9 9

Excel 2007 Excel 2003 Calc 2.2 R 2.4.1

Druck über pdf-Creator Druck über pdf-Creator Druck über pdf-Creator

32

90

Tab. Tab. Tab. Tab.

10 10 10 10

Excel 2007 Excel 2003 Calc 2.2 R 2.4.1

Druck über pdf-Creator Druck über pdf-Creator Druck über pdf-Creator

33

91

Tab. 10

Excel 2007

34

93

Tab. 17

Excel 2007

35

94

Tab. 17

Excel 2007

36

96

Draw 2.2

37

112

LATEX 2ε

Tabelle 19: Nachweis der Datenquellen und angewandte Software: Literaturquellen sind im Fließtext in der Beschriftung des Diagramms wiedergegeben.

114

Quelle in R

Beschreibung

anscombe

4 x-y Reihen mit identischen klassischen Werten, jedoch verschiedenen Plots

help(pie)

Beispielaufteilung aus der Hilfe

rpois

Zufallsgenerator für Poissonverteilte Zahlen

VADeaths

Sterberate pro 1000 in Virginia (1940)

rchisquared

Zufallsgenerator für χ2 -verteilte Zahlen

trees

Umfang, Höhe und Volumen von 31 Weichselbäumen

cars

Geschwindigkeit und Bremsweg von 50 Fahrzeugen (1920)

rnorm

Zufallsgenerator für normalverteilte Zahlen

sqrt(abs(x))

Wurzelfunktion

barley

Gerstenernte für 10 Varianten und 6 Feldern

iris

Abmessungen von 150 Blüten aus drei Unterfamilien der Gattung Iris (1935)

warpbreaks

Bruch von 2 Sorten Wolle bei 3 verschiedenen Spannungen auf einem Webstuhl

Titanic

Schicksal der Titanicpassagiere

women

Größe und Gewicht von amerikanischen Frauen (1975)

sunspot.year

Jährliche Anzahl der Sonnenflecken von 1700-1988

co2

Kohlendioxidausstoß des Mauna Loa (Hawaii)

Tabelle 20: Quellen in R: Um Details zu diesen Quellen erfahren, tippen Sie in der Commandshell von R: require(lattice), quittieren Sie mit [Return] und schließlich help(anscombe). Für die anderen Quellen müssen Sie nur noch help(Quellenname) tippen.

115

Literatur Albers, Josef (1969): Search Versus Re-Search. In Tufte, E.R. (Hrsg.): Envisioning Information (10th printing) (2005). Ceshire, CT: Graphics Press LLC, 61 Amelingmeyer, Jenny (2004): Wissensmanagement. Analyse und Gestaltung der Wissensbasis von Unternehmen. Wiesbaden: Dt. Univ.-Verl. (GablerEdition Wissenschaft;Strategisches Kompetenz-Management) Anscombe, Francis J. (1973): Graphs in Statistical Analysis. In: The American Statistician, 27, 17–21, Entnommen aus: Tufte, R.(1974): Data Analysis for Politics and Policy, Englewood Cliffs, NJ, Prentice-Hall, Inc., S. 131–134 Baker, M. Pauline/Bushell, Colleen (1995): After the Storm: Considerations for Information Visualization. online abgerufen 14.04.2007 hURL: http://vis.iu.edu/Publications/Storm.pdfi Bancroft, T.A. (Hrsg.) (1972): Statistical Papers in Honor of George W. Snedecor. Ames, IO: The Iowa State University Press – online abgerufen 11.03.2007 hURL: http://www.edwardtufte.com/tufte/tukeyi Beattie, Vivien/Jones, Michael J. (1992): The Use and Abuse of Graphs in Annual Reports: Theoretical Framework and Empirical Study. In: Accounting and Business Research, Vol. 22, No. 88, S. 291–303 Becker, Manfred (2005): Systematische Personalentwicklung: Planung, Steuerung und Kontrolle im Funktionszyklus. Stuttgart: Schäffer-Poeschel Verlag für Wirtschaft.Steuern.Recht Chabris, Christopher F./Kosslyn, Stephen M. (1995): Illustrated Editorial is value-added text: A picture is worth 1000 words—right? Only if it’s the right picture, and if it comes at the right point in text. In: Folio, 1. Februar 1995, S. 28–29 Chabris, Christopher F./Kosslyn, Stephen M. (2005): Representational Correspondence as a Basic Principle of Diagram Design. In Tergan, S.O./ Keller, T. (Hrsg.): Knowledge and Information Visualization. Berlin, Heidelberg: Springer Verlag, S. 36–57 Cleveland, William S. (1993): Visualizing Data. Summit, NJ: Hobart Press Cleveland, William S. (1994): The Elements of Graphing Data (revised edition). Summit, NJ: Hobart Press

116 Cleveland, William S./Fuentes, Montserrat (1997): Trellis Display: Modelling Data fom Designed Experiments. online abgerufen 10.01.2007 hURL: http://cm.bell-labs.com/stat/doc/doe.trellis.col.psi Dollinger, Manuela (2003): Wissen wirksam weitergeben: Die wichtigsten Instrumente für Referenten, Trainer und Moderatoren. Zürich: Orell Füssli Verlag AG Escher, M.C./Ernst, Bruno; Locher, J.L. (Hrsg.) (1994): Leben und Werk M.C.Escher (r) : Mit dem Gesamtverzeichnis des Graphischen Werks. Stuttgart: RVG-Interbook Verlagsgesellschaft mbH Friendly, Michael (1992): Visualizing Categorical Data: Data, Stories, and Pictures. online abgerufen am 25.03.2007 hURL: http://www.math.yorku. ca/SCS/vcd/vcdstory.pdfi Friendly, Michael (1999): Re-Visions of Minard. online abgerufen am 24.03.2007 hURL: http://www.math.yorku.ca/SCS/Gallery/milestone/ minard.pdfi Friendly, Michael (2007): Milestones in the history of thematic cartography, statistical graphics, and data visualization. online abgerufen am 24.03.2007 hURL: http://www.math.yorku.ca/SCS/Gallery/milestone/ milestone.pdfi Grosche, G./Ziegler, V./Ziegler, D. (Hrsg.) (1991): Taschenbuch der Mathematik (25., durchgesehene Auflage). Leipzig: B.G. Teubner Verlagsgesellschaft und Verlag Nauka Harris, Robert L. (1999): Information Graphics: a comprehensive illustrated reference. New York, NY: Oxford University Press, Inc. Hollands, J.G./Spence, Ian (2001): The Discrimination of Graphical Elements. In: Applied Cognitive Psychology, 15, S. 413–431 Ihaka, Ross (2001): R Graphics: The Good, The Bad, and The Ugly. In Hornik, K./F., Leisch (Hrsg.): DSC 2001 Proceedings of the 2nd International Workshop on Distributed Statistical Computing. Wien hURL: http://www.ci.tuwien.ac.at/Conferences/ DSC-2001/proceedings/ihaka.pdfi, 1–9 Issing, Ludwig J./Klimsa, Paul (Hrsg.) (2002): Information und Lernen mit Multimedia und Internet (3.Auflage). Weinheim: Verlagsgruppe Beltz, Psychologische Verlags Union Kelly, Dave/Jasperse, Jaap/Westbrooke, Ian; Hallas, Sue (Hrsg.) (2005): Designing science graphs for data analysis and pre-

117 sentation: The bad, the good and the better (Department of Conservation Technical Series 32). Wellington, NZ: DOC Science & Technical Publishing - online abgerufen 10.03.2007 hURL: http://www.doc.govt.nz/i Kosslyn, Stephen M. (1989): Understanding Charts and Graphs. In: Applied Cognitive Psychology, 3, S. 185–226 Kosslyn, Stephen M. (2006): Graph Design for the Exe and Mind. New York, NY: Oxford University Press Krämer, Walter (2007): So lügt man mit Statistik (9. Auflage). München: Piper Verlag GmbH Lengler, Ralph/Eppler, Martin J. (2007): Towards A Periodic Table of Visualization Methods for Management. online abgerufen am 18.02.2007 hURL: http://www.visual-literacy.org/periodic_table/ periodic_table.pdfi Löffler, Andreas (2007): Sparklines. 2007, (Dokumentation zum LATEX-Paket Sparklines) Maeda, John (2006): The Laws of Simplicity: Design, Technology, Business, Life. Cambridge, MA: The MIT Press Maindonald, J H (2004): Using R for Data Analysis and Graphics: Introduction, Code and Commentary. online abgerufen am 25.03.2007 hURL: http://cran.r-project.org/doc/contrib/usingR.pdfi Mandel, Heinz/Spada, Hans (Hrsg.) (1988): Wissenspsychologie. München; Weinheim: Psychologie-Verl.-Union Mayer, Horst O. (2000): Einführung in die Wahrnehmungs-, Lern- und WerbePsychologie. München; Wien: Oldenbourg (Edition Psychologie) Miller, George A. (1956): The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information. In: The Psychological Review, 63, 81–97 hURL: http://www.musanim.com/miller1956/i, online abgerufen am 10.04.2007 Minard, Charles Joseph (1869): Tableaux Graphiques et Cartes Figuratives de M. Minard, 1845-1869. In Tufte, E.R. (Hrsg.): Beautiful Evidence (2006). Ceshire, CT: Graphics Press LLC, 122–139 Nonaka, Ikujiro/Takeuchi, Hirotaka (1997): Die Organisation des Wissens: Wie japanische Unternehmen eine brachliegende Ressource nutzbar machen. Aus dem Engl. von Friedrich Mader. Frankfurt/Main; New York: Campusverlag

118 Norman, Donald A (1990): The design of everyday things. New York, NY: Bantam Doubelday Dell Publishing Group, Inc. Office IT and Servers User Assistance (2006): Technical Reference for Microsoft Office Ressource Kit 2007. Redmond, WA: Microsoft Corporation, 2006 hURL: http://go.microsoft.com/fwlink/?LinkId=79595&clcid= 0x409i Polyani, Michael (1985): Implizites Wissen (6.Auflage). Frankfurt/Main: Suhrkamp Taschenbuch Verlag Ponocny-Seliger, Elisabeth/Ponocny, Ivo (2005): Statistik for you: Eine anwendungsbezogene Einführung in die quantitativen Auswertungsmethoden unter besonderer Berücksichtigung von SPSS 10.0. Wien: Facultas Verlagsund Buchhandels AG Probst, Gilbert/Raub, Stefan/Romhardt, Kai (2003): Wissen managen: Wie Unternehmen ihre wertvollste Ressource optimal nutzen (4. überarbeitete Auflage). Wiesbaden: Betriebswirtschaftlicher Verlag Dr.Th.Gabler/GWV Fachverlage GmbH R Development Core Team (2006): R Language Definition. Vienna, Austria: R Foundation for Statistical Computing, 2006 hURL: http://www. R-project.orgi, ISBN 3-900051-07-0 Robbins, Naomi B. (2005): Creating More Effective Graphs. Hoboken, NJ: Wiley-Interscience: John Wiley & Sons, Inc. Rogowitz, Bernice E./Treinish, Lloyd E. (1995): How NOT to Lie with Visualization. online abgerufen am 27.03.2007 hURL: http://www.research. ibm.com/dx/proceedings/pravda/truevis.htmi Rosenblith, W.A. (Hrsg.) (1961): Sensory Communication. Cambridge, MA: MIT Press Rotman, Brian (1993): Signifying Nothing: The Semiotics Of Zero. Stanford, CA: Stanford University Press Schnotz, Wolfgang (2002): Wissenserwerb mit Texten, Bildern und Diagrammen. In Issing, Ludwig J./Klimsa, Paul (Hrsg.): Information und Lernen mit Multimedia und Internet (3.Auflage). Weinheim: Verlagsgruppe Beltz, Psychologische Verlags Union, S. 65–81 Spence, Ian (2004): The Apparent and Effective Dimensionality of Representations of Objects. In: Human Factors, 64/4, S. 738–747 Stevens, S. S. (1961): The Psychophysics of Sensory Function. In Rosenblith, W.A. (Hrsg.): Sensory Communication. Cambridge, MA: MIT

119 Press hURL: http://www.cs.uba.ca/~tnn/courses/533/readings/ss. pdfi, 1–33, (online abgerufen am 22.03.2007) Tergan, S.O./Keller, T. (Hrsg.) (2005): Knowledge and Information Visualization. Berlin, Heidelberg: Springer Verlag Tufte, Edward R.; Dahl, Robert A. (Hrsg.) (1974): Data Analysis for Politics and Policy. Englewood Cliffs, NJ: Prentice-Hall, Inc., Foundations of modern political science hURL: http://www.edwardtufte.com/tufte/ dapp/i, online abgerufen 08.04.2007 Tufte, Edward R. (2001): The Visual Display of Quantitative Information (second edition). Cheshire, CT: Graphics Press LLC Tufte, Edward R. (2005a): Envisioning Information (10th printing). Cheshire, CT: Graphics Press LLC Tufte, Edward R. (2005b): Visual Explanations: Images and Quantities, Evidence and Narratives (seventh printing, with revisions). Cheshire, CT: Graphics Press LLC Tufte, Edward R. (2006): Beautiful Evidence. Cheshire, CT: Graphics Press LLC Tukey, John W. (1967): What have statisticians been forgetting? In Jones, Lyle V. (Hrsg.): The Collected Works of John W. Tukey. Volume IV Philosophy and Principles of Data Analysis: 1965–1986. Monterey, CA: Wadsworth&Brooks/Cole, S. 587–599 Tukey, John W. (1972): Some Graphic and Semigraphic Displays. In Bancroft, T.A. (Hrsg.): Statistical Papers in Honor of George W. Snedecor. Ames, IO: The Iowa State University Press – online abgerufen 11.03.2007 hURL: http://www.edwardtufte.com/tufte/tukeyi, S. 293–316 Tukey, John W. (1973): Exploratory Data Analysis as Part of a Larger Whole. In Jones, Lyle V. (Hrsg.): The Collected Works of John W. Tukey. Volume IV Philosophy and Principles of Data Analysis: 1965–1986. Monterey, CA: Wadsworth&Brooks/Cole, S. 793–804 Tukey, John W. (1980): We Need Both Exploratory And Confirmatory. In Jones, Lyle V. (Hrsg.): The Collected Works of John W. Tukey. Volume IV Philosophy and Principles of Data Analysis: 1965–1986. Monterey, CA: Wadsworth&Brooks/Cole, S. 811–817 Tukey, John W.; Jones, Lyle V. (Hrsg.) (1986): The Collected Works of John W. Tukey. Volume IV Philosophy and Principles of Data Analysis: 1965–1986. Monterey, CA: Wadsworth&Brooks/Cole

120 Verzani, John (2002): simpleR — Using R for Introductory Statistics. online abgerufen 16.03.2007 hURL: http://www.math.csi.cuny.edu/ Statistics/R/simpleR/Verzani-SimpleR.pdfi Wainer, Howard (2005): Graphical Discovery: a trout in the milk and other visual adventures. Princeton, NJ: Princeton University Press Ware, Colin (2004): Information Visualization: Perception for Design. (Second Edition). San Francisco, CA: Morgan Kaufmann Publishers (An Imprint of Elsevier) Wijk, Jarke J. van (2005): The Value of Visualization. online abgerufen 29.03.2007 hURL: http://www.win.tue.nl/~vanwijk/vov.pdfi Wilkening, Friedrich (1988): Zur Rolle des Wissens in der Wahrnehmung. In Mandel, Heinz/Spada, Hans (Hrsg.): Wissenspsychologie. München; Weinheim: Psychologie-Verl.-Union, S. 203–224 Wilkinson, Leland (1994): Less is More: Two- and Three-Dimensional Graphics for Data Display. In: Behavior Research Methods, Instruments & Computers, Vol. 26, S. 172–176 Wilkinson, Leland; Chambers, J./Hand, D./Härdle, W. (Hrsg.) (2005): The Grammar Of Graphics (Second Edition). New York, NY: Springer Science+Business Media, Inc. Willke, Helmut (2001): Systemisches Wissensmanagement (2., neubearbeitete Auflage). Stuttgart: Lucius und Lucius Wiss. Rat der Dudenredaktion (Hrsg.) (1990): Duden Fremdwörterbuch (5., neu bearb. u. erw. Auflage). Mannheim; Leipzig; Wien; Zürich: Dudenverlag. Zimbardo, Philip G./Gerrig, Richard J. (2004): Psychologie. Eine Einführung (16., aktualisierte Auflage). München: Pearson Studium Zimmermann, Helmut/Weigert, Alfred (Hrsg.) (1995): ABC-Lexikon Astronomie (8., überarb. Auflage). Heidelberg; Berlin; Oxford: Spektrum Akademischer Verlag

Related Documents

Im
August 2019 71
Im
June 2020 36
Im
June 2020 40
Im
November 2019 48
Im
November 2019 54

More Documents from ""