Geschicte Der Psychologie

  • October 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Geschicte Der Psychologie as PDF for free.

More details

  • Words: 3,998
  • Pages: 12
1. Geschichte der Psychologie 1.1. Allgemeines Entstehung der Psychologie: • Philosophie o Rationalismus (Kognitionswissenschaften) o Empirismus (Behaviorismus) •

Physiologie o Leib-Seele Problem

Empirismus ist eine Klasse von erkenntnistheoretischen Lehren, die methodisch in Beobachtung, Messung und Experiment gegründete Erfahrung mit Erkenntnis überhaupt gleichsetzen. Vernachlässigen dabei aber die rationale Stufe, ohne die Erkenntnis unmöglich ist. Der Empirismus ist die Voraussetzung für den Assoziationismus und daher auch für den Behaviorismus. Zentral für den Empirismus ist die große Bedeutung der Sinneseindrücke, diese sind prinzipiell atomar, komplexe Vorstellungen werden aus mehreren Eindrücken zusammengesetzt. Rationalismus ist eine erkenntnistheoretische Richtung, welche die rationale Stufe der Erkenntnis verabsolutiert und davon ausgeht das nur das Denken (die Vernunft) die Wahrheit finden kann (Descartes: „Ich denke, also bin ich“). Der Rationalismus steht somit im Gegensatz zum Empirismus. Er ist eine der Grundlagen für der Kognitiven Psychologie und der Kognitionswissenschaft (menschliche und maschinelle Erkenntnis). Der Rationalismus beruht auf einer Trennung von Körper und Geist (wichtig & nötig für ein KI-System). Wilhelm Wundt (Begründer der Psychologie als eigenständige Disziplin) Die Psychologie wurde Ende des 19.Jhdts. begründet, es konnte gezeigt werden, dass die Psychologie nach Gegenstand und Methode einzigartig ist. Psychologie war also die Wissenschaft von den durch Introspektion erfassbaren Bewusstseinszuständen. Methodisch orientierte sich die P. an den Naturwissenschaften (Physik, Beobachtung & Experiment). Das Ziel der P. war die Ermittlung psychischer Gesetze. Experimenteller Ansatz erwies sich aber als problematisch, da sich Menschen als Untersuchungsgegenstand eher weniger eigneten (Theorien über die UntersucherInnen). Für Wundt war eine wesentliche Methode die Introspektion, in der Versuchspersonen quasi in sich hineinblicken und ihre Eindrücke und Erfahrungen mitteilen.

1.2. Behaviorismus Der Behaviorismus entstand am Beginn des 20.Jhdts. und geht davon aus, dass das Verhalten mit Naturwissenschaftlichen Methoden untersucht werden kann. Verkürzte Darstellung: Menschen lernen durch Belohnung und Bestrafung. Das wesentlichste Merkmal des Behaviorismus ist, dass Inhalte des Bewusstseins nicht berücksichtigt werden, das Gehirn ist eine Black-Box in die man nicht hineinsehen kann. Behavioristen wollen daher nur Dinge untersuchen die man mit den eigenen Augen sehen kann. Gedanken kann man nicht beobachten, eine Beschäftigung damit ist daher unwissenschaftlich. Sie wollen Gesetze aufstellen wie Reize und Reaktionen zusammenhängen (z.B. wird ein Verhalten oft bekräftigt, wird es gelernt).

1

Skinner vs. Chomsky Behavioristen versuchten auch komplexes Verhalten wie Sprache durch Konditionierung (Erlernen von Reiz-Reaktions-Mustern (Stimulus-Response)) zu erklären. Linguisten kritisieren diesen Ansatz. Chomsky argumentiert, dass Sprache eine innere Struktur hat, die von Kindern begriffen werden muss, wodurch sie in der Lage sind eine unendlich vielfältige Anzahl von korrekten Sätzen zu formulieren. Man kann nicht jede mögliche Satzkonstruktion durch Assoziationslernen erwerben. Beim programmierten Unterricht (Grundlage ist der Behaviorismus) wird der Stoff in atomare Einheiten zerlegt. Gelernte Einheiten werden belohnt, falsche Aussagen werden bestraft. Einheiten müssen so oft durchlaufen werden bis sie korrekt wiedergegeben werden können. Programmierter Unterricht konnte sich nicht durchsetzen, da er außerordentlich langweilig ist (im Behaviorismus spielt Motivation keine Rolle). Um 1945 entstand Kritik am Behaviorismus. Im Behaviorismus spielen Versuche eine große Rolle: Ratten werden durch Labyrinth geschickt um Futter zu finden. Richtiges Verhalten ist dann gegeben, wenn die Ratte keine falsche Abzweigung nimmt. Tolman konnte zeigen, dass Ratten den Weg auch schwimmend finden, was der Behaviorismus nicht erklären konnte. Tolman argumentierte, dass Ratten ein inneres Modell (unbedeutend für den Behaviorismus, weil nicht beobachtbar) besitzen, das ihnen hilft den Weg zu finden. Generell kann gesagt werden, dass der Behaviorismus durch den Verzicht der Betrachtung der Inhalte des Bewusstseins viele Vorgänge nicht erklären kann und ist daher als Lerntheorie eher ungeeignet.

1.3. Alternative Ansätze 1.3.1. Schematheorie Schematheorie geht davon aus, dass neue Erfahrungen nur auf der Grundlage von bereits gemachten Erfahrungen interpretiert werden. Bsp.: Indianische Geschichten die von Engländern nacherzählt wurden, wurden systematisch an die eigenen Erfahrungen angepasst. Dadurch erklärbar, dass Interpretation ein aktiver Prozess ist (irrelevant für den Behaviorismus). 1.3.2. Gestaltpsychologie Die Gestaltpsychologie betrachtet Wahrnehmung als ganzheitlichen Vorgang (entgegen dem Behaviorismus, der einen atomaristischen Ansatz hat), das Ganze ist dabei mehr als die Summer der einzelnen Teile (z.B. bei Melodien erkennbar). Die Gestalt eines Objekts beeinflusst wie die einzelnen Teile gesehen werden. Es konnten eine Anzahl von Gestaltgesetzen identifiziert werden (s.u.). Die Gestaltpsychologie spielt heute beim Design von Interfaces eine große Rolle. Die Organisation von Bildschirminhalten in der Form von Fenstern konnte sich schnell durchsetzen, da verschieden Gestaltgesetze die Wahrnehmung von Fenstern unterstützen.

2

Diese vier Muster verdeutlichen die Gestaltgesetze der Nähe (a), der Ähnlichkeit (b), des glatten Verlaufs (c) und der Geschlossenheit bzw. guten Gestalt (d). • •

Gesetz der Geschlossenheit: Die menschliche Kognition neigt dazu, bei der Anordnung von Elementen nach geschlossenen Formen zu suchen. Gesetz der Prägnanz (der guten Gestalt): Die menschliche Kognition versucht immer, Elemente möglichst einfach und konstant zu organisieren. Simple und in sich geschlossene Strukturen dominieren über den Gesamteindruck und heben sich gut vom Hintergrund ab (Gegensatz zum Assoziationsgesetz).

1.3.3. Die Entwicklungspsychologie Piagets Jean Piaget ist einer der bedeutendsten Entwicklungspsychologen und war ursprünglich Biologe. Er ging davon aus, dass Kinder einen Entwicklungs- und Reifungsprozess durchlaufen, der ähnlich dem einer Pflanze ist und wo sich in ähnlicher Weise Stadien feststellen lassen. Er meint, dass Kinder anders lernen als Erwachsenen, da sie auf bestimmten Entwicklungsstufen nur bestimmte Dinge begreifen und erlernen können. Grundlegende Unterschiede zwischen dem Lernen von Kindern und Erwachsenen: Kognitive Entwicklung ist Transformation der undifferenzierten, unspezialisierten kognitiven Fähigkeiten der Kinder zu der spezifischen Fähigkeit des Erwachsenen Probleme zu lösen. Der Konstruktivismus (Piaget war Konstruktivist) ist eine erkenntnistheoretische Strömung, die davon ausgeht, dass die Welt nicht so ist, wie wir sie wahrnehmen. Unsere Wahrnehmung strukturiert die Welt in bestimmter Weise. Bsp.: Frosch hat Rezeptoren im Auge, die auf dunkle Flecken reagieren Æ Welt des Frosches voller Fliegen. Eine gewisse Verzerrung der Wahrnehmung kann also für das Überleben vorteilhaft sein. Im Auge des Menschen werden Hell-Dunkel-Kontraste verstärkt, Objekte können so leichter wahrgenommen werden. Wahrnehmung ist für die Konstruktivisten ein aktiver Prozess. Auch Kinder warten nicht passiv auf Erkenntnis, sondern konstruieren aktiv ihre eigenen Wissensstrukturen. Piaget geht von 4 Entwicklungsstufen aus: • Sensumotorische Stufe (0-2 Jahre): Kinder lernen Objekte und Ereignisse zu identifizieren. Sie lernen Objektkonstanz (Teddy hinter dem Rücken Æ neues Objekt). 3



• •

Präoperationale Stufe (2-7Jahre): Kinder können Objekte und Ereignisse symbolisch repräsentieren (Sprachlernen). Kinder können Dinge nur aus eigener Sicht sehen (Egozentrismus). Kinder konzentrieren sich nur auf eine Dimension eines Problems (Würfel, Anzahl & Abstand). Konkret-operationale Stufe (7-11 Jahre): Eindimensionales Denken und Egozentrismus wird überwunden. Kinder internalisieren geistige Leistungen und erweitern logisch-mathematische Fähigkeiten (Transitives Schließen). Formal-operationale Stufe (ab 11 Jahre): Kinder können komplexe abstrakte Operationen ausführen und systematisch Hypothesen bilden, die sie in organisierter Form untersuchen.

Die 3 Aspekte des Entwicklungsprozesses sind: • Assimilation: findet statt, wenn Kinder neue Objekte und Ereignisse mit Hilfe von existierenden Erkenntnisschemata zu erkennen versuchen. • Akkomodation: wenn ein existierendes Erkenntnisschema geänderte werden muss, um eine neue Erfahrung zu verarbeiten. • Äquilibrium: Kinder streben nach einem „Gleichgewichtszustand“ in ihren Erkenntnisprozessen. Besonders zwischen zwei Stufen ist dieser gestört. Kritik an Piagets Modell war unter anderem: • Stufe der Formalen Operation konnte nicht in allen Kulturen erreicht werden. • Kinder verhalten sich nicht konsistent innerhalb der Stufen und können Dinge frührer/später als Piaget das angenommen hatte. • Charakteristika einzelner Stufen waren nicht immer beobachtbar, bzw. sind in neuen Stufen nicht verschwunden (Kinder später noch egozentrisch, oder gar nicht).

2. Kognitive Psychologie / Human Computer Interaction 2.1. Kognitive Psychologie / Kognitionswissenschaften Kognitive Psychologie beschäftigt sich mit den Aspekten der menschlichen Erkenntnistätigkeit (z.B.: Wahrnehmung, Denken, Problemlösen, Gedächtnis,…). Sie ist unter anderem aus Kritik am Behaviorismus entstanden, da die untersuchten Aspekte in der Regel nicht beobachtbar und daher für den Behaviorismus irrelevant waren (kognitive Aspekte sind also kein Gegenstand des Behaviorismus). Die Psychologische Arbeitsgestaltung untersucht wie Bedienelemente von komplexen Maschinen angeordnet/beschaffen sein müssen, damit Menschen effizient damit arbeiten können (WWII Kampfflugzeuge, Piloten mussten schnell reagieren, Technik in Kernkraftwerken). Der Behaviorismus kann auf diese Problemstellungen keine Antworten geben, da es stark um Erkenntnistätigkeiten des Menschen geht. Ein neuer Ansatz war also nötig. Die Informationstheorie von Shannon und Weaver hat ihren größten Verdienst im Zusammenhang mit der Kognitionswissenschaft in der Einführung des Begriffs Information, welche ebenfalls für den Behaviorismus irrelevant ist (da nicht beobachtbar).

4

Die Linguistik (Chomsky) geht davon aus, dass Kinder ein umfangreiches Wissen über die Struktur der menschlichen Sprache besitzen, das durch Verallgemeinerung und die Generierung von Regeln erworben wurde. Die Künstliche Intelligenz (KI) befasst sich damit, wie menschliche intelligente Leistungen imitiert werden können. In diesem Bereich gibt es große Erfolge, aber auch eindeutige Grenzen (Schachprogramme leicht, für den Menschen trivialere Problemstellungen aber wesentlich schwieriger). Die Neurowissenschaften haben seit WW2 großen Aufschwung erfahren. Die Funktionen einzelner Gehirnaktivitäten, die menschliche Handlungen begleiten, wurden ausführlich beschrieben. Es gibt aber immer noch Unklarheiten über viele Bereiche der kognitiven Psychologie (z.B. wie Lernen im Gehirn funktioniert). Die Computermetapher ist die Grundlage der Kognitionswissenschaft, damit ist gemeint, dass ein Computer und ein menschliches Gehirn zumindest auf sehr ähnliche Art und Weise funktionieren. Es gibt aber Unterschiede zwischen einzelnen Gruppen: traditionelle Vertreter der KI versuchen kognitive Fähigkeiten explizit zu programmieren (Expertensysteme), Vertreter der Neuronalen Netze versuchen die physiologischen elektrischen Aktivitäten nachzubilden, was jedoch problematisch ist, da wir noch zu wenig über die Gehirnaktivitäten wissen. Die Grundannahmen der Kognitionswissenschaft sind: • Ebene der mentalen Repräsentation (gilt nur für die traditionelle KI) • Computer als Modell • Ausschluss affektiver, emotionaler, historischer oder kultureller Faktoren • Interdisziplinarität • Verwurzelung in der abendländischen Philosophie Disziplinen der Kognitionswissenschaft:

Das Kurzzeitgedächtnis spielt eine wichtige Rolle bei der Gestaltung von Softwaresystemen. Wir merken uns Informationen wenn wir von einer Seite im WWW zu einer anderen gehen. Die Kapazität ist sehr beschränkt, kann aber durch sinnvolle Organisation erweitert werden.

5

Datengesteuerte vs. Konzeptuell gesteuerte Informationsverarbeitung Datengesteuerte Verarbeitung beruht auf den Eindrücken der Sinnesorgane und ist bottom-up. Konzeptuell gesteuerte Informationsverarbeitung beruht auf dem Kontext, in dem die Information verarbeitet wird, und dem Vorwissen der Menschen. Sie funktioniert top-down. Das Dämonenmodell von Norman und Lindsay versucht dieses Zusammenspiel anschaulich zu machen. Unser Wissen über grammatikalische Strukturen führt dazu, dass beim Verarbeiten von Sätzen an bestimmten Stellen nur bestimmte Wortkategorien erwarten. Konzeptuell gesteuerte Informationsverarbeitung kann auf diese Weise unsere Informationsverarbeitung wesentlich beschleunigen (da nur mehr eine Untermenge der Möglichkeiten betrachtet werden muss). Es lässt sich auch zeigen, dass wir Worte nicht ganz lesen, sondern sukzessive Alternativen ausschließen bis nur noch eine Möglichkeit übrig ist. Dies kann u.U. auch zu fehlerhafter Wahrnehmung führen (Problem beim Korrekturlesen), Vorteile überwiegen allerdings die Nachteile.

Die Wahrnehmung von Bildern ist für die Gestaltung von Lernsystemen wesentlich. Die Verwendung von Bildern war lange Zeit umstritten, viele dachten, dass Bilder verdummen und nur sprachliche Information die intellektuelle Entwicklung fördern könnte. Auch in den verschiedenen Religionen gibt es unterschiedliche Einstellungen zu dieser Problematik. In den letzten 30 Jahren gab es ausführliche Untersuchungen dazu. Es hat sich gezeigt, dass Bilder häufig sinnvoll sind, aber natürlich von Gestaltung und Kontext abhängig sind. Die Dual Coding Theorie von Shepard besagt, dass Bilder besonders günstig sind, da hier Informationen sowohl verbal als auch bildlich gespeichert werden. Dies erklärt auch warum man sich an konkrete Objekte leichter erinnert als an abstrakte. Shepard argumentierte mit der mentalen Rotation, dass Objekte tatsächlich als Bilder gespeichert werden. Für Modelle der Wissensrepräsentation gibt es keine allgemein anerkannte Theorie. Es gibt mehrere konkurrierende Theorien, die alle bestimmte Schwächen haben. Die Theorie der semantischen Netze geht davon aus, dass Wissen im Gehirn vernetzt (und nicht hierarchisch) gespeichert ist. Kinder lernen z.B. zunächst Hunde und Katzen als eigene Kategorie, später, dass beide Tiere sind. Semantische Netze und Hypertext haben eine große Ähnlichkeit. Das Prototypenmodell geht davon aus, dass Objekte in bestimmten Kategorien im Gehirn gespeichert werden. Nicht alle Objekte sind aber für eine Kategorie gleich typisch. William 6

Labov benutzte verschiedene Tassenähnliche Figuren um die Grenzen der Kategorie „Tasse“ zu erforschen. Ist eine Tasse sehr flach wird sie zunehmend als Schale bezeichnet, ist sie sehr hoch wird sie als Vase erkannt. Aber auch der Kontext (was in der Tasse ist, Kartoffelpüree, Tee, Blume) ist bei der Kategorisierung von Bedeutung. Derartige Phänomene sollten v.A. bei der Gestaltung von Datenbanken berücksichtigt werden, da diese davon ausgehen, dass jeder Vertreter einer Kategorie gleich typisch ist. Die Schematheorie geht auf Sir Frederic Charles Bartlett zurück und geht davon aus, dass wir immer über ein bestimmtes statisches Hintergrundwissen verfügen, welches in Form von Schemata organisiert ist. Es erleichtert uns neue Informationen zu interpretieren. Bsp.: Restaurant-Skript, auf seiner Grundlage interpretieren wir Geschichten über Restaurantbesuche (deren Hintergrundwissen nicht extra erzählt wird). Ein Problem dieser Methode ist, dass sie eher statisch ist, es ist aber sehr wahrscheinlich, dass unser Wissen einem ständigen Wandel unterworfen ist (andere Arten von Restaurants). Die Theorie der mentalen Modelle hat einen dynamischen Charakter. Sie geht davon aus, dass Menschen ununterbrochen Hypothesen über ihre Umwelt formulieren und diese dann auf ihre Korrektheit testen. Donald Norman hat diese Theorie auf den Umgang mit Computern umgelegt und konnte zeigen, dass BenutzerInnen oft Modelle von Computern haben, die stark von denen der DesignerInnen abweichen. Sie sollten sich deshalb ausführlich mit den mentalen Modellen der BenutzerInnen beschäftigen. Charakteristika mentaler Modelle sind: • Mentale Modelle sind flexibler als Schemata, wenn eine Hypothese nicht bestätigt werden kann, wird das Modell entsprechend geändert. • Sie bieten die Möglichkeit von Schlussfolgerungen in komplexen Situationen und von Voraussagen über zukünftige Situationen. • Es besteht ein Zusammenhang zwischen mentalen Modellen und Bildern. Wissen ist in diesem Modell einem ständigen Wandel unterworfen. Wissenschaftler konnten zeigen, dass viele unsere mentalen Modelle falsch sind, was allerdings egal ist (Bsp.: Modell vom Strom, Bedienen eines elektr. Gerätes).Die Theorie mentaler Modelle ist zurzeit das am weitesten verbreitete Modell der Wissensrepräsentation.

2.2. Human-Computer Interaction HCI befasst sich mit der sicheren, befriedigenden und effizienten Interaktion von Menschen und Computern. Diese Art der Interaktion wurde erst mit dem Aufkommen von PCs zum Problem, als Computer nicht mehr nur von ExpertInnen bedient wurden. Weniger versierte Personen wollten möglichst rasch und effizient ihre eigentliche Aufgabe lösen, Betriebssysteme wie MS-DOS (viele Befehle auswendiglernen) waren daher nicht geeignet. John Carroll’s Task-Artefact Cycle weist darauf hin, dass Softwareentwicklung ein stufenweiser, inkrementeller Prozess ist. Die ersten Textverarbeitungsprogramme ermöglichten primär das leichte Ausbessern und einfache Formatierung. Sie überwanden somit die größte Einschränkung (constraint) der Schreibmaschine (Seite bei Tippfehler neu schreiben). Früher war die Aufgabe der Sekretärinnen das korrekte Schreiben, mit den neuen Textverarbeitungsprogrammen (neue artefacts) entstanden aber auch neue Requirements. Heute können sie optisch ansprechende Berichte erstellen und mit Datenbanken und 7

Spreadsheetprogrammen umgehen. Die Modifikation der Aufgabenstellung erzeugt aber wiederum neue Requirements. Es handelt sich also um einen kontinuierlichen Prozess (Software kann nicht ein für alle mal entworfen werden, sondern muss ständig angepasst werden).

Der (gesellschaftliche) Kontext der Anwendung und die Bedienungen unter der die Software benutzt wird ist ein wesentlich Gesichtspunkt ohne den HCI keinen Sinn macht. Die Einführung neuer Software verändert innerbetriebliche Strukturen i.d.R. relativ stark Daher sollten vor Einführung Gespräche mit den Betroffen geführt werden und die Einstellung der Mitarbeiter erhoben werden, da nur so gewährleistet ist, dass die Software sinnvoll genutzt wird. Schlechte Software wird von Mitarbeitern unterlaufen. Schwer erlernbare Software kostet viel Zeit bei der Einarbeitung. Nicht getestete Software kann ebenfalls zu großen Problemen führen. Benutzer haben oft ein völlig anderes mentales Modell der Software als Entwickler, dies muss ebenfalls berücksichtigt werden. Usability-Forschung bezeichnet einen Teilbereich der HCI, der sich spezifisch mit der Gestaltung der Oberfläche von Softwaresystemen befasst. Software-Ergonomie befasst sich historisch mit der optimalen Gestaltung von Maschinen, in der Software-Ergonomie spielen daher medizinische und physische Aspekte eine etwas größere Rolle. Donald Norman identifizierte 2 Grundprinzipien der HCI: • Sichtbarkeit (visibility): Beim Hammer erkennt man jederzeit den Systemzustand, bei einer Software eher nicht, Sichtbarkeit muss daher künstlich hergestellt werden (Progressbar, Drag’n’Drop). • Aufforderungscharakter (affordance): bedeutet, dass die Funktion eines Instruments aus der äußeren Gestalt ableitbar ist (Bsp.: Hammer Æ Form Æ Nagel einschlagen, Sessel Æ Sitzen Æ drauf stehen). Durch die mangelnde Sichtbarkeit in Computersystemen ist dies aber wesentlich schwerer zu erkennen. Abhilfe kann durch Metaphern (z.B.: Desktop Metapher) geschafft werden. Direkte Manipulation ist ein Verfahren zur Gestaltung von Betriebssystemen und basiert auf graphischen Interfaces. Es entstand als Alternative zu den kommando-orientierten Interfaces. Benutzer können direkt mit dem System interagieren ohne irgendwelche Befehle einzugeben. 8

Aktionen können rasch, inkrementell und reversibel durchgeführt werden. Eine Sichtbarkeit der Objekte (werden meistens durch Icons repräsentiert) ist gegeben. Es werden Metaphern (analoges Denken) verwendet. Vorteile der direkten Manipulation: • NovizInnen lernen grundlegende Funktionen rasch. • BenutzerInnen bekommen unmittelbares Feedback. • BenuzerInnen reagieren unbeschwerter, da leichtes Undo möglich ist. • Aktionen des Systems werden leichter vorhersehbar.

3. Lerntheorien: Instructional Design ist eine objektivistische Theorie. Das bedeutet, dass die Welt so erkannt werden kann wie sie ist. Konstruktivistische Theorien gehen dagegen davon aus, dass jeder seine eigene Vorstellung von der Realität entwickelt. Moderate konstruktivistische Ansätze weisen darauf hin, dass unsere Realitäten so ähnlich sind, dass wir darüber kommunizieren können. Da objektivistische Ansätze davon ausgehen, dass es nur eine „richtige“ Theorie über die Realität gibt, verleit es den Lehrpersonen große Autorität. Die richtige Theorie wird den Lernenden vermittelt und diese geben sie dann in einer Prüfung wider. Konstruktivistische Ansätze gehen davon aus, dass Lernende über jeden Gegenstand eine eigene Sichtweise entwickeln müssen. Dieser Ansatz ist in den Sozial- und Geisteswissenschaften (Stil einer Deutscharbeit) leichter zu argumentieren als in den Naturwissenschaften (Lösung eines Mathematikbeispiels).

3.1. Ausubel – Bedeutungsvolles Lernen (Kognitivismus) Ausubel vertritt eine kognitivistische Lerntheorie. Im Gegensatz zum Behaviorismus geht er davon aus, dass die geistige (kognitive) Verarbeitung des Gelernten von großer Bedeutung ist. Es ist wichtig, sich darüber Gedanken zu machen wie Information im Gehirn gespeichert wird. Ausubel spricht von bedeutungsvollem Lernen, die Behavioristen führten ihre Experimente hauptsächlich mit sinnlosem Material durch. Er weist darauf hin, dass das Vorwissen eine große Rolle spielt und dass Lernstoff in bestehendes Wissen eingeordnet wird. Ausubel wendet sich also gegen das Lernen von isolierten Fakten und sieht Wissen als vernetzt an. David Ausubel entwickelte in diesem Zusammenhang den Advance Organizer. Dies ist ein Textelement, welches für Lehrtexte und wissenschaftliche Arbeiten verwendet wird. Die Platzierung ist immer am Anfang eines Textes. Der Advance Organizer liefert einen kurzen Überblick über den Inhalt des folgenden Textes, ist aber keine reine Zusammenfassung. Der Leser kann anhand dieser Information schnell erfassen, ob der folgende Text die Inhalte enthält, die er benötigt. Ausubel unterscheidet zwischen unterschiedlichen Arten des Lernens: • bedeutungsvolles Lernen vs. Auswendiglernen • Lernen durch Entdeckung vs. Lernen durch Rezeption Ausubel weist aber darauf hin, dass entdeckendes Lernen sehr langweilig sein kann (Chemielaborant) und es daher nicht der einzige Ansatz im Unterricht sein kann. Bedeutungsvolles Lernen kann auch durch Rezeption (Vorträge, Lehrbücher) geschehen. Als 9

negativ betrachtet er das Auswendiglernen von isolierten, unverstandenen Fakten, welche i.d.R. rasch wieder vergessen werden, da sie keinen Bezug zur Realität haben. Computer unterstützen entdeckendes Lernen sehr gut, die meisten e-learning Programme kommen aber ohne es aus, da es sehr schwierig zu implementieren ist. Wenn es überlegt eingesetzt wird kann es aber den Lernprozess unterstützen.

3.2. Instructional Design (ID) Instructional Design beruht auf einer Kombination von Behaviorismus und Kognitiver Psychologie. ID beschäftigt sich mit dem Zusammenhang zwischen Lernstoff und dessen Präsentation und den Lernergebnissen. Als Ergebnis zählen nur messbare Werte im Sinne einer Prüfung. ID berücksichtigt aber auch mentale Modelle, inhaltliche Struktur sowie Präsentation spielen auch eine Rolle. Prinzipien des Instructional Design: • Analyse von Aufgaben und Bedingungen, unter denen gelernt wird. • Auswahl der Methode (erzielt idealtypischerweise immer dasselbe Ergebnis). • Evaluation (einfach, da ein Text gelernt und wiedergegeben werden muss) Wesentliche Vorannahmen des Instructional Design: 1. Die Ziele des Lernprozesses müssen eindeutig definierbar sein. 2. Die Ergebnisse des Lernprozesses müssen direkt messbar sein. 3. Die Lernenden sind wichtiger als die Lehrenden. 4. Grundlegende Kenntnisse über den Lernprozess sind notwendig. Kritik am Instructional Design: • Atomistisches Vorgehen Lernmaterial wird in einzelne Komponenten zerlegt • Rein kognitives Herangehen Interaktion zw. Lehrenden und Lernenden wird nicht berücksichtigt • Lehrmaterial und Lernziele völlig vorgegeben kein Raum für autonome Lernprozesse der Studierenden

3.3. Konstruktivistische Lerntheorien Konstruktivisten gehen davon aus, dass es unterschiedliche Sichtweisen auf Lerninhalte geben kann. Sie betonen die Eigenaktivität und Verantwort der Lernenden und die Bedeutung des Bezugs zur Alltagsaktivität. Lernen ist ein Prozess bei dem Wissen aktiv gesucht und konstruiert wird. Lernende erzeugen ihre eigene Sicht auf die Realität. •

• •

Core Knowledge Domain: Es gibt einen Kernbestand an Wissen der gelernt werden muss und einen Bereich von Inhalten der von Lernenden entsprechend ihrer Sichtweise gestaltet werden kann (Bsp.: Geschichte Æ bestimmte Fakten und Themen wo keine Einigkeit Æ Studenten müssen eigene, wissenschaftlich fundierte Meinung bilden). Anbindung an die Realität (authentic tasks) spielt eine große Rolle. Studierende sollen authentische Aufgaben lösen (Bsp.: Medizin, nicht Knochennamen lernen sondern mit echten Patienten). Cognitive apprenticeship-Modell, also eine Art Lehrlingsausbildung im Rahmen von praktischen Anwendungen (Bsp.: Medizinstudenten) 10

• • •

Vielzahl von Sichtweisen, abhängig vom Blickwinkel der Lernenden. Wissen existiert nicht, sonder wird ausgehandelt. Problem der Evaluation, nicht leicht zu lösen. Ein Ansatz ist, nicht das Ergebnis, sondern den Prozess zu beurteilen (Bsp.: Diplomarbeit, wissenschaftliche Methoden adäquat verwendet?).

Gewisse Arten von Lernprogrammen eignen sich besonders gut für die Ideen des Konstruktivismus: • Mikrowelten: z.B.: Programmiersprache Logo, Kinder müssen Schildkröte so programmieren, dass geometrische Formen gezeichnet werden. • Hypertext: nicht-linearer, verteilter Text; eignet sich besonders gut für die Darstellung von unterschiedlichen Sichtweisen (können unmittelbar gegenüber gestellt werden, ohne mühsames Blättern). Es gibt verschiedene Medien des Schreibens und Lesens. • Schriftrolle: unhandlich und unstrukturiert, schwere Suche. • Handschriftliches Manuskript: effizienter, leichter zu blättern, bessere Struktur • Bücher: Grundlage der modernen Wissenschaft, Seitennummerierung, Inhaltsverzeichnisse, Indices. Völlig idente Kopien waren möglich. • Hypertext: Löst die Buchstruktur wieder auf, komplexere Gliederungs- und Suchmöglichkeiten. Auswirkung auf Wissenschaft ist noch offen. Es gibt 4 wesentliche Unterschiede zwischen Büchern und Hypertext: • Linearität: Buch kann von der ersten bis zur letzten Seite gelesen werden. • Offenheit: Buch ist ein für alle mal fertig, Hypertext kann upgedated werden. • Interaktivität: Medium reagiert dynamisch auf Ein- und Ausgabe • Einbeziehung von nichttextuellen Darstellungsformen: Bild, Video, Animation

4. Distance Education / E-Learning E-Learning hat sich als Oberbegriff für alle Arten des Lernens mit dem Computer durchgesetzt, obwohl es primär Lernen über das Internet bezeichnet. Distance Education ist der Fernunterricht über das Internet, er beruht darauf, dass Lehrende und Lernende nicht zur selben Zeit am selben Ort sind (bis vor kurzem hauptsächlich per Post verschickte Skripten, bzw. Fernunterricht über TV). Die Popularität von Distance Education hängt mit der politischen Situation und der Deregulierung der Wirtschaft zusammen. Bildung wird zunehmend als möglicher Markt für Privatunternehmen gesehen (insbesondere große Medienunternehmen, wie Time Warner oder Bertelsmann). Das Internet ermöglicht es Ausbildungsprogramme weltweit (Englisch – Problem) anzubieten. Virtuelle Unis, wie etwa die Phoenix University, lassen aber vermuten, dass die Qualität der Bildung unter der Profitorientierung leidet. Es gibt keine wissenschaftliche Begründung dafür, dass e-Learning effizienter als traditionelle Lernformen ist. Grundsätzlich bedeutet e-learning, dass die Lernenden wesentlich autonomer werden. Man muss allerdings außerordentlich motiviert sein um einen Kurs zu beenden, viele Studierende bevorzugen eine stärker strukturierte Umgebung, da es ihnen so leichter fällt diszipliniert zu lernen. Es kommt auch zu einem Bedeutungsverlust der Lehrenden, wichtiger ist das Unterrichtsmaterial und die Erkenntnis, welche die Lernenden für sich selbst 11

gewinnen. Die Lehrenden spielen aber als Betreuungsperson weiterhin eine große Rolle. Die physische Präsenz geht allerdings verloren (man trifft sich nur noch in Chats oder Foren). Arbeitsgruppen gestalten sich schwieriger, da die Verbindlichkeit im Internet wesentlich geringer ist als in der Face-to-Face Kommunikation. 2 widersprüchliche Arten von Reaktionen: 1. StudentInnen wollen keinen Fernunterricht, da sie den persönlichen Kontakt mit Lehrenden und anderen StudentInnen wünschen. Informelle Interaktion ist wesentlicher Bestandteil des Lernprozesses. 2. StudentInnen wünschen Fernunterricht, da es ihnen zusätzliche Erfahrungen ermöglicht, z.B. den Kontakt mit StudentInnen aus anderen Ländern. Sie können sich das Studium flexibler einteilen (open learning). Einige bezweifeln die Bedeutung von Medien in der Lehre. Empirische Forschung zeigt, dass insbesondere das Engagement und der Stil der Lehrenden einen wesentlich größeren Einfluss auf das Unterrichtsgeschehen haben, als das verwendete Medium (vgl. Clark – mere vehicle Analogie und Finn – Steigbügel Analogie). Probleme des E-Learning: • Viele Programme werden nicht von PädagogInnen erstellt. • Kosten sind i.d.R. sehr hoch. • Kulturelle Probleme bei weltweitem Angebot (Sprache, westliche Ansätze) • Wegfall persönlicher Beziehungen • Technische Probleme (langsames, gar kein Internet, unausgereifte Technologie) Grundsätzlich sollte E-Learning bzw. Distance Education nicht abgelehnt werden, es ist aber wichtig auch die Probleme, die damit einhergehen aufzuzeigen. In vielen Fällen kann ELearning dennoch sinnvoll eingesetzt werden.

12

Related Documents

Geschicte Der Psychologie
October 2019 19
Psychologie
October 2019 17
10 Psychologie
November 2019 26
Psychologie 1
November 2019 15
Psychologie Clinique
July 2020 16
Cours De Psychologie
June 2020 13