Wann sind mehr Informationen von Nachteil?

Je mehr umso besser ist nicht immer von Vorteil, obwohl das viele Menschen glauben. Berry Schwartz hat beispielsweise schon 2004 in seinem Buch The Paradox of Choice erwähnt, dass die Vielfalt eines Angebots Kunden überfordern können, sodass diese dann nicht kaufen (Blogbeitrag). Prof. Dr. Gerd Gigerenzer, Direktor emeritus am Max-Planck-Institut für Bildungsforschung und Direktor des Harding-Zentrum für Risikokompetenz am Max-Planck-Institut für Bildungsforschung in Berlin, hat sich in einem Buch darüber so seine Gedanken gemacht.

Doch selbst wenn die Information kostenlos zur Verfügung steht, gibt es Situationen, in denen mehr Information von Nachteil sein kann. Mehr Gedächtnis ist nicht immer besser. Mehr Zeit ist nicht immer besser. Mehr Insiderwissen mag zwar dabei helfen, den Markt von gestern zu »erklären«, aber nicht, den Markt von morgen vorherzusagen. Weniger ist wahrhaft mehr unter den folgenden Bedingungen (Gigerenzer 2007:46-47):
• Nützliches Maß an Unwissenheit: Wie die Rekognitionsheuristik zeigt, kann das Bauchgefühl eine beträchtliche Menge an Wissen und Information übertreffen.
• Unbewusste motorische Fertigkeiten: Bauchgefühle erfahrener Experten beruhen auf unbewussten Fertigkeiten, deren Ausführung durch zu viel Nachdenken beeinträchtigt werden kann.
• Kognitive Einschränkungen: Unser Gehirn scheint über angeborene Mechanismen wie Vergessen und die Tendenz, klein anzufangen, zu verfügen, die uns vor der Gefahr schützen, zu viel Information zu verarbeiten. Ohne kognitive Einschränkungen würden wir uns weit weniger intelligent verhalten.
• Paradox der freien Wahl: Je mehr Optionen man hat, desto größer die Möglichkeit, dass es zu Konflikten kommt, und desto schwieriger, die Optionen zu vergleichen. Von einem bestimmten Punkt an schaden mehr Optionen, Produkte und Wahlmöglichkeiten dem Verkäufer wie dem Käufer.
• Vorzüge der Einfachheit: In einer ungewissen Welt können einfache Faustregeln komplexe Phänomene ebenso gut oder besser vorhersagen als komplexe Regeln.
• Informationskosten. Wie der Fall der Kinderärzte in der Universitätsklinik erkennen lässt, kann eine zu intensive Informationsbeschaffung einem Patienten schaden. Genauso kann zu viel Neugier das Vertrauen am Arbeitsplatz oder in Beziehungen zerstören.

Sollten also mehr Daten, mehr Informationen, mehr Wissen, mehr Können und mehr Kompetenzen unser Ziel sein? Wie Gigerenzer ausführt, sollte das bei bestimmten Bedingungen nicht der Fall sein, in anderen Settings allerdings sehr wohl. Dieses Sowohl-als-auch – dieses ambidextere – macht es Menschen und Organisationen nicht einfacher. Da wir uns immer mehr in vernetzte Systeme hineinbewegen, werden die von Gigerenzer genannten Bedingungen immer stärker zu beachten sein. Siehe dazu auch Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Wie hängen Interaktion und Kontext zusammen?

Wenn es um Wissen, Kompetenz, Intelligenz, Lernen oder andere Themen geht, werden immer wieder die Begriffe Interaktion und Kontext genannt. Unklar ist allerdings häufig, was darunter zu verstehen ist. Der bekannte britische Soziologe Anthony Gidddens hat die beiden Begriffe schon vor vielen Jahren thematisiert.

The study of context, or of the contextualities of interaction, is inherent in the investigation of social reproduction. ‘context ‘involves the following (Giddens 1984:282):
( a) the time-space boundaries (usually having symbolic or physical markers) around interaction strips;
(b) the co-presence of actors, making possible the visibility of a diversity of facial expressions-, bodily gestures, linguistic and other media of communication;
(c) awareness and use of these phenomena reflexively to influence or control the flow of interaction.

Diese Charakterisierung kann auch heute noch verwendet werden. Dabei fällt auf, dass manche Bedingungen bei einer digitalen Interaktion/Kommunikation nicht gegeben sind. Beispielsweise sind die körperlichen Gesten oft nicht vollständig zu erkennen – auch in Bezug zu den körperlichen Gesten anderer Teilnehmer, die zeitgleich passieren.

Es stellt sich für mich die Frage, ob diese wenigen Elemente schon genügen können, die Interaktion und damit die Kommunikation zu verfälschen. In hoch komplexen Systemen kann eine kleine Änderung sehr große Auswirkungen haben …

Gedanken zu Kreativität und Intelligenz

In den letzten mehr 100 Jahren gab es ein Umfeld, das Berechenbarkeit und Vorhersehbarkeit als wesentliche Bestandteile gesellschaftlicher und wirtschaftlicher Entwicklungen betrachtete. Ein Instrument dieser Zeit ist der Intelligenzquotient (IQ) mit seiner (teilweisen) Vorhersehbarkeit von schulischen und/oder beruflichen Entwicklungen.

Das Umfeld hat sich allerdings inzwischen drastisch geändert: Die vielfältigen Vernetzungen von Dingen und Menschen (IoT, KI) haben das bisher relativ stabile Umfeld in ein turbulentes Umfeld gewandelt, in dem Selbstorganisation und die Entwicklung/Bewertung neuer Ideen (Kreativität) wichtig ist. Es stellt sich somit die Frage, welchen Bezug es zwischen Kreativität und Intelligenz (Intelligenzquotient: IQ) gibt.

Creative traits, by definition then, had to be considered to differ from “intelligence” traits in order to give them some potential for predicting achievement above and beyond IQ. Intelligence, of course, had been operationally defined through the IQ measurement long before work in creativity began. If researchers were to establish creativity as a trait, therefore, they faced the practical necessity of demonstrating substantial independence of creativity from IQ. This, in effect, is what the last twenty-five years of creativity measurement research has attempted to do, with only limited success (Wallach, 1971). There were also pragmatic reasons for justifying the construction of creativity tests. Intelligence tests had proved valuable to society in many ways, including the more efficient deployment of manpower resources during both world wars, but the predictive value of IQ measures had been found to be poor in situations requiring production and evaluation of new ideas (Feldman 1980: 89-90).

Der Autor bestreitet somit die Vorhersehbarkeit von Kreativität mit Hilfe des Intelligenzquotienten (IQ). Möglicherweise haben andere Intelligenzmodelle wie die von Sternberg oder von Gardner (Multiple Intelligenzen) eine bessere Passung zu den heutigen Problemlösungssettings. Diese Perspektive würde allerdings die lange Tradition zur Nutzung von IQ-Tests für Schüler und Mitarbeiter – und der damit verbundenen Geschäftsmodelle – infrage stellen. Das hätte durchaus weitreichende Folgen… Es ist daher Verständlich, dass die Vertreter psychometrischer Intelligenzmodelle empfindlich auf solche Perspektiven reagieren.

Hängt der Wissenstransfer von den kognitiven Voraussetzungen ab?

Das Phänomen des Tragen Wissens habe ich in diesem Blog schon mehrfach thematisiert. Dabei ging es jeweils darum, dass Wissen kontextspezifisch konstruiert wird und somit nicht so einfach in einen anderen Kontext zu übertragen ist. Diese Situiertheit von Wissen wird allerdings von Süss angezweifelt.

Das die Relevanz des Situiertheitsansatzes anbetrifft, da sind Zweifel angebracht und nicht zuletzt deshalb, weil die zentrale These m.E. nicht haltbar ist, dass Wissen stets kontextgebunden und ein Transfer also gar nicht möglich ist. Ob ein Transfer zustande kommt (…) hängt stattdessen in erster Linie von den kognitiven Voraussetzungen ab, von Intelligenz und Wissen (Süss 2008).

Der Author argumentiert in seinem Beitrag, dass Intelligenz und Wissen dafür verantwortlich sind, ob – oder in welchem Maße – Wissenstransfer stattfindet. Die Frage, was unter “Intelligenz” verstanden wird, beschreibt der Autor wie folgt:

Ein Ziel der psychometrischen Intelligenzforschung ist die Klärung der Frage, ob Intelligenz eine einheitliche Fähigkeit zu konzeptualisieren ist (Spearman) oder besser durch mehrere, voneinander unabhängigen Einzelfähigkeiten (Thurstone, Guilford) beschrieben werden sollte. Heute zeichnet sich ab, dass beide Positionen richtig sind. Hierarchische Strukturmodelle postulieren ein bündel unterscheidbarer Einzelfähigkeiten, die allerdings zusammenhängen, und damit gleichzeitig die Annahme eines hochgradig generellen Faktors der Allgemeinen Intelligenz (“g”) begründen (Caroll 1993). Generell mein hier, dass diese Fähigkeit zur Lösung von sehr vielen und sehr unterschiedlichen Problemen gebraucht wird. Die empirische Grundlage für diese Annahme ist, dass Intelligenzleistungen, die bei ganz unterschiedlichen Aufgaben erbracht werden, stets schwach, aber positiv korreliert sind (Süss 2008:250-251).

Howard Gardner ist mit seiner Theorie der Multiplen Intelligenzen eher der Auffassung von Thurstone und Guilford, dass es eher voneinander unabhängige Fähigkeiten/Intelligenzen gibt.

Wie hängen Innovation, Wissen und Kompetenz zusammen?

Wenn wir über Innovationen sprechen sollte klar sein, dass es hier nicht alleine um Ideen (Ideation) oder Erfindungen (Inventionen) geht. Eine Erfindung, die beispielsweise patentiert wurde, ist per se noch keine Innovation. Darüber hinaus sollten Mitarbeiter und Organisationen in der Lage sein, Wissen so neu zu kombinieren, dass es zu Innovationen kommt.

“Grundvoraussetzung für Innovationen im Hightech-Bereich ist die Verfügbarkeit entsprechender Kompetenzen. Die verfügbaren Fähigkeiten stellen dabei die kognitive Basis für die Neukombination und Weiterentwicklung von Wissen in spezifischen Technologiefeldern dar und sind eine Funktion von explizitem (frei verfügbarem) und implizitem (personengebundenem) Wissen. Nur auf der Basis eines Sets entsprechender Wissensbestände besteht eine sinnvolle Option, neue wissensbasierte Lösungen zu erarbeiten.” Botthoff/Kriegesmann 2009:13).

Diese Kompetenz, verstanden als Selbstorganisationsdisposition, ist die Basis für ein modernes Innovationsmanagement (Closed Innovation – Open Innovation). Dabei sind Kompetenzen auf der individuellen Ebene, auf der Teamebene, auf der organisationalen Ebene und in Netzwerken zu entwickeln.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Anmerkungen zu einem Modell der Kaufmännischen Kompetenz

Darstellung entnommen aus Winter/Achtenhagen (2010: 19): Berufsfachliche Kompetenz: Messinstrumente und empirische Befunde zur Mehrdimensionalität beruflicher Handlungskompetenz, in: BWP 1/2010, S. 18-21.

Die Kaufmännische Kompetenz wird in der Darstellung als übergeordnete Kompetenzdimension dargestellt, die sich in eine domänenverbundene Kompetenz und in eine domänenspezifische Kompetenz aufteilt. Beide Dimensionen haben wiederum Teilbereiche, die einen bestimmten Zugriff auf Inhaltsbereiche der Domäne ermöglichen.

Mich erinnern die verschiedenen Teilbereiche stark an die verschiedenen Dimensionen der Theorie der Multiplen Intelligenzen nach Howard Gardner. Die in der Urform 8 Intelligenzen ermöglichen einen multiplen, komplexen Problemlösungsprozess in einer bestimmten Domäne. Dabei stellt sich die Frage, wie Intelligenz (Multiple Intelligenzen) und Kompetenz zusammenhängen.

“Auf der Grundlage der Multiplen Intelligenzen Theorie (vgl. Gardner 2002) kann man Kompetenzentwicklung als eine „Ausprägung von Fähigkeiten [zu] beschreiben, deren Entwicklung durch spezifische Intelligenzprofile gegeben ist“ (Rauner et al 2009:34) und bei jedem Menschen situationsabhängig unterschiedlich aktiviert wird, „denn jede [Domäne] hat ihre eigenen Gegenstände, Verfahren und Verknüpfungsmodi“ (Gardner 2003:130)” zitiert in Freund (2011:104).

Siehe dazu ausführlich Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Ökonomie: Sind die Ökonometrischen Modelle noch zeitgemäß?

In der aktuellen Corona-Pandemie geht es nun langsam aber sicher wieder darum, das gesellschaftliche und wirtschaftliche Leben anzukurbeln. Dazu beziehen sich Politiker oft auf ökonomischer Modelle, um die Richtigkeit ihrer Maßnahmen zu belegen. Es geht um Zahlen, Daten und Fakten – um rationales Handels aufgrund scheinbar objektiver Daten. Georga W. Akerlof (Wirtschaftsnobelpreis 2001) und sein Kollege Robert J. Shiller vertreten hier allerdings eine etwas andere Ansicht. In dem Buch “Animal Spirits” aus dem Jahr 2009 vertreten sie die Auffassung, dass die “nicht-rationalen Elemente unseres Handelns” stärker beachtet werden müssen.

“Ökonometrische Modelle werden im Allgemeinen als Rückkopplungsmodelle beschrieben, die nur auf beobachtbaren Daten beruhen. Alle Nichtobservablen werden in den Bereich der „Messfehler“ verwiesen. Auch wenn wir der Ansicht sind, dass solche Modelle oftmals sehr nützlich sind, vernachlässigen sie doch einige wesentliche Zusammenhänge, die auf nicht quantifizierbaren psychologischen Variablen beruhen.” (ebd. S. 200)

Und weiter führen die Autoren aus: “Die meisten Ökonomen haben für diese psychologischen Feedbackgeschichten nichts übrig. Sie laufen ihrer tief verwurzelten Überzeugung von der Rationalität menschlichen Handelns zuwider. Aber sie lehnen sie auch noch aus einem anderen Grund ab: Es gibt keine Standardmethoden zur Quantifizierung der menschlichen Psychologie. Sie halten die Bemühungen zur quantitativen Erfassung von Rückkopplungsmechanismen und deren Einbindung in makroökonomische Modelle für zu willkürlich und sind deshalb von ihrer Gültigkeit nicht überzeugt” (ebd. S. 200-201).

Ich frage mich bei der ganzen Diskussion um die Subvention verschiedener wirtschaftlicher Bereiche, ob dies “Animal Spirits” mit bedacht werden. Es sieht für mich so aus, als ob die Ökonomie der Industriegesellschaft wieder dominiert. Wissenschaftliche Expertise wird nur akzeptiert, wenn Sie auf Zahlen, Daten und Fakten beruht und reproduzierbar ist. Dieses Mindset beruht auf der Berechenbarkeit von allem. Entspricht das der Wirklichkeit von Menschen in einer Gesellschaft, oder auch in einer Organisation?

Wenn es den Unternehmen gut geht, liegt der Fokus auf den “harten” Daten des Geschäfts – das Unternehmen wird als Maschine zur Geldvermehrung gesehen.. Geht es dem Unternehmen wirtschaftlich nicht gut, kommen andere Metaphern wie “das Unternehmen leidet” oder ” das Unternehmen stirbt” ins Spiel. Diese Metapher erinnern stärker an einen lebenden komplexen Organismus. Es ist aus meiner Sicht bedenklich, weiterhin an der Maschinen-Metapher festzuhalten, da diese dem komplexen Umfeld nicht mehr gerecht wird.

Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Der Intelligenz-Begriff wird in der Kommunikation von Unternehmen mit allen möglichen und unmöglichen Dingen in Bezug gebracht: Intelligente Häuser, intelligente Autos, intelligente XY, bis hin zu einer Künstlichen Intelligenz. Andererseits gibt es bei der eher menschlichen Intelligenz Differenzierungen wie Emotionale Intelligenz, Soziale Intelligenz usw. Es scheint, als ob der Intelligenz-Begriff einer gewissen Beliebigkeit unterworfen wird. Die Geschichte zeigt, dass es ursprünglich um die Messbarkeit von Intelligenz im Rahmen eines Intelligenz-Quotienten ging. Es war Anfang des 20. Jahrhunderts nicht unüblich im Rahmen der Industrialisierung alles messbar zu machen.

Durch Berechnungsverfahren, die von dem deutschen Psychologen William Stern bereits 1911 in den Grundzügen entwickelt und von den in den USA tätigen Psychologen David Wechsler vervollständigt wurden, erfolgte dann eine weitgehende Entkopplung von der sozialen Vergleichsgruppe. Spätestens mit den Arbeiten von Wechsler erhielt der IQ den universellen Anspruch, die Intelligenz eines Menschen umfassend zu beschreiben. Menschen unterschiedlichster Herkunft, verschiedenen Alters sowie unterschiedlichster sozialer Erfahrungen und Qualifikation werden damit vergleichbar. Dieser Anschein von Präzision und Allgemeingültigkeit trägt nach Auffassung von Robert J. Sternberg unter anderem dazu bei, den Stellenwert der Tests immer wieder zu bestätigen. Auch rein ökonomische Argumente spielen eine nicht zu unterschätzende Rolle. Schließlich sollen sich die Intelligenztests speziell bei der Personalauswahl so gut wie kein anderes Auswahlinstrument dafür eignen, erfolgsversprechende von weniger erfolgsversprechenden Bewerbern zu trennen (Abicht 2010:145).

Die Entgrenzung des Intelligenz-Konstrukts führt seit einigen Jahrzehnten zu vielfältigen Diskussionen im wissenschaftlichen, wirtschaftlichen, gesellschaftlichen und privaten Umfeld. Denn: Wer möchte schon als nicht-intelligent, oder gar dumm erscheinen?

Individuell, für eine große Anzahl von Personen und kostengünstig weiterbilden? Wie soll das denn gehen?

In der aktuellen Diskussion zur beruflichen Bildung (Weiterbildung) geht es einerseits um die Möglichkeiten der Digitalisierung und andererseits auch um die Unterstützung individueller Lernprozesse im Sinne von Personalisierung. Dass es möglich ist, massenhaft, individuell und kostengünstig weiterzubilden, habe ich im Rahmen meines berufsbegleitenden Studiums zum Experten für neue Lerntechnologien (heute HFU Akademie, Wissenschaftliche Weiterbildung der Hochschule Furtwangen) schon in 2003 untersucht.

In meinem Paper Freund, R. (2003): Mass Customization and Personalization in der beruflichen Bildung (PDF) habe ich zunächst dargestellt, dass es möglich ist, die hybride Wettbewerbsstrategie Mass Customization auf den Bildungsbereich zu übertragen. Es ist möglich, massenhaft und dennoch individuell – zu vertretbaren Kosten – weiterzubilden.

Danach stellte sich gleich die Frage, wie das umgesetzt werden kann. Die klassische Antwort war: Mit Hilfe von Konfiguratoren und Learning Objects. Das ist zwar eine gute Idee, doch lernen nicht die Objekte, sondern die Menschen, eben Subjekte. Meine Überlegungen mündeten letztendlich in dem Vorschlag, die Multiple Intelligenzen Theorie von Howard Gardner zu nutzen.

An dieser Stelle möchte ich weiterhin erwähnen, dass ich diese Gedanken auch auf der Weltkonferenz zu Mass Customization and Personalization MCPC 2003 vorgestellt habe: Freund, R.; Piotrowski, M. (2003): Mass Customization and Personalization in Adult Education and Training. 2nd Worldcongress on Mass Customization and Personalization MCPC2003, Munich, Germany [Download].

Das EU-Projekt MIapp

MIapp-Logo

Vorgeschichte

In den 90er Jahren habe ich mich intensiv mit dem Trend zur Individualisierung beschäftigt. Neben der gesellschaftlichen Dimension gibt es dabei auch einen wirtschaftlichen Aspekt, der in der hybriden Wettbewerbsstratgie Mass Customization and Personalization zum Ausdruck kommt und in Open Innovation seine Fortsetzung findet.

Ich habe mich damals gefragt, ob es möglich ist, Mass Customization and Personalization auch auf den Bildungssektor zu übertragen. Während meiner Weiterbildung zum Experten für Neue Lerntechnologien habe ich diese Frage 2001 etwas genauer untersucht (Mass Customization in der Bildung: Veröffentlichungen). Das erste Ergebnis war durchaus positiv, denn die neuen Technologien ermöglichten es, Content (Learning Objects) mit Hilfe definierter Standards (z.B. SCORM) individuell zu konfigurieren.

Problematisch war aus meiner Sicht allerdings schon damals, dass es ja nicht die sogenannten Learning Objects sind, die lernen, sondern die Teilnehmer. Die aus meiner Sicht zu starke Technologieorientierung sollte daher durch eine stärkere Teilnehmerorientierung abgelöst werden:

Wie kommt man nun von E minus Learning (E-Learning) zu Learning + E?

Stellt man den Teilnehmer, und die damit verbundene Ermöglichungsdidaktik in den Mittelpunkt der Überlegungen, so wird schnell deutlich, dass man eine Theorie benötigt, die den Teilnehmer in all seinen Dimensionen beschreiben kann. Den Zusammenhang habe ich dann in meinem Paper zur ElearnChina2003 (Veröffentlichungen) erläutert, in dem ich vorschlage, die Multiple Intelligenzen Theorie zu nutzen.

Das EU-Projekt MIapp (2004-2006)

Das EU-Projekt MIapp: The application of Multiple Intelligences theory to increase the effectiveness of e-learning, recruitment practices and Internet search engines. Co-financed by the Leonardo Davinci Program (PT 04/PP/11/24/458). Der Flyer informiert Sie ausführlich über das Projekt.

Natürlich gibt es viele Profiling-Instrumente auf dem Markt, dennoch war ich erstaunt darüber, dass die in den USA und anderen Ländern der Welt häufig eingesetzte Multiple Intelligenzen Theorie in Europa so wenig im Bildungssektor (aber auch in Unternehmen) beachtet wurde. Ich habe daher die University of Information, Technology and Management (UITM) in Rzeszów (Polen) gefragt, ob wir ein Pre-Proposal einreichen wollen. Gesagt – getan. Gemeinsam mit verschiedenen europäischen Partnern (Deutschland, Polen, Spanien, Österreich und Griechenland) haben wir dann den Antrag gestellt. Die Freude war groß, als wir erfuhren, dass das Projekt MIapp genehmigt wurde. Wir haben virtuell zusammengearbeitet, und uns im Projektzeitraum immer wieder zu Meetings getroffen:

  • MIapp-Meeting an der Universität Barcelona, Spanien
  • MIapp-Meeting bei FORTH auf Heraklion, Griechenland
  • MIapp-Meeting an der Universität in Freiburg, Deutschland
  • MIapp-Abschluss-Meeting an der UITM in Rzeszów, Polen (Program of the Seminar).