Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.
In der heutigen Diskussion um „Intelligenz“ geht es gerade in Bezug auf Künstliche Intelligenz auch um Emotionale Intelligenz. Die meisten werden den Begriff von der Veröffentlichungen Daniel Golemans kennen. Stellvertretend möchte ich sein Buch „Emotional Intelligence“ aus dem Jahr 1995 nennen.
Goleman, D. (1995): Emotional Intelligence. Why It Can Matter More Than IQ.
Wenn man sich allerdings etwas genauer mit dem Begriff befasst, stößt man recht schnell auf Salovay/Meyer, die schon 1990 von „Emotionaler Intelligenz“ geschrieben haben.
Salovey, P.; Mayer, J. D. (1990): Emotional Intelligence. In: Imagination, Cognition and Personality. 9. Jg. Heft 3, S. 185-211.
Dabei ist interessant, dass sich die beiden bei ihren Überlegungen schon 1993 direkt auf die Multiple Intelligenzen Theorie bezogen haben. Was bedeutet, dass Emotionale Intelligenz als Teil der von Howard Gardner angenommenen Multiplen Intelligenzen Theorie gesehen werden kann.
In der Zwischenzeit habe ich in einer weiteren Quelle eine Notiz gefunden, die besagt, dass der Schwede Björn Rosendal schon 1976 den Begriff „Emotional Intelligence“ geprägt hat. Manchmal ist es gut, sich die Historie eines oft verwendeten Begriffs klar zu machen.
„He coined the term „emotional intelligence“ in 1976″ Rosendal , Björn (1981): The Emotional Intelligence, Edition Sellem.
„The term „emotional intelligence“ may have first appeared in a 1964 paper by Michael Beldoch. and a 1966 paper by B. Leuner“ (ebd.).
Möglicherweise gibt es noch weitere, frühere Erwähnungen von Emotionaler Intelligenz. Das Konstrukt hat sich – wie viele – über die Jahrzehnte weiterentwickelt. Das zu analysieren, würde allerdings diesen Beitrag sprengen.
Wenn es um die zeitliche Entwicklung von neuen Technologien und deren Innovationen geht, wird oft der Gardner Hype Cycle herangezogen, der in der Abbildung gepunktet dargestellt ist.
Der Hype um neue Technologien bahnt sich zunächst an, erreicht einen Peak und anschließend die Phase der Ernüchterung, bis sich dann endlich durch die Nutzung die Spreu vom Weizen trennt: Change or Die!
Interessant ist, wenn man dem Gardner Hype Cycle die entsprechende Hybris gegenüberstellt – in der Abbildung rot hervorgehoben.
Die Hybris (altgriechisch für Übermut‘, ‚Anmaßung‘) bezeichnet Selbstüberschätzung oder Hochmut. Man verbindet mit Hybris häufig den Realitätsverlust einer Person und die Überschätzung der eigenen Fähigkeiten, Leistungen oder Kompetenzen, vor allem von Personen in Machtpositionen. (Quelle: vgl. Wikipedia).
In der Abbildung finden Sie die in den jeweiligen Phasen anzutreffenden Äußerungen, die die Hybris – den Übermut, die Selbstüberschätzung oder auch die Anmaßung und den Realitätsverlust – über die Zeit ausdrücken.
Das Ai2 Institut hat immer wieder interessante KI-Modelle auf Open Source Basis veröffentlicht. Unter anderem sind das die OLMO 3 – Familien oder auch MOLMO mit Schwerpunkt auf Videos. Mit der SERA ist es nun möglich, Open Coding Agents zu stellen, und das zu geringen Kosten.
„Today we’re releasing not just a collection of strong open coding models, but a training method that makes building your own coding agent for any codebase – for example, your personal codebase or an internal codebase at your organization – remarkably accessible for tasks including code generation, code review, debugging, maintenance, and code explanation. (…) The challenge: specializing agents to your data“ (Source: https://allenai.org/blog/open-coding-agents).
Die Modellfamilie (8B bis 32B) steht selbstverständlich auf Huggingface zur Verfügung, und kann auf eigenen Servern genutzt werden. Ganz im Sinne von Open Source AI und Digitalen Souveränität.
Wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität (Bandte 2007:50, aus Stüttgen 2003): Eigene Hervorhebungen
In unserer komplexen Welt verwenden viele den Begriff „Komplexität“, doch fragt man nach wird deutlich, dass an unterschiedliche naturwissenschaftliche Ansätze gedacht wird. In der Abbildung sind daher wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität zu sehen, die den verschiedenen Disziplinen zugeordnet sind
Ein wesentlicher Schwerpunkt in der Komplexitätsdiskussion befasst sich mit SELBSTORGANISATION. In der Abbildung sind von mir bekannte Vertreter zu Selbstorganisations-Theorien hervorgehoben, die aus den Bereichen Biologie und Physik/Chemie kommen. Überraschend ist dabei, dass viele wichtige Theorien zum Thema um 1970 fast zeitgleich erschienen sind:
„Es war der magische Zeitpunkt um 1970, als fast zeitgleich erste naturwissenschaftliche Theorien der Selbstorganisation erschienen, die eine paradigmatische Wende einläuteten: die biologische Theorie der Autopoiese von Humberto Maturana, die Arbeit zur molekularen Evolution von Manfred Eigen, die thermodynamische Theorie dissipativer Systeme fernab vom Gleichgewicht von Ilya Prigogine sowie die aus der Quantenoptik und der Theorie der Phasenübergänge stammende Theorie der Synergetik von Hermann Haken. Die Begründer dieser Theorien kamen aus sehr unterschiedlichen Disziplinen“ (Petzer/Steiner 2016).
Da ich mich viel mit Innovationen befasse, ist es mir natürlich wichtig zu erfahren, welche Passung diese Theorien mit der Entstehen neuer Dienstleistungen, Produkte oder (allgemein) neuen Gesellschaftsstrukturen haben. Sehr interessant ist dabei, dass die Autopoiese (Maturana) wohl nicht so gut geeignet erscheint, und die Synergetik von Haken (1996) wohl besser passt:
„Obwohl die Autopoiese einen großen Einfluss im biologischen und vor allem im soziologischen Bereich hat, so ist ihr Bezug zur Selbstorganisation eher im zirkulären Wirken bestehender Ordnung zu sehen. In Hinblick auf die Entstehung (Emergenz) von Ordnung und verschiedener Ordnungsstufen trifft die Autopoiese keine Aussagen. Sie setzt bereits Ordnung voraus. Daher sah Hermann Haken auch keinen Anlass sich mit dieser, vor allem im Rahmen des Radikalen Konstruktivismus in der Literatur hofierten und diskutierten Theorie, intensiver auseinanderzusetzen.
Übertragen auf soziale Systeme kann die Autopoiesetheorie Innovation oder die Entstehung neuer Gesellschaftsstrukturen nicht thematisieren„.
Quelle: (Petzer/Steiner 2016). Die Autoren nennen zur Unterstützung dieser These noch folgende Quellen:
– Hermann Haken: Synergetics. An Introduction, New York, NY: Springer 1977. – Bernd Kröger: Hermann Haken und die Anfangsjahre der Synergetik, Berlin: Logos 2013, S. 259. – Vgl. auch Marie-Luise Heuser: „Wissenschaft und Metaphysik. Überlegungen zu einer allgemeinen Selbstorganisationstheorie“, in: Wolfgang Krohn/Günter Küppers (Hg.): Selbstorganisation.
„Es genügt also, das Verhalten der wenigen instabilen Systemelemente zu erkennen, um den Entwicklungstrend des gesamten Systems und seine makroskopischen Muster zu bestimmen. Die Größen, mit denen das Verteilungsmuster der Mikrozustände eines Systems charakterisiert wird, heißen nach dem russischen Physiker Lew D. Landau „Ordnungsparameter““ (Mainzer 2008:43-44).
Mit Hilfe Künstlicher und Menschlicher Intelligenz sollte es möglich sein, diese wenigen instabilen Systemelemente zu erkennen (Ordnungsparameter), um makroskopische Muster zu bestimmen.
Stellen Sie sich vor, jemand möchte von Ihnen wissen, wie er Fahrradfahren soll. Geben Sie ihm einfach eine kurze Beschreibung – oder fragen Sie eine Künstliche Intelligenz. Eine eher wissenschaftliche Antwort könnte wie folgt lauten:
„Bringen Sie die Kurvung Ihrer Fahrradspur im Verhältnis zur Wurzel Ihres Ungleichgewichtes geteilt durch das Quadrat Ihrer Geschwindigkeit! Diese Regel beschreibt das Gleichgewichthalten beim Fahrradfahren“ (Fischer 2010).
Könnten Sie aufgrund dieser Beschreibung, möglicherweise ergänzt durch tausende von Videos oder anderen Content, Fahrradfahren? Es wird deutlich, dass zu der Beschreibung noch etwas dazukommen muss: Ein Gefühl für das Gleichgewicht bei einem bestimmten Fahrrad, in einem bestimmten Gelände (Kontext) und Übung, Übung, Übung. So lange, bis man kein Anfänger, sondern ein Experte ist.
Im beruflichen Umfeld haben wir ähnliche Situationen, die anhand der folgenden Abbildung erläutert werden sollen.
Eigene Darstellung
In der Abbildung sind das Handlungsgebiet „Installieren“, das Handlungsgebiet „Diagnostizieren“ und beispielhaft ein weiteres Handlungsgebiet nebeneinander dargestellt.
Überlagert werden diese von den Sektoren A und B, in denen die Kontexte 1 bis 4 dargestellt sind. Kontext 1 könnte hier die Kernaufgabe 1 eines Berufs, Kontext 2 die Kernaufgabe 2 eines weiteren Berufs etc. darstellen.
Der Domänenbegriff kann sich im engeren Sinne auf eine Kernaufgabe eines Berufs beziehen – hier die Kernaufgabe 1 eines Berufs. Es ist allerdings auch möglich, den Domänenbegriff weiter zu definieren. Dann wären die Summe aller Handlungsgebiete gemeint – im Idealfall stellt eine Domäne den Beruf dar (Domäne=Beruf).
„Die Arbeit in einer Domäne ist stets situiert“ (Becker 2004, S. 36), also an die Problemlösungssituation und den Kontext gebunden, was zu einem sehr speziellen Wissen (Expertenwissen) und der damit verbundenen Expertise (Kompetenz auf Expertenniveau) führt.
Es wird deutlich, dass es nur sehr schwer möglich ist, diese spezielle Kompetenz zu übertragen, gerade dann, wenn man das Ganze der Arbeit betrachtet und nicht nur einzelne Facetten.
Solche Überlegungen können dabei helfen herauszufinden, welche Elemente der Arbeit beispielsweise durch Künstliche Intelligenz ersetzt, ergänzt, oder gar nicht abgebildet werden können.
In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.
Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:
„Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).
Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch
In einem eher unsicheren und turbulenten Umfeld kann es dazu kommen, dass man als Einzelner, oder als Organisation anderen Menschen, oder anderen Organisationen, misstraut. Das wiederum führt dazu, dass alle Abläufe bis ins Detail geregelt und kontrolliert werden – getreu dem Spruch „Vertrauen ist gut, Kontrolle ist besser“. Das funktionierte auch in einer eher sich langsam verändernden Welt ganz gut.
Um in einem heute eher vorliegenden dynamischen Umfeld schnell und flexibel voran zu kommen, ist ein Arbeiten auch in komplexen Netzwerken gefordert. Dabei kann nicht alles bis ins kleinste Detail geregelt sein, sodass es auf ein gewisses Maß an Vertrauen in der Zusammenarbeit ankommt, wodurch wiederum auf einen Teil der Kontrolle verzichtet werden kann.
„Menschliches Handeln in modernen Gesellschaften allgemein und in modernen Organisationsformen, wie Netzwerke insbesondere, erfordern Vertrauen darauf, dass sich andere Menschen gemäß dem mit dem eigenen Handeln verbundenen Erwartungen verhalten. Vertrauen ist dabei ein Mechanismus, der es ermöglicht, auf einen Teil der Kontrolle zu verzichten, und der die Bereitschaft erhöht, ein Risiko einzugehen (Giddens 1995, 1997, Luhmann 2000). Gerade in Netzwerken ist dies besonders relevant, weil Zusammenarbeit unter höherer Unsicherheit stattfindet als in traditionellen Organisationen (…)“ (Vollmert, A.; Wehner, T., in Huber et al. 2005).
Kommt es also in einem Netzwerk zu einer wechselseitigen Vereinbarung von Regeln, so kann Systemvertrauen entstehen.
Betrachten wir die bekannten KI-Modelle (KI-Systeme, Netzwerke) wie ChatGPT, Gemini etc., so können diese KI-Systeme als Closed Models bezeichnet werden, da sie wenig oder kaum Transparenz bieten – also wie eine Art Black Box agieren. Diese In-Transparenz widerspricht den oben genannten Voraussetzungen für eine vertrauensvolle Zusammenarbeit.
Ganz anders sieht es bei Open Source AI Modellen (Systemen, Netzwerken) aus, die transparent sind, und sich an die Open Source Ai – Definition halten. Das alles stellt eine gute Basis für eine vertrauensvolle Zusammenarbeit im Netzwerk dar. Siehe dazu auch
Die heute propagierte Wissensgesellschaft wird oft kritisiert. Beispielsweise findet man in Liessmann (2008): Theorie der Unbildung den Hinweis, dass Wissen im Gegensatz zu Information nicht unbedingt zweckorientiert ist:
„Wissen lässt sich viel, und ob dieses Wissen unnütz ist, entscheidet sich nie im Moment der Herstellung oder Aufnahme des Wissens“ (ebd.).
Der Autor treibt seine Kritik an der Entwicklung bei den Themen, Wissen, Wissen als Ressource und Wissensmanagement mit einer These auf die Spitze, indem er formuliert:
„Man könnte die These riskieren, dass in der Wissensgesellschaft das Wissen gerade keinen Wert an sich darstellt. Indem das Wissen als ein nach externen Kriterien wie Erwartungen, Anwendungen und Verwertungsmöglichkeiten hergestelltes Produkt definiert wird, ist es naheliegend, dass es dort, wo es diese Kriterien nicht entspricht, auch rasch wieder entsorgt werden muss. Gerne spricht man von der Beseitigung des veralteten Wissens, vom Löschen der Datenspeicher und vom Abwerfen unnötigen Wissensballasts. Mit anderen Worten: Die Wissensgesellschaft behandelt ihr vermeintlich höchstes Gut mitunter so, als wäre es der letzte Dreck“ (Liessmann 2008).
Wissen, immer und überall unter Nutzengesichtspunkten zu sehen, ist fatal. Wissen um seiner selbst willen kann durch überraschende Neukombinationen zu kreativen Gedanken und Problemlösungen führen. Grenzen wir dieses Wissen aus, wird alles Wissen beliebig, und damit auch weniger kreativ, bzw. innovativ, was uns wieder zu den kritisierten Nutzengesichtspunkten führt.
Es scheint paradox zu sein: Wissen ohne Nutzengesichtspunkte zuzulassen, führt zu einer besseren Nutzung von Wissen.
Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, Wissen gut zu verstehen, um den Umgang damit angemessen zu ermöglichen. Bei einer einseitig nutzenorientierten Betrachtung von Wissen, kann es gesellschaftlich zu Verwerfungen kommen – gerade so, als ob ein Sportler nur den rechten Arm trainieren würde.
Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).
„Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).
Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.
Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.
Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
Aktuell kann man den Eindruck gewinnen, dass alle Aufgaben oder Probleme mit Künstlicher Intelligenz angegangen werden, um Lösungen zu generieren.
Im Zusammenspiel zwischen Lösung und Problem hat Paul Watzlawick auf die Fehllogik und die zirkulare Kausalität hingewiesen.
Das oft genannte Beispiel von jemanden mit Schlafproblemen, der versucht, krampfhaft einzuschlafen, und damit die Situation eher verschlechtert, illustriert das etwas.
„Was Menschen tun, um ein Problem zu lösen, ist oft genau das, was das Problem hervorruft“ nach Paul Watzlawick, zitiert in Hartkemeyer/Freeman/Dhority (2006): Miteinander Denken. Das Geheimnis des Dialogs,
Ich frage mich: Kann es sein, dass die Nutzung der bekannten KI-Modelle nicht nur zur Lösung eines Problems führt (führen kann), sondern diese Problemlösung das ursprüngliche Problem noch verstärkt?
In einer abgewandelten Eigenfassung des Textes von Paul Watzlawick würde das wie folgt aussehen:
„Was Menschen tun, um ein Problem zu lösen (RF: z.B. ChatGPT nutzen…), ist oft genau das, was das Problem hervorruft (RF: z.B. ChatGPT nutzen….. ) – frei von mir nach Paul Watzlawick geändert. Ich hoffe er sieht mir das nach.
Es ist gut, wenn wir die enormen Möglichkeiten von KI nutzen, und kritisch hinterfragen (Kritisches Denken)
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.