Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen

Image by StockSnap from Pixabay

In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.

In Zeiten von Künstlicher Intelligenz führt der Ansatz eines IQ in der Zwischenzeit zu verschiedenen „Stilblüten“: Beispielsweise hat das OpenAI Model „o1“ einen IQ von 120 – ein Kategorienfehler?

Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).

Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch

Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Künstliche Intelligenz und Menschliche Intelligenz

Künstliche Intelligenz – ein Kategorienfehler?

Sind wir nicht intelligent genug, um zu wissen, was Intelligenz ist?

Image by Gerd Altmann from Pixabay

Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).

Dass die Messbarmachung der Intelligenz in Zeiten von Künstlicher Intelligenz tückisch sein kann, habe ich in dem Beitrag OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler? erläutert. Hans Markus Enzensberger hat sich auch mit der IQ-Messung intensiv befasst, und ist zu folgendem Schluss gekommen:

Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).

Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.

Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.

Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch 

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Über den Unsinn von Intelligenztests

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Ein Wust von Indikatoren führt zu einer nicht mehr beherrschbaren Kompliziertheit

Image by Gerd Altmann from Pixabay

In meinem Blogbeitrag Kennzahlen als risikoreiche Reduzierung der Komplexität? ging es schon einmal darum, dass in vielen Bereichen komplexe Sachverhalte in Zahlen ausgedrückt werden. Dazu zählen das Bruttoinlandsprodukt (BIP), der Intelligenz-Quotient (IQ), der Return on Investment (ROI) usw. Und was nicht so recht messbar ist, wird eben messbar gemacht.

Möglicherweise benötigen Menschen Zahlen, um einen gewissen Anker in komplexen Zeiten zu haben (Taleb 2007). Das führt allerdings zu einer paradoxen Situation:

„Hier soll nur in Bezug auf die Vereinfachungsproblematik nachgefragt werden. Denn diesbezüglich landen wir in einer geradezu paradoxen Situation: Die scheinbare Vereinfachung durch Reduktion eines komplexen Messzusammenhangs auf immer elementarere Indikatoren führt zu einem unübersehbaren Wust solcher Indikatoren und damit zu einer nicht mehr beherrschbaren Kompliziertheit. Umgekehrt kommt man, wenn man sich auf die „Indikatorenverschmelzung“ des menschlichen Erkenntnisvermögens verlässt, auf eine sehr einfache Form der Erfassung solcher komplexen Zusammenhänge. Durch komplexe Erfassung zu einem vereinfachten Verständnis, so könnte man die dahinter liegende Strategie kennzeichnen“ (Erpenbeck 2010).

Die Indikatoren führen also nicht zu einem besseren Verständnis von Komplexität – im Gegenteil. Komplexere Erfassungen werden der Komplexität eher gerechtet und führen zu einem besseren Verständnis.

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Die aktuelle Diskussion um Künstliche Intelligenz wird einerseits technisch geführt, andererseits geht es dabei auch um Menschliche Kompetenzen. Alleine diese Gegenüberstellung von „Intelligenz“ hier und „Kompetenz“ dort wirft schon Fragen auf:

(1) Ist der Begriff „Künstliche Intelligenz“ schon ein Kategorienfehler?

Zunächst soll es um den etablierten Begriff „Künstliche Intelligenz“ gehen, der durchaus kritisch hinterfragt werden kann. Genau das hat Beispielsweise der Meister der Systemtheorie, Niklas Luhmann, getan:

„Der Soziologe Niklas Luhmann beschreibt dies treffend als Kategorienfehler (Luhmann & Schorr, 1982) – ein grundlegender Unterschied zwischen maschineller Informationsverarbeitung und menschlichen Qualitäten. Maschinen können zwar Daten präzise und schnell verarbeiten, doch echte Kreativität, Sinnverständnis und emotionale Reflexion bleiben ihnen verschlossen“ (Ehlers 2025, in weiter bilden 1/2025).

Jetzt kann man natürlich anmerken, dass sich diese Argumentation auf die damaligen IT-Systeme bezog, die heutigen KI-Systeme allerdings doch anders sind. Diese Perspektive ist durchaus berechtigt, doch ist an der Argumentation Luhmanns immer noch etwas dran, wenn wir die heutigen KI-Systeme betrachten.

(2) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlicher Intelligenz etwa auch ein Kategorienfehler?

Interessant ist hier, dass es den Hinweis auf einen Kategorienfehler auch aus der Intelligenzforschung gibt. Siehe dazu ausführlicher OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Wenn wir also mit Intelligenz das meinen, was ein Intelligenztest misst, sieht es für den Menschen schon jetzt ziemlich schlecht aus.

Wenn wir allerdings Intelligenz entgrenzen und eher den Ansatz von Howard Gardner sehen, der von Multiplen Intelligenzen ausgeht, wird es schon etwas spannender, denn nach Howard Gardner ist Intelligenz u.a. ein biopsychologisches Potenzial:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner  2002:46-47).

Insofern wäre dann der Vergliche zwischen Künstlicher Intelligenz und Multiplen Intelligenzen ein Kategorienfehler. Siehe dazu auch Künstliche Intelligenz – ein Kategorienfehler? Darin wird auch auf die sozialen und emotionalen Dimensionen bei Menschen hingewiesen.

(3) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlichen Kompetenzen ein Kategorienfehler?

Wenn wir Künstliche Intelligenz mit Menschlichen Kompetenzen vergleichen, vergleichen wir auch indirekt die beiden Konstrukte „Intelligenz“ und „Kompetenz. In dem Beitrag Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen? finden Sie dazu ausführlichere Anmerkungen.

Das AIComp-Kompetenzmodell, bei dem nicht die Abgrenzung zwischen den Möglichkeiten der Künstlichen Intelligenz und den Menschlichen Kompetenzen steht, sondern die „produktive Kooperationskultur“ (ebd.). Eine Kooperationskultur zwischen Intelligenz und Kompetenz?

Wenn das alles nicht schon verwirrend genug ist, schreiben mehrere Autoren in dem Gesamtzusammenhang auch noch von Menschlichen Qualitäten oder Skills (Future Skills). Letzteres unterstellt eine eher amerikanische Perspektive auf Kompetenzen.

„Frühere Kompetenzdefinitionen beziehen sich auf die im anglo-amerikanischen Raum gebräuchliche Unterscheidung individueller Leistunsgsdispositionen in Knowledge, Skills, Abilities and Other Characteristics (KSAO), wobei modernere Definitionen auch eher die Selbstorganisationsdisposition in den Vordergrund stellen“ (Freund 2011).

Sollten wir daher lieber von Künstlichen Kompetenzen und Menschlichen Kompetenzen auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk sprechen, und diese dann vergleichen?

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Künstliche Generelle Intelligenz (AGI): Kann das überhaupt erreicht werden?

In den Diskussionen um Künstliche Intelligenz (Artificial Intelligence) werden die Tech-Riesen nicht müde zu behaupten, dass Künstliche Intelligenz die Menschliche Intelligenz ebenbürtig ist, und es somit eine Generelle Künstliche Intelligenz (AGI: Artificial General Intelligence) geben wird.

Dabei wird allerdings nie wirklich geklärt, was unter der Menschlichen Intelligenz verstanden wird. Wenn es der Intelligenz-Quotient (IQ) ist, dann haben schon verschiedene Tests gezeigt, dass KI-Modelle einen IQ erreichen können, der höher ist als bei dem Durchschnitt der Menschen. Siehe dazu OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Heißt das, dass das KI-Modell dann intelligenter ist als ein Mensch? Viele Experten bezweifeln das:

„Most experts agree that artificial general intelligence (AGI), which would allow for the creation of machines that can basically mimic or supersede human intelligence on a wide range of varying tasks, is currently out of reach and that it may still take hundreds of years or more to develop AGI, if it can ever be developed. Therefore, in this chapter, “digitalization” means computerization and adoption of (narrow) artificial intelligence“ (Samaan 2024, in Werthner et al (eds.) 2024, in Anlehnung an https://rodneybrooks.com/agi-has-been-delayed/).

Es wird meines Erachtens Zeit, dass wir Menschliche Intelligenz nicht nur auf den IQ-Wert begrenzen, sondern entgrenzen. Die Theorie der Multiplen Intelligenzen hat hier gegenüber dem IQ eine bessere Passung zu den aktuellen Entwicklungen. Den Vergleich der Künstlichen Intelligenz mit der Menschlichen Intelligenz nach Howard Gardner wäre damit ein Kategorienfehler.

Versuch einer Einordnung: Menschliche Intelligenz, Hybride Intelligenz, Künstliche Intelligenz

Artificial Intelligence in relation to human intelligence (Hossein Jarrahi et al. 2022, https://doi.org/10.1177/20539517221142824

Der Begriff „Intelligenz“ wird in der aktuellen Diskussion um Künstliche Intelligenz (Artificial Intelligence) immer wichtiger. Dabei gibt es oft zwei Argumentations-Pole, die sich scheinbar unüberbrückbar gegenüberstehen:

Zunächst ist da der Standpunkt, dass Künstliche Intelligenz (Technologie) in Zukunft auch die Menschliche Intelligenz umfassen wird. Demgegenüber gibt es die Perspektive, dass die Menschliche Intelligenz Elemente enthält, die (noch) nicht von Technologie (Künstlicher Intelligenz) ersetzt werden kann.

In der Zwischenzeit setzt sich – wie so oft – immer stärker die Auffassung durch, dass es durchaus Sinn machen kann, eine Art Hybride Intelligenz zu thematisieren, also eine Art Schnittmenge zwischen Menschlicher und Künstlicher Intelligenz. In der Abbildung ist diese Sicht auf Intelligenz dargestellt.

„Put simply, humans possess “general intelligence” in being able to comprehend and analyze various situations and stimuli, to ideate, create and imagine. The intelligence projected by AI systems is predominantly task-centered (Narayanan and Kapoor, 2022)“ (Hossein Jarrahi et al. 2022).

Ergänzen möchte ich an dieser Stelle, dass hier der Begriff „general intelligence“ bei der Menschlichen Intelligenz wohl auf den Intelligenz-Quotienten verweist, der allerdings in der Gesamtdiskussion wenig hilfreich erscheint. In dem Beitrag OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? wird deutlich, dass aktuelle KI-Modelle schon locker entsprechende Intelligenz-Tests bestehen.

Meines Erachtens scheint es immer wichtiger zu sein, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern Dieses Verständnis hätte eine bessere Passung zu der aktuellen Entwicklung.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

AI as Engineering: Führt die Perspektive zu unlösbaren Problemen?

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Grundsätzlich gibt es verschiedene Perspektiven auf Künstliche Intelligenz (AI: Artificial Intelligence). Die aktuell dominierende Perspektive ist die, AI aus der Perspektive des Ingenieurwesens zu betrachten (Siehe Tabelle). Dabei wird davon ausgegangen, dass Intelligenz in AI-Systemen nachgebildet werden kann. Intelligenz wird dabei oftmals mit dem Intelligenz-Quotienten gleich gesetzt, der in Tests (Intelligenz-Tests) mit Hilfe einer Zahl, dem Intelligenz-Quotienten IQ dargestellt werden kann. Bei dieser Betrachtung auf Intelligenz erstaunt es daher nicht, dass die leistungsfähigsten AI-Systeme locker einen hohen IQ-Wert erreichen. Siehe dazu OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler?.

Idea/DescriptionLable
Intelligence can be recreated in artificial systems AI-as-engineeringAI-as-Engineering
Cognition is, or can be understood as, a form of computation AI-as-psychology (a.k.a. computationalism)AI-as-Psychology (a.k.a. computationalism)
Humans can be replaced by artificial systems AI-as-ideologyAI-as-Ideology
The label ‘AI’ helps to sell technologies and gain fundingAI-as-Marketing
Quelle: van Roij et al. (2024): Reclaiming AI as a Theoretical Tool for Cognitive Science

Forscher haben nun in einem Paper dazu Stellung genommen und verschiedene Situationen mit ingenieurwissenschaftlichen Ansätzen überprüft. Das Ergebnis ist ernüchternd: AI-as-Engineering führt zu unlösbaren Problemen. Unlösbar in dem Sinne, dass die menschliche Intelligenz in vielen Facetten ingenieurwissenschaftlich nicht abgebildet werden kann.

„This means that any factual AI systems created in the short-run are at best decoys. When we think these systems capture something deep about ourselves and our thinking, we induce distorted and impoverished images of ourselves and our cognition. In other words, AI in current practice is deteriorating our theoretical understanding of cognition rather than advancing and enhancing it. The situation could be remediated by releasing the grip of the currently dominant view on AI and by returning to the idea of AI as a theoretical tool for cognitive science. In reclaiming this older idea of AI, however, it is important not to repeat conceptual mistakes of the past (and present) that brought us to where we are today“ (ebd.).

AI kann natürlich viele Probleme lösen, die vorher so nicht, oder nur zu hohen Kosten lösbar waren. Das heißt allerdings noch lange nicht, dass die vielfältigen kognitiven und psychologischen Dispositionen von Menschen und ihre gesellschaftlichen Netzwerke genau so abgebildet werden können. Es ist verständlich, dass uns die Tech-Industrie das glauben machen will, doch sollten wir die Technologie stärker in den Dienst der Menschen stellen. Wenn wir das nicht machen, gehen die Profite an die großen Tech-Konzerne, wobei die gesellschaftlichen Auswirkungen bei den jeweiligen Ländern hängen bleiben. Eine Gesellschaft ist keine profitorientierte Organisation.

Hybride Intelligenz: Zusammenspiel von Mensch, Maschine und Künstlicher Intelligenz

Wenn es um zu lösende Probleme in einem beruflichen Umfeld geht, so gibt es dabei sehr viele einzelne Aufgaben, die im Zusammenspiel von Menschen, Maschinen und Künstlicher Intelligenz gelöst werden können. Welche „Konfiguration“ dabei angemessen erscheint, ist Abhängig vom Kontext, dem Task (Aufgabe) und den vorhandenen Problemlösungspotentialen. An dieser Stelle kommt der Begriff Hybride Intelligenz ins Spiel.

„Dellermann, Ebel, Söllner und Leimeister (2019: 638) definieren hybride Intelligenz als die Fähigkeit, komplexe Ziele durch die Kombination menschlicher und künstlicher Intelligenz zu erreichen, kontinuierlich voneinander zu lernen und dabei Ergebnisse zu produzieren, die über das hinaus gehen, was KI oder Mensch allein hätten erreichen können. Nicht immer lässt sich hierbei trennscharf zwischen Automation und Augmentation unterscheiden (Raisch & Krakowski, 2021). Der Grad der Automation bzw. Augmentation hängt immer individuell von der jeweiligen zu lösenden Aufgabe ab“ (Piller et al. 2024, in Koller et al. 2024: Die Zukunft der Grenzenlosen Unternehmung).

Was allerdings unter „Menschlicher Intelligenz“ verstanden wird, ist dabei nicht weiter erläutert. Ich gehe daher davon aus, dass von dem bekannten Intelligenzquotienten (IQ) ausgegangen wird, der sich in einer Zahl manifestiert. Dass das im Zusammenhang mit den Entwicklungen bei der Künstlichen Intelligenz kritisch sein kann, wird in dem Blogbeitrag OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? deutlich.

Wenn wir weiterhin beachten, dass auch der Intelligenz-Begriff erweitert werden sollte, können wir möglicherweise auch von einer Multiplen Künstlichen Intelligenz sprechen. Siehe dazu auch Multiple Artificial Intelligences (MAI) statt Artificial General Intelligence (AGI)?

Multiple Artificial Intelligences (MAI) statt Artificial General Intelligence (AGI)?

Adobe: AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

In den Diskussionen um Künstliche Intelligenz (KI) – oder englischsprachig Artificial Intelligence (AI) – führt die Systembetrachtung zu einer Art Generellen Künstlichen Intelligenz – General Artificial Intelligence (GAI) oder auch Artificial General Intelligence (AGI). Darunter ist folgendes zu verstehen:

„A system believed to perform (solve) domain-general cognitive tasks (problems; what some may also call AGI). … [it seems to] leave little room for AI as a theoretical tool for cognitive science. The reason is that BigTech currently dominates the narrative, with a focus on technological progress and impressive machine learning applications“ (van Rooij et al. 2024).

Es geht also bei AGI um eine von Technologie dominierte generelle kognitive Problemlöse-Fähigkeiten eines Systems. Diese Sichtweise liegt in der Tradition von Simon, Shaw und Newell. die 1957 die Software „General problem Solver“ entwickelten (Quelle: Wikipedia).

Das erinnert insgesamt stark an die Diskussionen, bei denen es um Menschliche Intelligenz geht. Auch hier steht immer wieder die Frage im Raum, ob es sich bei der Menschlichen Intelligenz um eine Generelle Intelligenz handelt, die mit einem Intelligenz-Quotienten (IQ) bestimmt werden kann, oder ob es um Multiple Intelligenzen im Sinne von Howard Gardner oder auch Sternberg etc. geht. Dabei geht Howard Gardner bei Intelligenz bewusst von einem „biopsychologisches Potenzial “ aus, was Künstliche Intelligenz wiederum aus seiner Sicht ein Kategorienfehler zu sein scheint.

Wenn wir also den Trend von einer Generellen Menschlichen Intelligenz zu eher Multiplen Intelligenzen unterstellen, sollten wir dann nicht statt Artificial General Intelligence eher von Multiple Artificial Intelligence (MAI) ausgehen?

Wenn Sie diesen Begriff in Google eingeben, werden Sie einige Treffer erhalten. Dabei geht es allerdings hauptsächlich um eine Art Vielfalt der verschiedenen AI-Anwendungen. Ich meine mit dem Begriff Multiple Artificial Intelligences ein hybrides Intelligenz-Konstrukt, das die Menschliche und Künstliche Intelligenz kontextbezogen für komplexe Problemlösungen in einem bestimmten kulturellen Umfeld beschreiben kann..

Wisdom of Crowds – Schwarm Intelligenz – Kollektive Intelligenz

Quelle: Feldhusen, B. (2021)

Der Begriff „Künstliche Intelligenz“ hat uns wieder darauf gestoßen, dass es Sinn macht, sich auch mit der Menschlichen Intelligenz zu befassen. Entscheidend dabei ist, was unter der Menschlichen Intelligenz verstanden wird, und was unter einer gemeinsamen, eher Kollektiven Intelligenz verstanden wird.

Wie die Leser unseres Blog wissen, tendieren wir dazu, wie Howard Gardner von Multiplen Intelligenzen zu sprechen, was einer Ergänzung/Entgrenzung des klassischen Intelligenz-Quotienten entsprechen würde. Multiple Intelligenzen sind nach Howard Gardner „biopsychologisches Potential“, sodass der Begriff „Künstliche Intelligenz“ eher ein Kategorienfehler ist. Siehe dazu auch OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Intelligenz kann dabei auf der individuellen Ebene, auf der Gruppenebene, auf der Ebene der Organisation, oder auch in Netzwerken thematisiert werden.

In diesem Beitrag soll es hauptsächlich um eine gemeinschaftliche, Kollektive Intelligenz gehen, die nicht einfach eine Menge von Individuen bedeutet, sondern erst unter bestimmten Bedingungen entsteht. Dazu gab es in der Vergangenheit weitere Begriffe wie Wisdom of Crowds, Schwarmintelligenz und eben Kollektive Intelligenz, die sich in ihrer Interaktionsqualität von Kumulation/Aggregation bis hin zu Interaktion/Kreation unterscheiden (Abbildung). Diese Unterschiede beschreibt Feldhusen (2021) wie folgt:

„Vielmehr entsteht Kollektive Intelligenz durch die Qualität menschlicher Begegnung und ihres Design- bzw. Organisationsprozesses. Entscheidend ist, wie wir uns und anderen zuhören, Unterschiede wahrnehmen und verarbeiten, aufeinander eingehen, uns auf neue Perspektiven einlassen, miteinander Lösungen verhandeln, uns und dem Prozess der Interaktion Aufmerksamkeit schenken. Wie eingangs zitiert, sieht Gary Hamel die Führungskräfte der Zukunft als Architekten sozialer Systeme. Dies bedeutet für die meisten Mitarbeiter/innen und Führungskräfte einen tiefgreifenden Reife- und Entwicklungsprozess hin zu einer Haltung, die dem Gegenüber mindestens die gleiche Bedeutung beimisst wie dem Selbst“ (Feldhusen, B. (2021): Kollektive Intelligenz und Psychologische Sicherheit: Haben wir Intelligenz im Gefühl?. Organisationsberatung Supervision Coach 28, 355–371 (2021). https://doi.org/10.1007/s11613-021-00719-2).

Siehe dazu auch Schwarmintelligenz: Die Weisheit der vielen und das Wissen der Eliten.