Sir Roger Penrose ist u.a. Mathematiker und theoretischer Physiker. In 2020 hat er eine Hälfte des Nobelpreises für Physik erhalten. Penrose hat sich darüber hinaus recht kritisch mit Künstlicher Intelligenz auseinandergesetzt.
Er ist zu der Auffassung gelangt, dass man nicht von Künstlicher Intelligenz (Artificial Intelligence), sondern eher von Künstlicher Cleverness (Artificial Cleverness) sprechen sollte. Dabei leitet er seine Erkenntnisse aus den beiden Gödelschen Unvollständigkeitssätzen ab. In einem Interview hat Penrose seine Argumente dargestellt:
Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World. Available at: https://www.youtube.com/watch?v=biUfMZ2dts8
Da das alles ziemlich schwere Kost ist, hat Martin Chiupa (2026) via LinkedIn eine Übersicht (Abbildung) erstellt, die anhand verschiedener Kriterien Unterschiede zwischen Human Intelligence, AI Systems und Artificial Cleverness aufzeigt.
Kanning, U. P. (2005): Soziale Kompetenzen. Göttingen: Hofgrefe.
In vielen Diskussionen verwenden Teilnehmer gleichlautende Begriffe, deren Bedeutungen allerdings unterschiedlich interpretiert werden. Weiterhin kann es vorkommen, dass Begriffe synonym verwendet werden, wodurch auch ein ziemliches Durcheinander entstehen kann.
In der Abbildung ist beispielsweise zu erkennen, dass der Oberbegriff Soziale Kompetenz, die Bereiche Soziale Intelligenz, Emotionale Intelligenz und auch Soziale Fertigkeiten umfasst – mit diesen Begriffen somit nicht gleichzusetzen ist.
Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.
In der heutigen Diskussion um „Intelligenz“ geht es gerade in Bezug auf Künstliche Intelligenz auch um Emotionale Intelligenz. Die meisten werden den Begriff von der Veröffentlichungen Daniel Golemans kennen. Stellvertretend möchte ich sein Buch „Emotional Intelligence“ aus dem Jahr 1995 nennen.
Goleman, D. (1995): Emotional Intelligence. Why It Can Matter More Than IQ.
Wenn man sich allerdings etwas genauer mit dem Begriff befasst, stößt man recht schnell auf Salovay/Meyer, die schon 1990 von „Emotionaler Intelligenz“ geschrieben haben.
Salovey, P.; Mayer, J. D. (1990): Emotional Intelligence. In: Imagination, Cognition and Personality. 9. Jg. Heft 3, S. 185-211.
Dabei ist interessant, dass sich die beiden bei ihren Überlegungen schon 1993 direkt auf die Multiple Intelligenzen Theorie bezogen haben. Was bedeutet, dass Emotionale Intelligenz als Teil der von Howard Gardner angenommenen Multiplen Intelligenzen Theorie gesehen werden kann.
In der Zwischenzeit habe ich in einer weiteren Quelle eine Notiz gefunden, die besagt, dass der Schwede Björn Rosendal schon 1976 den Begriff „Emotional Intelligence“ geprägt hat. Manchmal ist es gut, sich die Historie eines oft verwendeten Begriffs klar zu machen.
„He coined the term „emotional intelligence“ in 1976″ Rosendal , Björn (1981): The Emotional Intelligence, Edition Sellem.
„The term „emotional intelligence“ may have first appeared in a 1964 paper by Michael Beldoch. and a 1966 paper by B. Leuner“ (ebd.).
Möglicherweise gibt es noch weitere, frühere Erwähnungen von Emotionaler Intelligenz. Das Konstrukt hat sich – wie viele – über die Jahrzehnte weiterentwickelt. Das zu analysieren, würde allerdings diesen Beitrag sprengen.
Wir gehen oft noch von scheinbar eindeutigen Ursache-Wirkungs-Zusammenhängen aus (Reduktionismus), Wir schließen beispielsweise bei einer intelligenten Handlung (Wirkung) eines Menschen auf eine möglicherweise dahinterliegende menschliche Intelligenz (Ursache).
Dass es solche einfachen Zusammenhänge in komplexen Systemen so nicht gibt, wurde schon vor vielen Jahrzehnten von Ryle bezweifelt. Er nannte ein solches Vorgehen Intellektualistische Legende. und erläutert: „Die intelligente Praxis“ (Ryle (1949:28), „ist nicht ein Stiefkind der Theorie“.
„Ganz allgemein gesprochen, macht die intellektualistische Legende die absurde Annahme, jede Verrichtung, welcher Art auch immer sie sei, erwerbe ihren gesamten Anspruch auf Intelligenz von einer vorausgehenden inneren Planung dieser Verrichtung“ (Siehe dazu weitaus differenzierter Neuweg, G. H. (2004): Könnerschaft und implizites Wissen).
Doch: Wo versteckt sich dann die Intelligenz?
Dazu schreibt Ryle: „Eine intelligente Handlung „hat eine besondere Art oder Ausführung, nicht besondere Vorgänger“ (1949, S. 36). Natürlich weist sie über sich selbst hinaus, aber „die Ausübung ist keine Doppeloperation, bestehend aus theoretischem Bekennen von Maximen und darauffolgender Umsetzung in die Praxis“ (1949, S. 56). Auch wenn wir eine Disposition, die sich als flexibles Können zeigt, mit Recht als Zeichen von Intelligenz betrachten, ist nicht eine innerliche Schattenhandlung, sondern das Können selbst der Trägerder Intelligenz. Intellektuelle Operationen sind keine Ausführungen, die zu intelligenten Tätigkeiten hinzutreten. „Offene intelligente Verrichtungen sind nicht der Schlüssel zur Arbeit des Geistes; sie sind diese Arbeit“ (1949, S. 73)“ (vgl. Neuweg 2004).
Wenn also das Können selbst Träger der Intelligenz ist, und eine scheinbar intelligente Handlung eines Menschen nicht auf seine Menschliche Intelligenz zurückzuführen ist, so kann auch die „intelligente Handlung“ eines KI-Modells nicht auf eine Art von Künstlicher Intelligenz zurückgeführt werden – ein Kategorienfehler? Siehe dazu auch
In diesem Blogbeitrag möchte ich nun die Überlegungen für einen Intelligenz-Quotienten (IQ) und mögliche Kritikpunkte daran erläutern.
Wie der Abbildung zu entnehmen ist, bezieht sich der Intelligenz-Quotient (IQ), der als Psychometrische Intelligenz bezeichnet werden kann, auch darauf, dass diese aus der Biologischen Intelligenz hervorgeht. Eysenck, ein Vertreter der Psychometrischen Intelligenz, deutet damit auf den biologischen Charakter und den in den menschlichen Genen vorgegebenen Teil von Intelligenz hin. Der von der Psychometrischen Intelligenz verwendete Intelligenzbegriff basiert konsequenterweise auf diesen Annahmen:
„Unser Begriff „Intelligenz“ leitet sich von den lateinischen Wörtern intelligentia und ingenium her. Jenes bedeutet in Ciceros Verwendungsweise in etwa „Begreifen“ und „Wissen“, dieses soviel wie „natürliche Veranlagung“ oder Begabung“. Die zwei Bedeutungskomponenten sind dem Begriff „Intelligenz“ bis heute eigen geblieben“ (Eysenck 2004).
Eine Erweiterung der Psychometrischen Intelligenz (IQ) in Richtung einer Sozialen Intelligenz lehnt Eysenck kategorisch ab, und begründet das wie folgt: „Das Konzept der sozialen oder praktischen Intelligenz ist eindeutig viel zu komplex, als dass es irgendeinen wissenschaftlichen Wert haben könnte; zum Wesen der Wissenschaft gehört es ja auch und gerade, komplexe Konzepte auf einfache, elementarere zu reduzieren“ (Eysenck 2004). Die Vereinfachung komplexer Sachverhalte ist heute allerdings unangemessen.
Im Gegensatz dazu gibt es immer mehr Hinweise darauf, Intelligenz weniger reduktionistisch und besser als komplexes System zu verstehen, was eine deutlich bessere Passung mit dem heute üblichen Umgang mit Komplexität haben würde. Intelligenz-Theorien, die so einem Anspruch gerecht werden, sind:
„Die Triarchische Theorie (vgl. Sternberg 1985a/1985b) und die Multiple Intelligenzen Theorie (vgl. Gardner 1983/1993) scheinen geeignet zu sein, wenn es um eine notwendige Erweiterung des Intelligenzbegriffs geht (vgl. Siebert/Seidel 2000:48), da beide Theorien als Systemmodelle bezeichnet werden können, die „auch externe Aspekte des Erlebens und Denkens [mit einbeziehen, und] (…) Intelligenz als komplexes System betrachten“ (Schulze et al. 2006:15)“ (zitiert in Freund 2011).
In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.
Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:
„Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).
Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch
Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).
„Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).
Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.
Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.
Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch
Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI
Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.
Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.
„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).
Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.
Wenn es um Innovationen geht, denken viele an bahnbrechende Erfindungen (Inventionen), die dann im Markt umgesetzt, und dadurch zu Innovationen werden.. Da solche Innovationen oft grundlegende Marktstrukturen verändern, werden diese Innovationen mit dem Begriff „disruptiv“ charakterisiert. Siehe dazu auch Disruptive Innovation in der Kritik.
Betrachten wir uns allerdings die Mehrzahl von Innovationen etwas genauer, so entstehen diese hauptsächlich aus der Neukombination von bestehenden Konzepten. Dazu habe ich auch eine entsprechende Quelle gefunden, die das noch einmal unterstreicht.
„New ideas do not come from the ether; they are based on existing concepts. Innovation scholars have long pointed to the importance of recombination of existing ideas. Breakthrough often happen, when people connect distant, seemingly unrelated ideas“ (Mollick 2024).
Bei Innovationsprozessen wurden schon in der Vergangenheit immer mehr digitale Tools eingesetzt. Heute allerdings haben wir mit Künstlicher Intelligenz (GenAI) ganz andere Möglichkeiten, Neukombinationen zu entdecken und diese zu Innovationen werden zu lassen.
Dabei kommt es natürlich darauf an, welche Modelle (Large Language Models, Small Language Models, Closed Sourced Models, Open Weighted Models, Open Source Models) genutzt werden.
Wir favorisieren nicht die GenAI Modelle der bekannten Tech-Unternehmen, sondern offene, transparente und für alle frei zugängige Modelle, um daraus dann Innovationen für Menschen zu generieren.
Wir setzen diese Gedanken auf unseren Servern mit Hilfe geeigneter Open Source Tools und Open Source Modellen um:
Dabei bleiben alle Daten auf unseren Servern – ganz im Sinne einer Digitalen Souveränität.
Den Gedanken, dass Künstliche Intelligenz (Cognitive Computing) Innovationen (hier: Open Innovation) unterstützen kann, habe ich schon 2015 auf der Weltkonferenz in Montreal (Kanada) in einer Special Keynote vorgestellt.
Siehe dazu Freund, R. (2016): Cognitive Computing and Managing Complexity in Open Innovation Model. Bellemare, J., Carrier, S., Piller, F. T. (Eds.): Managing Complexity. Proceedings of the 8th World Conference on Mass Customization, Personalization, and Co-Creation (MCPC 2015), Montreal, Canada, October 20th-22th, 2015, pp. 249-262 | Springer
Wenn es um Künstliche Intelligenz geht, kommt auch immer öfter der Hinweis auf, dass Emotionale Intelligenz immer wichtiger wird. In dem Blogbeitrag AI City und Emotionale Intelligenz wird beispielsweise auf den Zusammenhang mit AI Citys verwiesen:
“For a smart city, having only “IQ” (intelligence quotient) is not enough; “EQ” (emotional quotient) is equally essential. (…) the emotions of citizen communities …“
Hier wird also vorgeschlagen, neben dem Intelligenz-Quotienten (IQ) noch einen Emotionalen Quotienten (EQ) bei der Betrachtung zu berücksichtigen.
Doch was verstehen wir unter „Emotionale Intelligenz“?
Ich beziehe mich hier auf eine Beschreibung von Salovay und Mayer, und bewusst nicht auf den populären Ansatz von Goleman:
“Emotional intelligence is a type of social intelligence that involves the ability to monitor one’s own and others’ emotions to discriminate among them, and to use the information to guide one’s thinking and actions (Salovey & Mayer 1990)”, cited in Mayer/Salovay 1993, p. 433).
Die Autoren sehen also Emotionale Intelligenz als Teil einer Sozialen Intelligenz. Spannend ist weiterhin, dass Mayer und Salovay ganz bewusst einen Bezug zur Multiplen Intelligenzen Theorie von Howard Gardner herstellen. Siehe Emotionale Intelligenz: Ursprung und der Bezug zu Multiplen Intelligenzen.
Betrachten wir nun Menschen und AI Agenten im Zusammenspiel, so muss geklärt werden, woran AI Agenten (bisher) bei Entscheidungen scheitern. Dazu habe ich folgenden Text gefunden:
“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).
Auch Daniel Goleman, der den Begriff „Emotionale Intelligenz“ populär gemacht hat, beschreibt den Zusammenhang von Emotionaler Intelligenz und Künstlicher Intelligenz am Arbeitsplatz, und weist auf die erforderliche Anpassungsfähigkeit (Adaptability) hin:
„Adaptability: This may be the key Ei competence in becoming part of an AI workplace. Along with emotional balance, our adaptability lets us adjust to any massive transformation. The AI future will be different from the present in ways we can’t know in advance“ (EI in the Age of AI, Goleman via LinkedIn, 30.10.2025).