Künstliche Cleverness statt Künstliche Intelligenz?

Eigene Darstellung, vgl. Martin Chiupa (2026) via LinkedIn

Sir Roger Penrose ist u.a. Mathematiker und theoretischer Physiker. In 2020 hat er eine Hälfte des Nobelpreises für Physik erhalten. Penrose hat sich darüber hinaus recht kritisch mit Künstlicher Intelligenz auseinandergesetzt.

Er ist zu der Auffassung gelangt, dass man nicht von Künstlicher Intelligenz (Artificial Intelligence), sondern eher von Künstlicher Cleverness (Artificial Cleverness) sprechen sollte. Dabei leitet er seine Erkenntnisse aus den beiden Gödelschen Unvollständigkeitssätzen ab. In einem Interview hat Penrose seine Argumente dargestellt:

Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World.
Available at: https://www.youtube.com/watch?v=biUfMZ2dts8

Da das alles ziemlich schwere Kost ist, hat Martin Chiupa (2026) via LinkedIn eine Übersicht (Abbildung) erstellt, die anhand verschiedener Kriterien Unterschiede zwischen Human Intelligence, AI Systems und Artificial Cleverness aufzeigt.

Penrose steht mit seiner Auffassung nicht alleine. Siehe dazu auch Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Soziale Kompetenz – eine Einordnung

Kanning, U. P. (2005): Soziale Kompetenzen. Göttingen: Hofgrefe.

In vielen Diskussionen verwenden Teilnehmer gleichlautende Begriffe, deren Bedeutungen allerdings unterschiedlich interpretiert werden. Weiterhin kann es vorkommen, dass Begriffe synonym verwendet werden, wodurch auch ein ziemliches Durcheinander entstehen kann.

In der Abbildung ist beispielsweise zu erkennen, dass der Oberbegriff Soziale Kompetenz, die Bereiche Soziale Intelligenz, Emotionale Intelligenz und auch Soziale Fertigkeiten umfasst – mit diesen Begriffen somit nicht gleichzusetzen ist.

Weiterhin können auch Emotionale Intelligenz und Emotionale Kompetenz unterschieden werden.

Ähnlich sieht es bei Persönlichkeitseigenschaften, -fähigkeiten und Kompetenzen aus.

Auch sollte bedacht werden, dass wir bei Intelligenz oft and den Intelligenz-Quotienten denken, was gerade in der Diskussion um Künstliche Intelligenz tückisch sein kann: OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Hier hat die Multiple Intelligenzen Theorie möglicherweise eine bessere Passung.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Emotionale Intelligenz: Der Begriff hat eine recht lange und bewegte Geschichte

Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.

In der heutigen Diskussion um „Intelligenz“ geht es gerade in Bezug auf Künstliche Intelligenz auch um Emotionale Intelligenz. Die meisten werden den Begriff von der Veröffentlichungen Daniel Golemans kennen. Stellvertretend möchte ich sein Buch „Emotional Intelligence“ aus dem Jahr 1995 nennen.

Goleman, D. (1995): Emotional Intelligence. Why It Can Matter More Than IQ.

Wenn man sich allerdings etwas genauer mit dem Begriff befasst, stößt man recht schnell auf Salovay/Meyer, die schon 1990 von „Emotionaler Intelligenz“ geschrieben haben.

Salovey, P.; Mayer, J. D. (1990): Emotional Intelligence. In: Imagination, Cognition and Personality. 9. Jg. Heft 3, S. 185-211.

Dabei ist interessant, dass sich die beiden bei ihren Überlegungen schon 1993 direkt auf die Multiple Intelligenzen Theorie bezogen haben. Was bedeutet, dass Emotionale Intelligenz als Teil der von Howard Gardner angenommenen Multiplen Intelligenzen Theorie gesehen werden kann.

In der Zwischenzeit habe ich in einer weiteren Quelle eine Notiz gefunden, die besagt, dass der Schwede Björn Rosendal schon 1976 den Begriff „Emotional Intelligence“ geprägt hat. Manchmal ist es gut, sich die Historie eines oft verwendeten Begriffs klar zu machen.

„He coined the term „emotional intelligence“ in 1976″
Rosendal , Björn (1981): The Emotional Intelligence, Edition Sellem.

Der Hinweis auf Rosendal fehlt auf der Wikipedia-Seite zu Emotionale Intelligenz. Dort gibt es allerdings noch zwei weitere Quellen:

„The term „emotional intelligence“ may have first appeared in a 1964 paper by Michael Beldoch. and a 1966 paper by B. Leuner“ (ebd.).

Möglicherweise gibt es noch weitere, frühere Erwähnungen von Emotionaler Intelligenz. Das Konstrukt hat sich – wie viele – über die Jahrzehnte weiterentwickelt. Das zu analysieren, würde allerdings diesen Beitrag sprengen.

Intelligentes Handeln: Was ist, wenn die Intelligenz im Handeln zu finden ist?

Wir gehen oft noch von scheinbar eindeutigen Ursache-Wirkungs-Zusammenhängen aus (Reduktionismus), Wir schließen beispielsweise bei einer intelligenten Handlung (Wirkung) eines Menschen auf eine möglicherweise dahinterliegende menschliche Intelligenz (Ursache).

Dass es solche einfachen Zusammenhänge in komplexen Systemen so nicht gibt, wurde schon vor vielen Jahrzehnten von Ryle bezweifelt. Er nannte ein solches Vorgehen Intellektualistische Legende. und erläutert: „Die intelligente Praxis“ (Ryle (1949:28), „ist nicht ein Stiefkind der Theorie“.

„Ganz allgemein gesprochen, macht die intellektualistische Legende die absurde Annahme, jede Verrichtung, welcher Art auch immer sie sei, erwerbe ihren gesamten Anspruch auf Intelligenz von einer vorausgehenden inneren Planung dieser Verrichtung“ (Siehe dazu weitaus differenzierter Neuweg, G. H. (2004): Könnerschaft und implizites Wissen).

Doch: Wo versteckt sich dann die Intelligenz?

Dazu schreibt Ryle: „Eine intelligente Handlung „hat eine besondere Art oder Ausführung, nicht besondere Vorgänger“ (1949, S. 36). Natürlich weist sie über sich selbst hinaus, aber „die Ausübung ist keine Doppeloperation, bestehend aus theoretischem Bekennen von Maximen und darauffolgender Umsetzung in die Praxis“ (1949, S. 56). Auch wenn wir eine Disposition, die sich als flexibles Können zeigt, mit Recht als Zeichen von Intelligenz betrachten, ist nicht eine innerliche Schattenhandlung, sondern das Können selbst der Träger der Intelligenz. Intellektuelle Operationen sind keine Ausführungen, die zu intelligenten Tätigkeiten hinzutreten. „Offene intelligente Verrichtungen sind nicht der Schlüssel zur Arbeit des Geistes; sie sind diese Arbeit“ (1949, S. 73)“ (vgl. Neuweg 2004).

Wenn also das Können selbst Träger der Intelligenz ist, und eine scheinbar intelligente Handlung eines Menschen nicht auf seine Menschliche Intelligenz zurückzuführen ist, so kann auch die „intelligente Handlung“ eines KI-Modells nicht auf eine Art von Künstlicher Intelligenz zurückgeführt werden – ein Kategorienfehler? Siehe dazu auch

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler?

Biologische Intelligenz – Intelligenz-Quotient (IQ) – Soziale Intelligenz

Eigene Darstellung nach Eysenck (2004)

In der heutigen Intelligenzdiskussion gibt es viele Facetten. Eine davon ist beispielsweise der Vergleich von Künstlicher Intelligenz mit dem Intelligenz-Quotienten (IQ). Dass dieser Vergleich möglicherweise ein Kategorienfehler ist, hatte ich schon in dem Beitrag Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler erläutert.

In diesem Blogbeitrag möchte ich nun die Überlegungen für einen Intelligenz-Quotienten (IQ) und mögliche Kritikpunkte daran erläutern.

Wie der Abbildung zu entnehmen ist, bezieht sich der Intelligenz-Quotient (IQ), der als Psychometrische Intelligenz bezeichnet werden kann, auch darauf, dass diese aus der Biologischen Intelligenz hervorgeht. Eysenck, ein Vertreter der Psychometrischen Intelligenz, deutet damit auf den biologischen Charakter und den in den menschlichen Genen vorgegebenen Teil von Intelligenz hin. Der von der Psychometrischen Intelligenz verwendete Intelligenzbegriff basiert konsequenterweise auf diesen Annahmen:

„Unser Begriff „Intelligenz“ leitet sich von den lateinischen Wörtern intelligentia und ingenium her. Jenes bedeutet in Ciceros Verwendungsweise in etwa „Begreifen“ und „Wissen“, dieses soviel wie „natürliche Veranlagung“ oder Begabung“. Die zwei Bedeutungskomponenten sind dem Begriff „Intelligenz“ bis heute eigen geblieben“ (Eysenck 2004).

Eine Erweiterung der Psychometrischen Intelligenz (IQ) in Richtung einer Sozialen Intelligenz lehnt Eysenck kategorisch ab, und begründet das wie folgt: „Das Konzept der sozialen oder praktischen Intelligenz ist eindeutig viel zu komplex, als dass es irgendeinen wissenschaftlichen Wert haben könnte; zum Wesen der Wissenschaft gehört es ja auch und gerade, komplexe Konzepte auf einfache, elementarere zu reduzieren“ (Eysenck 2004). Die Vereinfachung komplexer Sachverhalte ist heute allerdings unangemessen.

Im Gegensatz dazu gibt es immer mehr Hinweise darauf, Intelligenz weniger reduktionistisch und besser als komplexes System zu verstehen, was eine deutlich bessere Passung mit dem heute üblichen Umgang mit Komplexität haben würde. Intelligenz-Theorien, die so einem Anspruch gerecht werden, sind:

„Die Triarchische Theorie (vgl. Sternberg 1985a/1985b) und die Multiple Intelligenzen Theorie (vgl. Gardner 1983/1993) scheinen geeignet zu sein, wenn es um eine notwendige Erweiterung des Intelligenzbegriffs geht (vgl. Siebert/Seidel 2000:48), da beide Theorien als Systemmodelle bezeichnet werden können, die „auch externe Aspekte des Erlebens und Denkens [mit einbeziehen, und] (…) Intelligenz als komplexes System betrachten“ (Schulze et al. 2006:15)“ (zitiert in Freund 2011).

Siehe dazu etwas ausführlicher Intelligenztheorie: Anmerkungen zu Sternbergs Triarchischen Theorie und Gardners Multiple Intelligenzen Theorie.

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen

Image by StockSnap from Pixabay

In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.

In Zeiten von Künstlicher Intelligenz führt der Ansatz eines IQ in der Zwischenzeit zu verschiedenen „Stilblüten“: Beispielsweise hat das OpenAI Model „o1“ einen IQ von 120 – ein Kategorienfehler?

Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).

Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch

Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Künstliche Intelligenz und Menschliche Intelligenz

Künstliche Intelligenz – ein Kategorienfehler?

Sind wir nicht intelligent genug, um zu wissen, was Intelligenz ist?

Image by Gerd Altmann from Pixabay

Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).

Dass die Messbarmachung der Intelligenz in Zeiten von Künstlicher Intelligenz tückisch sein kann, habe ich in dem Beitrag OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler? erläutert. Hans Markus Enzensberger hat sich auch mit der IQ-Messung intensiv befasst, und ist zu folgendem Schluss gekommen:

Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).

Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.

Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.

Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch 

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Über den Unsinn von Intelligenztests

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Added Values: Nutzendimensionen, Wert und Werte

Krieg/Groß/Bauernhansl (2024) (Hrsg.): Einstieg in die Mass Personalization. Perspektiven für Entscheider

Wenn es um den Nutzen, oder den Wert, eines Produktes oder einer Dienstleistung geht, sollten grundsätzlich zwei Punkte beachtet werden.

(1) Die verschiedenen Dimensionen von Nutzen (Added Values)
In der Abbildung ist zu erkennen, dass Added Values fünf Dimensionen beinhalten. Neben dem funktionalen Nutzen, sind das natürlich der wirtschaftliche Nutzen, ein prozessoraler Nutzen und ein emotionaler Nutzen, Die Dimension, die stärker in den Fokus rücken sollte, ist der soziale Nutzen (eigene Hervorhebung in der Abbildung). Am Beispiel der Anwendung von Künstlichen Intelligenz wird deutlich, dass der Fokus in der aktuellen Diskussion zu sehr auf dem wirtschaftlichen Nutzen liegt, und zu wenig den sozialen Nutzen thematisiert.

(2) Nutzen, Wert und Werte
Bei einer ausgewogenen Betrachtung zur Nutzung Künstlicher Intelligenz auf der persönlichen Ebene, auf der Team-Ebene, auf der organisationalen Ebene oder auf gesellschaftlicher Ebene können Werte als Ordner dienen. „Der Begriff »Werte« unterscheidet sich vom Begriff »Wert« dadurch, dass der erste Begriff die Gründe beschreibt, warum etwas für jemanden wichtig ist. Werte repräsentieren normative Grundlagen, die als Leitprinzipien für individuelles Verhalten und gesellschaftliche Strukturen dienen. Sie bilden die Basis für die Bewertung von Wert und beeinflussen die Art und Weise, wie Individuen und Gesellschaften Güter, Dienstleistungen oder Handlungen priorisieren“ (Hämmerle et al. 2025, Fraunhofer HNFIZ).

Siehe dazu auch

Künstliche Intelligenz und Werte für das Zusammenleben in der Europäischen Union

Agile Organisation: Werte und Prinzipien als Hebelwirkung

Wirkungstreppe bei Not-for-Profit-Projekten: Output, Outcome und Impact

MCP: Konferenz zu Mass Customization and Personalization im September 2026

Open Source AI: Kimi K2 Thinking vorgestellt

Mit DeepSeek ist chinesischen Entwicklern ein Coup gelungen, denn sie konnten zeigen, dass ein KI-Modell nicht teuer sein muss. Die amerikanischen Tech-Giganten standen damals mit ihren Milliarden-Investitionen ziemlich schlecht dar.

Nun gibt es mit Kimi K2 Thinking ein weiteres Modell, mit dem chinesische Entwickler zeigen, wie mit relativ wenigen Ressourcen – und damit Kosten – ein leistungsfähiges Modell angeboten werden kann. Der Schwerpunkt des Modells liegt dabei auf „Coding“.

Es ist Open Source basiert und wurde unter der MIT-Lizenz veröffentlicht. Diese enthält eine interessante Klausel: Da amerikanische Konzerne chinesische Open Source Modelle gerne für ihre Entwicklungen nutzen – ohne das transparent zu machen – ist die freie kommerzielle Nutzung bis zu einem monatlichen Umsatz von 20 Millionen Dollar möglich.

Kimi K2 Thinking ist ein MoE-Modell, (for Coding) dessen Entwicklung nur 4,6 Millionen Dollar gekostet haben soll – wieder eine beeindruckende Kennzahl. Darüber hinaus zeigen Benchmarks, die enorme Leistungsfähigkeit des Modells. Weitere Informationen sind in dem folgenden Beitrag zusammengefasst:

Moonshot AI stellt Kimi K2 Thinking als „bestes Open-Source-Thinking-Modell“ vor (Krempler, J. 2025, in the decoder vom 07.11.2025).

Mal sehen, ob wir das Modell auch in LocalAI, bzw. in Ollama auf unseren Servern einbinden können. Bis dahin kann auf der Landingpage Kimi K2 Thinking getestet werden.