Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen

Image by StockSnap from Pixabay

In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.

In Zeiten von Künstlicher Intelligenz führt der Ansatz eines IQ in der Zwischenzeit zu verschiedenen „Stilblüten“: Beispielsweise hat das OpenAI Model „o1“ einen IQ von 120 – ein Kategorienfehler?

Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).

Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch

Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Künstliche Intelligenz und Menschliche Intelligenz

Künstliche Intelligenz – ein Kategorienfehler?

Künstliche Intelligenz – It All Starts with Trust

In einem eher unsicheren und turbulenten Umfeld kann es dazu kommen, dass man als Einzelner, oder als Organisation anderen Menschen, oder anderen Organisationen, misstraut. Das wiederum führt dazu, dass alle Abläufe bis ins Detail geregelt und kontrolliert werden – getreu dem Spruch „Vertrauen ist gut, Kontrolle ist besser“. Das funktionierte auch in einer eher sich langsam verändernden Welt ganz gut.

Um in einem heute eher vorliegenden dynamischen Umfeld schnell und flexibel voran zu kommen, ist ein Arbeiten auch in komplexen Netzwerken gefordert. Dabei kann nicht alles bis ins kleinste Detail geregelt sein, sodass es auf ein gewisses Maß an Vertrauen in der Zusammenarbeit ankommt, wodurch wiederum auf einen Teil der Kontrolle verzichtet werden kann.

„Menschliches Handeln in modernen Gesellschaften allgemein und in modernen Organisationsformen, wie Netzwerke insbesondere, erfordern Vertrauen darauf, dass sich andere Menschen gemäß dem mit dem eigenen Handeln verbundenen Erwartungen verhalten. Vertrauen ist dabei ein Mechanismus, der es ermöglicht, auf einen Teil der Kontrolle zu verzichten, und der die Bereitschaft erhöht, ein Risiko einzugehen (Giddens 1995, 1997, Luhmann 2000). Gerade in Netzwerken ist dies besonders relevant, weil Zusammenarbeit unter höherer Unsicherheit stattfindet als in traditionellen Organisationen (…)“ (Vollmert, A.; Wehner, T., in Huber et al. 2005).

Kommt es also in einem Netzwerk zu einer wechselseitigen Vereinbarung von Regeln, so kann Systemvertrauen entstehen.

Betrachten wir die bekannten KI-Modelle (KI-Systeme, Netzwerke) wie ChatGPT, Gemini etc., so können diese KI-Systeme als Closed Models bezeichnet werden, da sie wenig oder kaum Transparenz bieten – also wie eine Art Black Box agieren. Diese In-Transparenz widerspricht den oben genannten Voraussetzungen für eine vertrauensvolle Zusammenarbeit.

Ganz anders sieht es bei Open Source AI Modellen (Systemen, Netzwerken) aus, die transparent sind, und sich an die Open Source Ai – Definition halten. Das alles stellt eine gute Basis für eine vertrauensvolle Zusammenarbeit im Netzwerk dar. Siehe dazu auch

Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century

Das Kontinuum zwischen Closed Source AI und Open Source AI

Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Gedanken zu Vertrauen und Misstrauen

Neue Arbeitswelt: Vertrauen als Ersatz für Kontrolle?

Behandelt die Wissensgesellschaft ihr vermeintlich höchstes Gut „Wissen“ angemessen?

Image by Bruno from Pixabay

Die heute propagierte Wissensgesellschaft wird oft kritisiert. Beispielsweise findet man in Liessmann (2008): Theorie der Unbildung den Hinweis, dass Wissen im Gegensatz zu Information nicht unbedingt zweckorientiert ist:

„Wissen lässt sich viel, und ob dieses Wissen unnütz ist, entscheidet sich nie im Moment der Herstellung oder Aufnahme des Wissens“ (ebd.).

Der Autor treibt seine Kritik an der Entwicklung bei den Themen, Wissen, Wissen als Ressource und Wissensmanagement mit einer These auf die Spitze, indem er formuliert:

„Man könnte die These riskieren, dass in der Wissensgesellschaft das Wissen gerade keinen Wert an sich darstellt. Indem das Wissen als ein nach externen Kriterien wie Erwartungen, Anwendungen und Verwertungsmöglichkeiten hergestelltes Produkt definiert wird, ist es naheliegend, dass es dort, wo es diese Kriterien nicht entspricht, auch rasch wieder entsorgt werden muss. Gerne spricht man von der Beseitigung des veralteten Wissens, vom Löschen der Datenspeicher und vom Abwerfen unnötigen Wissensballasts. Mit anderen Worten: Die Wissensgesellschaft behandelt ihr vermeintlich höchstes Gut mitunter so, als wäre es der letzte Dreck“ (Liessmann 2008).

Wissen, immer und überall unter Nutzengesichtspunkten zu sehen, ist fatal. Wissen um seiner selbst willen kann durch überraschende Neukombinationen zu kreativen Gedanken und Problemlösungen führen. Grenzen wir dieses Wissen aus, wird alles Wissen beliebig, und damit auch weniger kreativ, bzw. innovativ, was uns wieder zu den kritisierten Nutzengesichtspunkten führt.

Es scheint paradox zu sein: Wissen ohne Nutzengesichtspunkte zuzulassen, führt zu einer besseren Nutzung von Wissen.

Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, Wissen gut zu verstehen, um den Umgang damit angemessen zu ermöglichen. Bei einer einseitig nutzenorientierten Betrachtung von Wissen, kann es gesellschaftlich zu Verwerfungen kommen – gerade so, als ob ein Sportler nur den rechten Arm trainieren würde.

Sind wir nicht intelligent genug, um zu wissen, was Intelligenz ist?

Image by Gerd Altmann from Pixabay

Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).

Dass die Messbarmachung der Intelligenz in Zeiten von Künstlicher Intelligenz tückisch sein kann, habe ich in dem Beitrag OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler? erläutert. Hans Markus Enzensberger hat sich auch mit der IQ-Messung intensiv befasst, und ist zu folgendem Schluss gekommen:

Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).

Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.

Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.

Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch 

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Über den Unsinn von Intelligenztests

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Künstliche Intelligenz: Wenn die Lösung das Problem ist

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Aktuell kann man den Eindruck gewinnen, dass alle Aufgaben oder Probleme mit Künstlicher Intelligenz angegangen werden, um Lösungen zu generieren.

Im Zusammenspiel zwischen Lösung und Problem hat Paul Watzlawick auf die Fehllogik und die zirkulare Kausalität hingewiesen.

Das oft genannte Beispiel von jemanden mit Schlafproblemen, der versucht, krampfhaft einzuschlafen, und damit die Situation eher verschlechtert, illustriert das etwas.

„Was Menschen tun, um ein Problem zu lösen, ist oft genau das, was das Problem hervorruft“ nach Paul Watzlawick, zitiert in Hartkemeyer/Freeman/Dhority (2006): Miteinander Denken. Das Geheimnis des Dialogs,

Ich frage mich: Kann es sein, dass die Nutzung der bekannten KI-Modelle nicht nur zur Lösung eines Problems führt (führen kann), sondern diese Problemlösung das ursprüngliche Problem noch verstärkt?

In einer abgewandelten Eigenfassung des Textes von Paul Watzlawick würde das wie folgt aussehen:

„Was Menschen tun, um ein Problem zu lösen (RF: z.B. ChatGPT nutzen…), ist oft genau das, was das Problem hervorruft (RF: z.B. ChatGPT nutzen….. ) – frei von mir nach Paul Watzlawick geändert. Ich hoffe er sieht mir das nach.

Es ist gut, wenn wir die enormen Möglichkeiten von KI nutzen, und kritisch hinterfragen (Kritisches Denken)

Open Source AI: Molmo 2 mit Schwerpunkt auf Videos

Auf die Omo 3 Familie von AI2 hatte ich ja schon in dem Beitrag vom 06.12.205 hingewiesen. Es geht dabei um frei verfügbare KI-Modelle, die auf der Website im Playground getestet, oder auch auf dem eigenen Server genutzt werden können.

Im Dezember 2025 wurde darüber hinaus auch noch die Modell-Familie Molmo 2 mit dem veröffentlicht. Der besondere Schwerpunkt der Modell-Familie sind Videos:

Molmo 2 (8B) is Qwen 3-based and our best overall model for video grounding and QA. 

Molmo 2 (4B) – also Qwen 3-based – is optimized for efficiency. 

Molmo 2-O (7B) is built on Olmo, offering a fully open end-to-end model flow including the underlying LLM. This Olmo-backed variant is particularly useful for researchers who want full control over every part of the stack—vision encoder, connector, and language model.

Die verschiedenen Modelle bieten auch wieder die Möglichkeit, je nach technischer Ausstattung, diese auf den eigenen Servern, oder im Playground zu testen – probieren Sie es doch einfach einmal aus.

Alle Modelle von AI2 sind Open Soirce AI – ganz im Sinner einer Digitalen Souveränität.

Mass Customization und Quantenmechanik

In verschiedenen Blogbeiträgen habe ich immer wieder darauf hingewiesen, dass wir uns von den in vielen Bereichen diskutierten Dichotomien (Entweder-oder) verabschieden sollten. Im Wissensmanagement beispielsweise haben wir es mit den beiden Polen implizites Wissen oder explizites Wissen zu tun. Zwischen beiden Polen gibt es allerdings ein Kontinuum des „sowohl-als-auch“. Ähnlich sieht es in anderen Bereichen aus.

Im Innovationsmanagement kennen wir die Extreme Closed Innovation oder Open Innovation. Beim Projektmanagement gibt es nicht nur das klassische Projektmanagement oder das agile Projektmanagement, sondern zwischen beiden Polen ein Kontinuum. Ähnlich sieht es bei der Künstlichen Intelligenz aus, wo es von Closed AI Models über Open Weight AI Models bis zu Open Source AI Models auch ein Kontinuum der Möglichkeiten gibt.

Diese Entwicklung deutet schon darauf hin, dass es in vielen Bereichen nicht mehr um ein „entweder-oder“, sondern um ein angemessenes „sowohl-als-auch“ geht. Vor über 30 Jahren hat B. Joseph Pine II schon darauf hingewiesen, und dabei eine Verbindung von der Quantenmechanik zu Mass Customization als hybride Wettbewerbsstrategie hergestellt:

„Today management has much the same problem: We still build most of our models around false dichotomies. To name but a few, we speak of strategy versus operations, cost versus quality, and centralized versus decentralized. The way out of this dilemma for scientist, finally, was to abandon the perspective of irreconcilable opposites, and to embrace interpretations that accept contradictions without trying to resolve them. Quantum mechanics does that in physics, mass customization does that in business“ (Pine 1993).

Die hybriden Möglichkeiten zur Schaffung von Werten für Kunden (User) sind heute (nach mehr als 30 Jahre nach der Veröffentlichung) in vielen Organisationen immer noch nicht bekannt.

Auf der nächsten MCP 2026 – Konferenz, im September in Balatonfüred (Ungarn), haben Sie die Chance, mit führenden Forschern und Praktikern über die Themen Mass Customization, Mass Personalization und Open Innovation zu sprechen.

Als Initiator der Konferenzreihe stehe ich Ihnen gerne für weitere Fragen zur Verfügung.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Die negativen und positiven Seiten von Routine

Image by Foundry Co from Pixabay

Der Trend in der Arbeitswelt geht dahin, Routinetätigkeiten zu reduzieren, um z.B. mehr Projekte durchführen zu können. Dabei werden Routinetätigkeiten oftmals durch Technologien ersetzt – ganz im Sinne der Wirtschaftlichkeit. Es ist verständlich, dass wir keine stupiden Handgriffe in der Produktion oder in der Verwaltung durchführen wollen.

Andererseits gibt es ja auch die liebgewonnenen Routinen, wie der morgendliche Kaffee, das gemeinsame Abendessen mit der Familie, der regelmäßige Sport mit anderen am Wochenende, usw. Solche Routinen sind eher positiv besetzt, da wir uns dabei wohl fühlen.

Betrachten wir also die Routine etwas umfassender, so können wir erkennen, dass Routine negative und positive Seiten hat. In der Geschichte sind daher auch zwei unterschiedliche Perspektiven zu erkennen:

„Die positive Seite der Routine wurde in Diderots großer Encyclopédie (1751-1772) dargestellt, die negative Seite der geregelten Arbeitszeit zeigte sich äußerst dramatisch in Adam Smiths Der Wohlstand der Nationen (1776). Diderot war der Meinung, die Arbeitsroutine könne wie jede andere Form des Auswendiglernens zu einem Lehrmeister der Menschen werden. Smith glaubte, Routine stumpfe den Geist ab. Heute steht die Gesellschaft auf der Seite von Smith. (…) Das Geheimnis der industriellen Ordnung lag im Prinzip in der Routine“ (Sennett 2002)

Routine ist also per se nicht geistlos, sie kann erniedrigen, sie kann aber auch beschützen. Routine kann die Arbeit zersetzen, aber auch ein Leben zusammenhalten (vgl. dazu Sennett 2002).

Diese Gedanken führen zwangläufig zu der aktuellen Diskussion um KI-.Agenten, die im einfachsten Fall darauf ausgerichtet sind, Abläufe zu automatisieren. Siehe dazu beispielsweise Mit Langflow einen einfachen Flow mit Drag & Drop erstellen.

Berücksichtigen wir die weiter oben von Sennett zusammengefassten Hinweise zur Routine, so sollten wir genau überlegen, welche Routinetätigkeiten durch Künstliche Intelligenz ersetzt werden, und welche Routinetätigkeiten eher nicht. Routine kann eben auch in einem turbulenten gesellschaftlichen Umfeld (emotional) stabilisieren, ja sogar schützen.

IPMA Leitfaden zum ethischen Einsatz Künstlicher Intelligenz im Projektmanagement

Quelle: Link (PDF)

Es liegt natürlich auf der Hand die für die bestehenden projektmanagement-Standards und Vorgehensmodelle Künstliche Intelligenz einzusetzen. Interessant dabei ist, dass das weltweit führende Institut empfiehlt, ethisch vorzugehen und dazu noch einen Leitfaden herausgebracht hat.

IPMA (2025): IPMA Guidelines on Applying AI in Project Management. Moving the profession forward by acting ethically! | PDF

Auf knapp 30 Seiten wird der Bezug zum professionellen Projektmanagement hergestellt und hervorgehoben, anhand welcher Kriterien Künstliche Intelligenz beurteilt werden sollten (ebd.):

„Selecting the right AI tools is a critical step for project managers. Commercially available AI tools vary in functionality, quality, and ethical considerations. When selecting and using these tools, project managers should evaluate them based on the following criteria:
» Alignment with Project Goals
» Vendor Transparency:
» Ethical and Social Impact:
» Adaptability and Scalability

Wenn Projektmanager weltweit diese Hinweise beachten, so kommen aus meiner Sicht die häufig genutzten, kommerziellen KI-Apps wie ChatGPT, Grok, Gemini etc. nicht infrage, da sie die Punkte „Vendor Transparency“ (Transparent der Anbieter) und „Ethical and Social Impact“ (Ethische und Soziale Auswirkungen) nicht, oder nur wenig berücksichtigen.

Aus meiner Sicht kommen daher hauptsächlich KI-Apps infrage, die der Open Source AI – Definition entsprechen. – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch

Das Kontinuum zwischen Closed Source AI und Open Source AI

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften