Conceptual technology illustration of artificial intelligence. Abstract futuristic background
Für komplexe Problemlösungen ist es wichtig, implizites Wissen zu erschließen. Wenig überraschend stellt Polanyi daher die Meister-Lehrling-Beziehung, in der sich Lernen als Enkulturationsprozess vollzieht, als essentielles Lern-Lern-Arrangement heraus:
„Alle Kunstfertigkeiten werden durch intelligentes Imitieren der Art und Weise gelernt, in der sie von anderen Personen praktiziert werden, in die der Lernende sein Vertrauen setzt“ (PK, S. 206). (Neuweg 2004).
Das setzt auch die Anerkenntnis der Autorität des Experten voraus. Nach Dryfus/Dryfus ergeben sich vom Novizen bis zum Experten folgende Stufen der Kompetenzentwicklung:
Das Modell des Fertigkeitserwerbs nach Dreyfus/Dreyfus (Neuweg 2004)
Wenn wir uns nun die Beziehung zwischen Künstlicher Intelligenz und dem (nutzenden) Menschen ansehen, so kann diese Beziehung oftmals wie eine Meister-Lehrling-Beziehung beschrieben werden.
Dabei ist die „allwissende“ Künstliche Intelligenz (z.B. in Form von ChatGPT etc.) der antwortende Meister, der die Fragen (Prompts) des Lehrlings (Mensch) beantwortet. Gleichzeitig wird vom Lehrling (Mensch) die Autorität des Meisters (ChatGPT) anerkannt. Dieser Aspekt kann dann allerdings auch für Manipulationen durch die Künstliche Intelligenz genutzt werden.
Ein weiterer von Polanyi angesprochene Punkt ist das erforderliche Vertrauen auf der Seite des Lernenden in den Meister. Kann ein Mensch als Nutzer von Künstlicher Intelligenz Vertrauen in die KI-Systeme haben? Siehe dazu Künstliche Intelligenz – It All Starts with Trust.
Gerade wenn es um komplexe Probleme geht hat das Lernen von einer Person, gegenüber dem Lernen von einer Künstlichen Intelligenz, Vorteile. Die Begrenztheit von KI-Agenten wird beispielhaft auf der Plattform Rent a Human deutlich, wo: KI-Agenten Arbeit für Menschen anbieten, denn
In diesem Blogbeitrag möchte ich nun die Überlegungen für einen Intelligenz-Quotienten (IQ) und mögliche Kritikpunkte daran erläutern.
Wie der Abbildung zu entnehmen ist, bezieht sich der Intelligenz-Quotient (IQ), der als Psychometrische Intelligenz bezeichnet werden kann, auch darauf, dass diese aus der Biologischen Intelligenz hervorgeht. Eysenck, ein Vertreter der Psychometrischen Intelligenz, deutet damit auf den biologischen Charakter und den in den menschlichen Genen vorgegebenen Teil von Intelligenz hin. Der von der Psychometrischen Intelligenz verwendete Intelligenzbegriff basiert konsequenterweise auf diesen Annahmen:
„Unser Begriff „Intelligenz“ leitet sich von den lateinischen Wörtern intelligentia und ingenium her. Jenes bedeutet in Ciceros Verwendungsweise in etwa „Begreifen“ und „Wissen“, dieses soviel wie „natürliche Veranlagung“ oder Begabung“. Die zwei Bedeutungskomponenten sind dem Begriff „Intelligenz“ bis heute eigen geblieben“ (Eysenck 2004).
Eine Erweiterung der Psychometrischen Intelligenz (IQ) in Richtung einer Sozialen Intelligenz lehnt Eysenck kategorisch ab, und begründet das wie folgt: „Das Konzept der sozialen oder praktischen Intelligenz ist eindeutig viel zu komplex, als dass es irgendeinen wissenschaftlichen Wert haben könnte; zum Wesen der Wissenschaft gehört es ja auch und gerade, komplexe Konzepte auf einfache, elementarere zu reduzieren“ (Eysenck 2004). Die Vereinfachung komplexer Sachverhalte ist heute allerdings unangemessen.
Im Gegensatz dazu gibt es immer mehr Hinweise darauf, Intelligenz weniger reduktionistisch und besser als komplexes System zu verstehen, was eine deutlich bessere Passung mit dem heute üblichen Umgang mit Komplexität haben würde. Intelligenz-Theorien, die so einem Anspruch gerecht werden, sind:
„Die Triarchische Theorie (vgl. Sternberg 1985a/1985b) und die Multiple Intelligenzen Theorie (vgl. Gardner 1983/1993) scheinen geeignet zu sein, wenn es um eine notwendige Erweiterung des Intelligenzbegriffs geht (vgl. Siebert/Seidel 2000:48), da beide Theorien als Systemmodelle bezeichnet werden können, die „auch externe Aspekte des Erlebens und Denkens [mit einbeziehen, und] (…) Intelligenz als komplexes System betrachten“ (Schulze et al. 2006:15)“ (zitiert in Freund 2011).
Wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität (Bandte 2007:50, aus Stüttgen 2003): Eigene Hervorhebungen
In unserer komplexen Welt verwenden viele den Begriff „Komplexität“, doch fragt man nach wird deutlich, dass an unterschiedliche naturwissenschaftliche Ansätze gedacht wird. In der Abbildung sind daher wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität zu sehen, die den verschiedenen Disziplinen zugeordnet sind
Ein wesentlicher Schwerpunkt in der Komplexitätsdiskussion befasst sich mit SELBSTORGANISATION. In der Abbildung sind von mir bekannte Vertreter zu Selbstorganisations-Theorien hervorgehoben, die aus den Bereichen Biologie und Physik/Chemie kommen. Überraschend ist dabei, dass viele wichtige Theorien zum Thema um 1970 fast zeitgleich erschienen sind:
„Es war der magische Zeitpunkt um 1970, als fast zeitgleich erste naturwissenschaftliche Theorien der Selbstorganisation erschienen, die eine paradigmatische Wende einläuteten: die biologische Theorie der Autopoiese von Humberto Maturana, die Arbeit zur molekularen Evolution von Manfred Eigen, die thermodynamische Theorie dissipativer Systeme fernab vom Gleichgewicht von Ilya Prigogine sowie die aus der Quantenoptik und der Theorie der Phasenübergänge stammende Theorie der Synergetik von Hermann Haken. Die Begründer dieser Theorien kamen aus sehr unterschiedlichen Disziplinen“ (Petzer/Steiner 2016).
Da ich mich viel mit Innovationen befasse, ist es mir natürlich wichtig zu erfahren, welche Passung diese Theorien mit der Entstehen neuer Dienstleistungen, Produkte oder (allgemein) neuen Gesellschaftsstrukturen haben. Sehr interessant ist dabei, dass die Autopoiese (Maturana) wohl nicht so gut geeignet erscheint, und die Synergetik von Haken (1996) wohl besser passt:
„Obwohl die Autopoiese einen großen Einfluss im biologischen und vor allem im soziologischen Bereich hat, so ist ihr Bezug zur Selbstorganisation eher im zirkulären Wirken bestehender Ordnung zu sehen. In Hinblick auf die Entstehung (Emergenz) von Ordnung und verschiedener Ordnungsstufen trifft die Autopoiese keine Aussagen. Sie setzt bereits Ordnung voraus. Daher sah Hermann Haken auch keinen Anlass sich mit dieser, vor allem im Rahmen des Radikalen Konstruktivismus in der Literatur hofierten und diskutierten Theorie, intensiver auseinanderzusetzen.
Übertragen auf soziale Systeme kann die Autopoiesetheorie Innovation oder die Entstehung neuer Gesellschaftsstrukturen nicht thematisieren„.
Quelle: (Petzer/Steiner 2016). Die Autoren nennen zur Unterstützung dieser These noch folgende Quellen:
– Hermann Haken: Synergetics. An Introduction, New York, NY: Springer 1977. – Bernd Kröger: Hermann Haken und die Anfangsjahre der Synergetik, Berlin: Logos 2013, S. 259. – Vgl. auch Marie-Luise Heuser: „Wissenschaft und Metaphysik. Überlegungen zu einer allgemeinen Selbstorganisationstheorie“, in: Wolfgang Krohn/Günter Küppers (Hg.): Selbstorganisation.
„Es genügt also, das Verhalten der wenigen instabilen Systemelemente zu erkennen, um den Entwicklungstrend des gesamten Systems und seine makroskopischen Muster zu bestimmen. Die Größen, mit denen das Verteilungsmuster der Mikrozustände eines Systems charakterisiert wird, heißen nach dem russischen Physiker Lew D. Landau „Ordnungsparameter““ (Mainzer 2008:43-44).
Mit Hilfe Künstlicher und Menschlicher Intelligenz sollte es möglich sein, diese wenigen instabilen Systemelemente zu erkennen (Ordnungsparameter), um makroskopische Muster zu bestimmen.
In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.
Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:
„Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).
Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch
Alle Unternehmen wollen auf ihre Kunden, ihre User ausgerichtet sein, um Wert für diese, und für das eigene Unternehmen zu generieren. Dazu werden die Kunden befragt und analysiert, beispielsweise in Kaufhäusern. Dass das nicht immer zum Erfolg führt, hat Peter Drucker schon vor 30 Jahren erkannt:
„Doch die ersten Anzeichen fundamentaler Veränderungen sind kaum innerhalb der eigenen Firma oder den eigenen Kunden auszumachen. Fast immer zeigen sie sich unter den Nichtkunden eines Unternehmens, denn ihre Zahl ist immer größer als die der Kunden“ (Drucker 1996).
Er weist berechtigt auf die große Anzahl von Nichtkunden hin. Wenn also ein Unternehmen einen Marktanteil von 20% hat, heißt das, dass 80 Prozent des Marktes aus Nichtkunden besteht.
Kaufhäuser beispielsweise befragen und analysieren schon lange ihre Kunden. Die Nichtkunden, die in der Zwischenzeit immer mehr online einkauften, wurden über eine lange Zeit ignoriert, bis es jetzt fast zu spät ist.
(8) Feedback wird weder gehört noch verstanden Der wichtigste Regelungsmechanismus für komplexe Systeme wird nicht verwendet. Man überhört jede Form von Kritik, Bestätigung, Ideen, Hinweisen und schwachen Signalen und nichts davon findet Eingang in das System. Quelle: Stephanie Borgert (2015) : Irrtümer der Komplexität. Gabal, Offenbach.
Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität
Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:
„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).
Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.
Alles ist heute mit allem irgendwie vernetzt, sodass auf allen Ebenen Entgrenzung stattfindet, die wiederum zu Komplexität in allen Bereichen einer Gesellschaft führt. Dabei sollten wir die eher „technische“ Komplexität von der sozialen Komplexität unterscheiden.
Es ist in dem Zusammenhang interessant, dass „Geistes- und Sozialwissenschaften besonders gut geeignet sind, (1) die Entwicklung sozialer Komplexität zu beschreiben und (2) das gesellschaftliche Schema, innerhalb dessen die Sinngebung erfolgt, neu zu gestalten“ (Blogbeitrag).
Dabei stellt sich sofort die Frage: Wie kann soziale Komplexität bewältigt werden? Dazu habe ich bei bei John Erpenbeck folgendes gefunden:
„Ein besonderer Anstoß für mich war Hermann Hakens Artikel „Synergetik und Sozialwissenschaften“ in der Zeitschrift Ethik und Sozialwissenschaften (Haken / Wunderlin 2014). Er legte nahe, Werte als – von ihm so genannte – „Ordner“ sozialer Komplexität zu verstehen. Ohne solche Ordner wird Komplexität nicht beherrschbar. Sie sind zugleich zufällig und notwendig. Sie haben ihre Wirklichkeit jedoch nur, wenn sie durch Einzelne verinnerlicht und gelebt werden. Werte sind damit stets Ordner individueller oder kollektiver, physischer oder geistiger menschlicher Selbstorganisation. Kurz: Werte sind Ordner menschlicher Selbstorganisation (Haken 1996). Nicht alle Ordner sind Werte, aber alle Werte sind Ordner im Sinne von Haken (1983)“ (Erpenbeck, J. (2024): Werte als Inseln zeitlicher Stabilität im Fluss selbstorganisierter sozialer Entwicklungen, in Störl (Hrsg.) (2024): Zeit als Existenzform der Materie).
Es wundert daher nicht, dass Werte in allen möglichen Zusammenhängen thematisiert werden. Aktuell geht es beispielsweise bei der Nutzung der Künstlicher Intelligenz darum zu klären, ob wir die Werte der amerikanischen Tech-Konzerne, die Werte der chinesischen Politik oder unsere europäischen Werte als Ordner für soziale Komplexität nutzen wollen.
Früher haben alle in den Organisationen von Change gesprochen, heute reden alle über Transformation. In dem Blogbeitrag Wandel, Change, Transformation oder doch Transition? habe ich dazu verschiedene Perspektiven zusammengefasst.
Auf der gesellschaftlichen Ebene wird im Zusammenhang mit Transformation oft davon ausgegangen, dass es eine relativ homogene Gesellschaft gibt, doch dem ist nicht so. Ein gut gemeinter Wille, beispielsweise der Politik, zur Veränderungen in einer Gesellschaft reicht einfach nicht.
Gerade bei Veränderungsprozessen merken alle Beteiligten – manchmal schmerzhaft- , dass es in einer Gesellschaft viele und vielschichtige Widerstände gibt. Es ist wieder einmal bezeichnend, dass es gerade Soziologen sind, die darauf hinweisen – beispielsweise Armin Nassehi:
„Aber dieser Triumph des Willens rechnet nicht mit dem Eigensinn, mit der inneren Komplexität und den Widerständen einer Gesellschaft, die eben kein ansprechbares Kollektiv ist. Und sie rechnet nicht mit der populistischen Reaktion auf Krisenerfahrungen. Dabei wird immer deutlicher: Man kann nicht gegen die Gesellschaft transformieren, sondern nur in ihr und mit ihr – und nur mit ihren eigenen Mitteln“ (Der Soziologe Armin Nassehi in einem Interview in brand eins 12/2024).
In seinem Buch weist Nassehi auch darauf hin, dass die notwendigen Veränderungen trotz des vielschichtigen Widerstandes in allen Ecken der Gesellschaft schon geschehen.
»Gesellschaftliche Transformation kann nicht als große Form funktionieren, sondern nur als eine, die in konkreten Situationen erfolgreich sein kann. Das ganze Programm der kleinen Schritte läuft längst …“ Armin Nassehi (2024): Kritik der großen Geste. Anders über gesellschaftliche Transformation nachdenken | Bei Amazon
Es ist auch hier wieder interessant zu sehen, dass es immer wieder Soziologen sind, die bei komplexen Zusammenhänge spannende alternative Deutungsmuster anbieten. Der Mainstream wird diese allerdings nicht aufnehmen, da Mainstream häufig nicht klären und aufklären, sondern eher beeinflussen will. Weitere Blogbeiträge dazu finden Sie hier.
Je vernetzter die Strukturen einer Organisation (innen und außen) sind, um so höher ist der Grad an Komplexität. Dabei unterliegen viele einem Irrtum, denn der Begriff „komplex“ ist keine Steigerungsform von „kompliziert“. Interessant ist, dass es durchaus Anzeichen für den falschen Umgang mit Komplexität in Unternehmen git. Dazu habe ich folgendes gefunden:
9 Anzeichen für einen falschen Umgang mit Komplexität im Unternehmen:
(1)Bekämpfung der Symptome anstelle der Ursachen Es wird immer nur das repariert, was gerade hakt. Eine Suche nach der Ursache hinter dem Symptom findet nicht statt. Symptom und Problem werden gleichgesetzt.
(2) Übergeneralisierung Wenige (oft unzusammenhängende) Ereignisse führen zu allgemeinen Regeln und Schlussfolgerungen für ähnliche Situationen in der Zukunft.
(3) Methodengläubigkeit Um Fehler künftig zu vermeiden und Unwägbarkeiten „bestimmbar“ zu machen, sucht man ständig nach neuen Methoden oder überarbeitet die bestehenden.
(4) Projektmacherei „Wenn du nicht mehr weiterweißt, bilde einen Arbeitskreis.“ Sobald Aufgaben nicht mehr leicht zu lösen sind, werden Projekte initiiert.
(5) Betriebsame Hektik Gerade wenn Aufgaben unlösbar erscheinen und der Überblick fehlt, wird viel „gearbeitet“ und wenig übers Handeln kommuniziert und reflektiert.
(6) Denken in „kurzen Laufzeiten“ Bei Entscheidungen wird nur der direkte Wirkzusammenhang in der nahen Zukunft betrachtet, ohne die zeitlich verzögerten Effekte zu berücksichtigen. Der Zeithorizont wird dabei meist durch Rahmenbedingungen (Projektlaufzeit, Zeitvertrag, Berufung Aufsichtsrat usw.) bestimmt, die mit dem System nichts zu tun haben.
(7) Schutz des mentalen Modells vor der Welt „Das, was ich denke, ist richtig!“, ist eine verbreitete Überzeugung.
(8) Feedback wird weder gehört noch verstanden Der wichtigste Regelungsmechanismus für komplexe Systeme wird nicht verwendet. Man überhört jede Form von Kritik, Bestätigung, Ideen, Hinweisen und schwachen Signalen und nichts davon findet Eingang in das System.
(9) Mangelndes Systemdenken: Gedacht, diskutiert und geplant wird in linearen Kausalzusammenhängen, ohne Wechselwirkungen zu betrachten. Der Fokus liegt auf Details, das Big Picture bleibt außen vor.
Quelle: Stephanie Borgert (2015) : Irrtümer der Komplexität. Gabal, Offenbach.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
KI-Anwendungen basieren oft auf Trainingsdaten, sogenannter Large Language Models (LLM). Um die Leistungsfähigkeit und die Qualität der Antworten von solchen Systemen zu verbessern, wurde inzwischen ein „Denkprozess“ (Reasoning) vor der Ausgabe der Antwort vorgeschaltet. Siehe dazu ausführlicher What are Large Reasoning Models (LRMs)?
Die Frage stellt sich natürlich: Liefern LRMs wirklich bessere Ergebnisse als LLMs?
In einem von Apple-Mitarbeitern veröffentlichten, viel beachteten Paper wurde nun die Leistungsfähigkeit nicht aufgrund logisch-mathematischer Zusammenhänge alleine untersucht, sondern anhand von drei Komplexitätskategorien – mit überraschenden Ergebnissen:
„Recent generations of language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.. (…) By comparing LRMs with their standard LLM counterparts under same inference compute, we identify three performance regimes: (1) low-complexity tasks where standard models outperform LRMs, (2) medium-complexity tasks where LRMs demonstrates advantage, and (3) high-complexity tasks where both models face complete collapse“
Source: Shojaee et al. (2025): The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.
In Zukunft werden immer mehr hoch-komplexe Problemlösungen in den Mittelpunkt von Arbeit rücken. Gerade in diesem Bereich scheinen LLMs und sogar LRMs allerdings ihre Schwierigkeiten zu haben. Ehrlich gesagt, wundert mich das jetzt nicht so sehr. Mich wundert eher, dass das genannte Paper die KI-Welt so aufgewühlt hat 🙂 Siehe dazu auch Was sind eigentlich Multi-Kontext-Probleme?
Sicher werden die Tech-Unternehmen der KI-Branche jetzt argumentieren, dass die nächsten KI-Modelle auch diese Schwierigkeiten meistern werden. Das erinnert mich an unseren Mercedes-Händler, der ähnlich argumentierte, sobald wir ihn auf die Schwachstellen des eingebauten Navigationssystems hingewiesen hatten: Im nächsten Modell ist alles besser.
Technologiegetriebene Unternehmen – insbesondere KI-Unternehmen – müssen wohl so argumentieren, und die Lösungen in die Zukunft projizieren – Storytelling eben, es geht immerhin um sehr viel Geld. Man muss also daran glauben….. oder auch nicht.