Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität
Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:
„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).
Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.
Alles ist heute mit allem irgendwie vernetzt, sodass auf allen Ebenen Entgrenzung stattfindet, die wiederum zu Komplexität in allen Bereichen einer Gesellschaft führt. Dabei sollten wir die eher „technische“ Komplexität von der sozialen Komplexität unterscheiden.
Es ist in dem Zusammenhang interessant, dass „Geistes- und Sozialwissenschaften besonders gut geeignet sind, (1) die Entwicklung sozialer Komplexität zu beschreiben und (2) das gesellschaftliche Schema, innerhalb dessen die Sinngebung erfolgt, neu zu gestalten“ (Blogbeitrag).
Dabei stellt sich sofort die Frage: Wie kann soziale Komplexität bewältigt werden? Dazu habe ich bei bei John Erpenbeck folgendes gefunden:
„Ein besonderer Anstoß für mich war Hermann Hakens Artikel „Synergetik und Sozialwissenschaften“ in der Zeitschrift Ethik und Sozialwissenschaften (Haken / Wunderlin 2014). Er legte nahe, Werte als – von ihm so genannte – „Ordner“ sozialer Komplexität zu verstehen. Ohne solche Ordner wird Komplexität nicht beherrschbar. Sie sind zugleich zufällig und notwendig. Sie haben ihre Wirklichkeit jedoch nur, wenn sie durch Einzelne verinnerlicht und gelebt werden. Werte sind damit stets Ordner individueller oder kollektiver, physischer oder geistiger menschlicher Selbstorganisation. Kurz: Werte sind Ordner menschlicher Selbstorganisation (Haken 1996). Nicht alle Ordner sind Werte, aber alle Werte sind Ordner im Sinne von Haken (1983)“ (Erpenbeck, J. (2024): Werte als Inseln zeitlicher Stabilität im Fluss selbstorganisierter sozialer Entwicklungen, in Störl (Hrsg.) (2024): Zeit als Existenzform der Materie).
Es wundert daher nicht, dass Werte in allen möglichen Zusammenhängen thematisiert werden. Aktuell geht es beispielsweise bei der Nutzung der Künstlicher Intelligenz darum zu klären, ob wir die Werte der amerikanischen Tech-Konzerne, die Werte der chinesischen Politik oder unsere europäischen Werte als Ordner für soziale Komplexität nutzen wollen.
Früher haben alle in den Organisationen von Change gesprochen, heute reden alle über Transformation. In dem Blogbeitrag Wandel, Change, Transformation oder doch Transition? habe ich dazu verschiedene Perspektiven zusammengefasst.
Auf der gesellschaftlichen Ebene wird im Zusammenhang mit Transformation oft davon ausgegangen, dass es eine relativ homogene Gesellschaft gibt, doch dem ist nicht so. Ein gut gemeinter Wille, beispielsweise der Politik, zur Veränderungen in einer Gesellschaft reicht einfach nicht.
Gerade bei Veränderungsprozessen merken alle Beteiligten – manchmal schmerzhaft- , dass es in einer Gesellschaft viele und vielschichtige Widerstände gibt. Es ist wieder einmal bezeichnend, dass es gerade Soziologen sind, die darauf hinweisen – beispielsweise Armin Nassehi:
„Aber dieser Triumph des Willens rechnet nicht mit dem Eigensinn, mit der inneren Komplexität und den Widerständen einer Gesellschaft, die eben kein ansprechbares Kollektiv ist. Und sie rechnet nicht mit der populistischen Reaktion auf Krisenerfahrungen. Dabei wird immer deutlicher: Man kann nicht gegen die Gesellschaft transformieren, sondern nur in ihr und mit ihr – und nur mit ihren eigenen Mitteln“ (Der Soziologe Armin Nassehi in einem Interview in brand eins 12/2024).
In seinem Buch weist Nassehi auch darauf hin, dass die notwendigen Veränderungen trotz des vielschichtigen Widerstandes in allen Ecken der Gesellschaft schon geschehen.
»Gesellschaftliche Transformation kann nicht als große Form funktionieren, sondern nur als eine, die in konkreten Situationen erfolgreich sein kann. Das ganze Programm der kleinen Schritte läuft längst …“ Armin Nassehi (2024): Kritik der großen Geste. Anders über gesellschaftliche Transformation nachdenken | Bei Amazon
Es ist auch hier wieder interessant zu sehen, dass es immer wieder Soziologen sind, die bei komplexen Zusammenhänge spannende alternative Deutungsmuster anbieten. Der Mainstream wird diese allerdings nicht aufnehmen, da Mainstream häufig nicht klären und aufklären, sondern eher beeinflussen will. Weitere Blogbeiträge dazu finden Sie hier.
Je vernetzter die Strukturen einer Organisation (innen und außen) sind, um so höher ist der Grad an Komplexität. Dabei unterliegen viele einem Irrtum, denn der Begriff „komplex“ ist keine Steigerungsform von „kompliziert“. Interessant ist, dass es durchaus Anzeichen für den falschen Umgang mit Komplexität in Unternehmen git. Dazu habe ich folgendes gefunden:
9 Anzeichen für einen falschen Umgang mit Komplexität im Unternehmen:
(1)Bekämpfung der Symptome anstelle der Ursachen Es wird immer nur das repariert, was gerade hakt. Eine Suche nach der Ursache hinter dem Symptom findet nicht statt. Symptom und Problem werden gleichgesetzt.
(2) Übergeneralisierung Wenige (oft unzusammenhängende) Ereignisse führen zu allgemeinen Regeln und Schlussfolgerungen für ähnliche Situationen in der Zukunft.
(3) Methodengläubigkeit Um Fehler künftig zu vermeiden und Unwägbarkeiten „bestimmbar“ zu machen, sucht man ständig nach neuen Methoden oder überarbeitet die bestehenden.
(4) Projektmacherei „Wenn du nicht mehr weiterweißt, bilde einen Arbeitskreis.“ Sobald Aufgaben nicht mehr leicht zu lösen sind, werden Projekte initiiert.
(5) Betriebsame Hektik Gerade wenn Aufgaben unlösbar erscheinen und der Überblick fehlt, wird viel „gearbeitet“ und wenig übers Handeln kommuniziert und reflektiert.
(6) Denken in „kurzen Laufzeiten“ Bei Entscheidungen wird nur der direkte Wirkzusammenhang in der nahen Zukunft betrachtet, ohne die zeitlich verzögerten Effekte zu berücksichtigen. Der Zeithorizont wird dabei meist durch Rahmenbedingungen (Projektlaufzeit, Zeitvertrag, Berufung Aufsichtsrat usw.) bestimmt, die mit dem System nichts zu tun haben.
(7) Schutz des mentalen Modells vor der Welt „Das, was ich denke, ist richtig!“, ist eine verbreitete Überzeugung.
(8) Feedback wird weder gehört noch verstanden Der wichtigste Regelungsmechanismus für komplexe Systeme wird nicht verwendet. Man überhört jede Form von Kritik, Bestätigung, Ideen, Hinweisen und schwachen Signalen und nichts davon findet Eingang in das System.
(9) Mangelndes Systemdenken: Gedacht, diskutiert und geplant wird in linearen Kausalzusammenhängen, ohne Wechselwirkungen zu betrachten. Der Fokus liegt auf Details, das Big Picture bleibt außen vor.
Quelle: Stephanie Borgert (2015) : Irrtümer der Komplexität. Gabal, Offenbach.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
KI-Anwendungen basieren oft auf Trainingsdaten, sogenannter Large Language Models (LLM). Um die Leistungsfähigkeit und die Qualität der Antworten von solchen Systemen zu verbessern, wurde inzwischen ein „Denkprozess“ (Reasoning) vor der Ausgabe der Antwort vorgeschaltet. Siehe dazu ausführlicher What are Large Reasoning Models (LRMs)?
Die Frage stellt sich natürlich: Liefern LRMs wirklich bessere Ergebnisse als LLMs?
In einem von Apple-Mitarbeitern veröffentlichten, viel beachteten Paper wurde nun die Leistungsfähigkeit nicht aufgrund logisch-mathematischer Zusammenhänge alleine untersucht, sondern anhand von drei Komplexitätskategorien – mit überraschenden Ergebnissen:
„Recent generations of language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.. (…) By comparing LRMs with their standard LLM counterparts under same inference compute, we identify three performance regimes: (1) low-complexity tasks where standard models outperform LRMs, (2) medium-complexity tasks where LRMs demonstrates advantage, and (3) high-complexity tasks where both models face complete collapse“
Source: Shojaee et al. (2025): The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.
In Zukunft werden immer mehr hoch-komplexe Problemlösungen in den Mittelpunkt von Arbeit rücken. Gerade in diesem Bereich scheinen LLMs und sogar LRMs allerdings ihre Schwierigkeiten zu haben. Ehrlich gesagt, wundert mich das jetzt nicht so sehr. Mich wundert eher, dass das genannte Paper die KI-Welt so aufgewühlt hat 🙂 Siehe dazu auch Was sind eigentlich Multi-Kontext-Probleme?
Sicher werden die Tech-Unternehmen der KI-Branche jetzt argumentieren, dass die nächsten KI-Modelle auch diese Schwierigkeiten meistern werden. Das erinnert mich an unseren Mercedes-Händler, der ähnlich argumentierte, sobald wir ihn auf die Schwachstellen des eingebauten Navigationssystems hingewiesen hatten: Im nächsten Modell ist alles besser.
Technologiegetriebene Unternehmen – insbesondere KI-Unternehmen – müssen wohl so argumentieren, und die Lösungen in die Zukunft projizieren – Storytelling eben, es geht immerhin um sehr viel Geld. Man muss also daran glauben….. oder auch nicht.
Die allseits bekannte ISO 9001 für Qualitätsmanagementsysteme liegt aktuell noch in der Version aus dem Jahr 2018 vor – es wird Zeit für ein Update, an dem auch schon gearbeitet wird. In der ISO 9001:2026 sollen viele neue Themen enthalten sein.
„Die Integration von KI und digitalen Tools zur Unterstützung von Qualitätssystemen soll aufgenommen werden – ein echtes Novum. Ein Fokus wird auf der Risiko- bzw. Chancenidentifikation ruhen – das ist sicher. Die Nachhaltigkeit wird an Bedeutung gewinnen, die ISO 9001 wird zur Basis für die Integration von ESG und CSRD – Details noch unbekannt. Aber auch Lieferkettenmanagement, organisatorisches Wissen, Change- und Resilienzmanagement sollen vertieft behandelt werden – lassen wir uns überraschen“ (Funk 2025, QZ News vom 15.08.2025).
Es ist gut, wenn ein Managementsystem alle wichtigen Themen der heutigen Realität abbildet. Dennoch könnte es sein, dass man die Norm mit den vielen Handlungsfeldern überfrachtet, und Organisationen dadurch überfordert. Was in der Endfassung herauskommt ist – wie gesagt – allerdings noch nicht klar.
Ich bin gespannt, ob es in der Norm auch eine Art Wirkungsnetz gibt aus dem hervorgeht, welche Einflussfaktoren für die jeweilige Organisation in den Fokus rücken sollten – also zu managen sind. Bei der Wissensbilanz – Made in Germany war so ein Wirkungsnetz Bestandteil der Vorgehensweise für ein Wissensmanagement-System. Ich habe damit gute Erfahrungen gemacht.
Gerade Kleine und Mittlere Unternehmen (KMU) tun sich oft mit der Komplexität des gesamten Management-Systems schwer, da ja alles mit allem zusammenhängt. Ein Wirkungsnetz mit den daraus abgeleiteten Generatoren hilft also KMU, das immer komplexer werdende Managementsystem effektiv und effizient zu bewältigen.
Im Projektmanagement ist es heute wichtig, zwischen einfachen, komplizierten und komplexen Projekten zu unterscheiden, um das angemessene Vorgehensmodell zu bestimmen.
Darin wird auch das Cynefin-Framework als geeignetes Instrument erwähnt, das ursprünglich aus dem Wissensmanagement kommt. Siehe dazu Projektmanagement: Das Cynefin-Framework und der Bereich “disorder”. Natürlich kann man sich bei Wikipedia oder auch von KI-Modellen Informationen zum Cynefin-Framework zusammenstellen, doch ist es manchmal auch gut, sich ein Buch anzusehen,.
Brougham, G. (2015): The Cynefin Mini-Book. An Introduction to Complexity and the Cynefin Framework | PDF
Das frei verfügbare Mini-Buch zum Thema ist deshalb wertvoll, da es die verschiedenen Facetten des Cynefin-Frameworks intensiv thematisiert, und dazu auch noch wichtige Quellen angibt.
Ähnlich kann auch für das Management argumentiert werden (siehe Abbildung), das sich von einem Management 1.0 (Command and Control, wissenschaftlich) zum Management 2.0 (Markt-Strategien, add on Tools) weiterentwickelt hat, und über das Management 3.0 Komplexität, wissenschaftliche Analogien) zu Management 4.0 (Komplexität als Geschenk, vernetzte Modelle) weiterentwickelt hat. Dabei ist zu beachten, dass in Organisationen oftmals Arbeit 1.0-4.0 und Management 1.0-4.0 vorhanden sind.
Wie in der Abbildung weiterhin zu erkennen ist, stellt das Agile Manifest (Manifest für agile Softwareentwicklung) aus dem Jahr 2001 einen Vorschlag dar, besser mit Komplexität umzugehen. Daraus ist wiederum das Framework Scrum entstanden, wobei der Begriff Scrum in einem Paper aus dem Jahr 1986 geprägt wurde.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
In unserer heutigen Welt, in der alles und jeder miteinander vernetzt ist, ist die Komplexität in allen Systemen nicht nur Theorie, sondern hat auch für jeden Einzelnen praktische Auswirkungen. Dabei scheint es eine gewisse gesellschaftliche Ohnmacht gegenüber den vielfältigen globalen Problemen zu geben. Denn obwohl es Belege für diese Probleme gibt, wird nicht/kaum gehandelt. Siehe dazu z.B. Nassehi (2020) mit der entsprechenden Begründung aus der Systemtheorie.
In „Zeiten von Corona“ allerdings haben wir deutlich erkennen können, dass es den jeweiligen Staaten durchaus gelungen ist, für die Menschen und deren Überleben zu handeln. Dabei wurde auf die Unternehmen und Finanzinstitutionen im Markt weniger Rücksicht genommen. Solche historischen Punkte können also Wendepunkte(Bifurkationspunkte) dafür sein, von bekannten Wegen – also einer Pfadabhängigkeit – abzuweichen, und neue Wege/Pfade zu gehen.
„In bestimmten Konstellationen aber, zu bestimmten Zeitpunkten im historischen Verlauf, die als geschichtliche „Bifurkationspunkte“ begriffen werden können, eröffnen sich plötzlich Chancen auf einen Pfadwechsel, weil aufgetretene Anomalien nicht mehr ignoriert werden können (vgl. Knöbl 2010; Goldstone 1998). Es handelt sich um Krisenmomente, in denen die Fortsetzung der institutionellen Operationen in Frage steht, in denen eben nicht klar ist, wie es weitergeht, weil die Prozessketten gerissen sind. An solchen Gabelungen erscheint es vielen Akteuren wünschenswert, auf den alten Pfad zurückzukehren und so schnell wie möglich die eingespielten Routinen wiederzubeleben. Es ist aber auch möglich, einen neuen Pfad einzuschlagen“ (Rosa, H. Pfadabhängigkeit, Bifurkationspunkte und die Rolle der Soziologie. Ein soziologischer Deutungsversuch der Corona-Krise. Berlin J Soziol 30, 191–213 (2020). https://doi.org/10.1007/s11609-020-00418-2).
Stehen wir möglicherweise mit dem Aufkommen Künstlicher Intelligenz wieder vor so einem Wendepunkt, einem Bifurkationspunkt, der staatliche Organisationen dazu aufruft, ihre tradierten, marktorientierten Entscheidungen wieder mehr auf das Wohl der Menschen auszurichten? Siehe dazu auch
Wenn ein neues Thema aufkommt, geht es dabei oft auch darum, entsprechende Kompetenzen zu entwickeln. Als beispielsweise immer klarer wurde, dass die Digitalisierung alle Bereiche unseres Lebens beeinflussen wird, wurde schnell von Digitalen Kompetenzen gesprochen und geschrieben, die alle und jeder entwickeln sollte/müsste. In dem Beitrag “Digitale Kompetenzen” oder besser “Kompetenzen in digitalen Kontexten”?habe ich erläutert, warum es in diesem Fall besser ist, von Kompetenzen in digitalen Kontexten zu sprechen. Solche Bindestrich-Kompetenzen gibt es in sehr vielen Facetten – nun auch bei dem Thema Künstliche Intelligenz.
Auch hier wird schnell von KI-Kompetenzen gesprochen, ohne zu reflektieren, dass es grundsätzlich Kompetenzen sind, die im Kontext der Künstlichen Intelligenz entwickelt (nicht vermittelt!) werden sollen. In diesem Zusammenhang verweise ich gerne darauf, Kompetenzen als Selbstorganisationsdispositionen zu sehen. Diese Perspektive geht auf Erpenbeck und Heyse zurück:
„Die Handlungskompetenztheorie von Erpenbeck und Heyse (Erpenbeck 2012, Erpenbeck & Sauter 2015, Heyse & Erpenbeck 2007) wiederum betont die Bedeutung von selbstorganisiertem und werteorientiertem Handeln in komplexen Situationen, was sich auch auf den Bereich der KI übertragen lässt. Personen mit hoher Handlungskompetenz sind dann in der Lage, Handlungen zu entwickeln, um erfolgreich handlungsfähig zu sein und zu bleiben“ (Ehler et al. 2025).