Welche Selbstorganisations-Theorie ist für Innovation geeignet?

Wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter
einer terminologischen Präzisierung von Komplexität (Bandte 2007:50, aus Stüttgen 2003): Eigene Hervorhebungen

In unserer komplexen Welt verwenden viele den Begriff „Komplexität“, doch fragt man nach deutlich, dass an unterschiedliche naturwissenschaftliche Ansätze gedacht wird. In der Abbildung sind daher wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität zu sehen, die den verschiedenen Disziplinen zugeordnet sind

Ein wesentlicher Schwerpunkt in der Komplexitätsdiskussion befasst sich mit SELBSTORGANISATION. In der Abbildung sind von mir bekannte Vertreter zu Selbstorganisations-Theorien hervorgehoben, die aus den Bereichen Biologie und Physik/Chemie kommen. Überraschend ist dabei, dass viele wichtige Theorien zum Thema um 1970 fast zeitgleich erschienen sind:

„Es war der magische Zeitpunkt um 1970, als fast zeitgleich erste naturwissenschaftliche Theorien der Selbstorganisation erschienen, die eine paradigmatische Wende einläuteten: die biologische Theorie der Autopoiese von Humberto Maturana, die Arbeit zur molekularen Evolution von Manfred Eigen, die thermodynamische Theorie dissipativer Systeme fernab vom Gleichgewicht von Ilya Prigogine sowie die aus der Quantenoptik und der Theorie der Phasenübergänge stammende Theorie der Synergetik von Hermann Haken. Die Begründer dieser Theorien kamen aus sehr unterschiedlichen Disziplinen“ (Petzer/Steiner 2016).

Da ich mich viel mit Innovationen befasse, ist es mir natürlich wichtig zu erfahren, welche Passung diese Theorien mit der Entstehen neuer Dienstleistungen, Produkte oder (allgemein) neuen Gesellschaftsstrukturen haben. Sehr interessant ist dabei, dass die Autopoiese (Maturana) wohl nicht so gut geeignet erscheint, und die Synergetik von Haken (1996) wohl besser passt:

„Obwohl die Autopoiese einen großen Einfluss im biologischen und vor allem im soziologischen Bereich hat, so ist ihr Bezug zur Selbstorganisation eher im zirkulären
Wirken bestehender Ordnung zu sehen. In Hinblick auf die Entstehung (Emergenz) von Ordnung und verschiedener Ordnungsstufen trifft die Autopoiese keine Aussagen. Sie setzt bereits Ordnung voraus. Daher sah Hermann Haken auch keinen Anlass sich mit dieser, vor allem im Rahmen des Radikalen Konstruktivismus in der Literatur hofierten und diskutierten Theorie, intensiver auseinanderzusetzen.

Übertragen auf soziale Systeme kann die Autopoiesetheorie Innovation oder die
Entstehung neuer Gesellschaftsstrukturen nicht thematisieren
„.

Quelle: (Petzer/Steiner 2016). Die Autoren nennen zur Unterstützung dieser These noch folgende Quellen:

– Hermann Haken: Synergetics. An Introduction, New York, NY: Springer 1977.
– Bernd Kröger: Hermann Haken und die Anfangsjahre der Synergetik, Berlin: Logos 2013, S. 259.
– Vgl. auch Marie-Luise Heuser: „Wissenschaft und Metaphysik. Überlegungen zu einer allgemeinen Selbstorganisationstheorie“, in: Wolfgang Krohn/Günter Küppers (Hg.): Selbstorganisation.

Für Haken (1996) sind dabei Werte sozialer Selbstorganisation. Phasenübergänge stellen an Bifurkationspunkten die Übergänge von Mikrozuständen von Elementen zu Makrozuständen (Emergenz) dar.

„Es genügt also, das Verhalten der wenigen instabilen Systemelemente zu erkennen, um den Entwicklungstrend des gesamten Systems und seine makroskopischen Muster zu bestimmen. Die Größen, mit denen das Verteilungsmuster der Mikrozustände eines Systems charakterisiert wird, heißen nach dem russischen Physiker Lew D. Landau „Ordnungsparameter““ (Mainzer 2008:43-44).

Mit Hilfe Künstlicher und Menschlicher Intelligenz sollte es möglich sein, diese wenigen instabilen Systemelemente zu erkennen (Ordnungsparameter), um makroskopische Muster zu bestimmen.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Was hat Fahrradfahren mit Handlungsgebieten und Domänen zu tun?

Image by photosforyou from Pixabay

Stellen Sie sich vor, jemand möchte von Ihnen wissen, wie er Fahrradfahren soll. Geben Sie ihm einfach eine kurze Beschreibung – oder fragen Sie eine Künstliche Intelligenz. Eine eher wissenschaftliche Antwort könnte wie folgt lauten:

„Bringen Sie die Kurvung Ihrer Fahrradspur im Verhältnis zur Wurzel Ihres Ungleichgewichtes geteilt durch das Quadrat Ihrer Geschwindigkeit! Diese Regel beschreibt das Gleichgewichthalten beim Fahrradfahren“ (Fischer 2010).

Könnten Sie aufgrund dieser Beschreibung, möglicherweise ergänzt durch tausende von Videos oder anderen Content, Fahrradfahren? Es wird deutlich, dass zu der Beschreibung noch etwas dazukommen muss: Ein Gefühl für das Gleichgewicht bei einem bestimmten Fahrrad, in einem bestimmten Gelände (Kontext) und Übung, Übung, Übung. So lange, bis man kein Anfänger, sondern ein Experte ist.

Im beruflichen Umfeld haben wir ähnliche Situationen, die anhand der folgenden Abbildung erläutert werden sollen.

Eigene Darstellung

In der Abbildung sind das Handlungsgebiet „Installieren“, das Handlungsgebiet „Diagnostizieren“ und beispielhaft ein weiteres Handlungsgebiet nebeneinander dargestellt.

Überlagert werden diese von den Sektoren A und B, in denen die Kontexte 1 bis 4 dargestellt sind. Kontext 1 könnte hier die Kernaufgabe 1 eines Berufs, Kontext 2 die Kernaufgabe 2 eines weiteren Berufs etc. darstellen.

Der Domänenbegriff kann sich im engeren Sinne auf eine Kernaufgabe eines Berufs beziehen – hier die Kernaufgabe 1 eines Berufs. Es ist allerdings auch möglich, den Domänenbegriff weiter zu definieren. Dann wären die Summe aller Handlungsgebiete gemeint – im Idealfall stellt eine Domäne den Beruf dar (Domäne=Beruf).

„Die Arbeit in einer Domäne ist stets situiert“ (Becker 2004, S. 36), also an die Problemlösungssituation und den Kontext gebunden, was zu einem sehr speziellen Wissen (Expertenwissen) und der damit verbundenen Expertise (Kompetenz auf Expertenniveau) führt.

Es wird deutlich, dass es nur sehr schwer möglich ist, diese spezielle Kompetenz zu übertragen, gerade dann, wenn man das Ganze der Arbeit betrachtet und nicht nur einzelne Facetten.

Solche Überlegungen können dabei helfen herauszufinden, welche Elemente der Arbeit beispielsweise durch Künstliche Intelligenz ersetzt, ergänzt, oder gar nicht abgebildet werden können.

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen

Image by StockSnap from Pixabay

In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.

In Zeiten von Künstlicher Intelligenz führt der Ansatz eines IQ in der Zwischenzeit zu verschiedenen „Stilblüten“: Beispielsweise hat das OpenAI Model „o1“ einen IQ von 120 – ein Kategorienfehler?

Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).

Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch

Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Künstliche Intelligenz und Menschliche Intelligenz

Künstliche Intelligenz – ein Kategorienfehler?

Künstliche Intelligenz – It All Starts with Trust

In einem eher unsicheren und turbulenten Umfeld kann es dazu kommen, dass man als Einzelner, oder als Organisation anderen Menschen, oder anderen Organisationen, misstraut. Das wiederum führt dazu, dass alle Abläufe bis ins Detail geregelt und kontrolliert werden – getreu dem Spruch „Vertrauen ist gut, Kontrolle ist besser“. Das funktionierte auch in einer eher sich langsam verändernden Welt ganz gut.

Um in einem heute eher vorliegenden dynamischen Umfeld schnell und flexibel voran zu kommen, ist ein Arbeiten auch in komplexen Netzwerken gefordert. Dabei kann nicht alles bis ins kleinste Detail geregelt sein, sodass es auf ein gewisses Maß an Vertrauen in der Zusammenarbeit ankommt, wodurch wiederum auf einen Teil der Kontrolle verzichtet werden kann.

„Menschliches Handeln in modernen Gesellschaften allgemein und in modernen Organisationsformen, wie Netzwerke insbesondere, erfordern Vertrauen darauf, dass sich andere Menschen gemäß dem mit dem eigenen Handeln verbundenen Erwartungen verhalten. Vertrauen ist dabei ein Mechanismus, der es ermöglicht, auf einen Teil der Kontrolle zu verzichten, und der die Bereitschaft erhöht, ein Risiko einzugehen (Giddens 1995, 1997, Luhmann 2000). Gerade in Netzwerken ist dies besonders relevant, weil Zusammenarbeit unter höherer Unsicherheit stattfindet als in traditionellen Organisationen (…)“ (Vollmert, A.; Wehner, T., in Huber et al. 2005).

Kommt es also in einem Netzwerk zu einer wechselseitigen Vereinbarung von Regeln, so kann Systemvertrauen entstehen.

Betrachten wir die bekannten KI-Modelle (KI-Systeme, Netzwerke) wie ChatGPT, Gemini etc., so können diese KI-Systeme als Closed Models bezeichnet werden, da sie wenig oder kaum Transparenz bieten – also wie eine Art Black Box agieren. Diese In-Transparenz widerspricht den oben genannten Voraussetzungen für eine vertrauensvolle Zusammenarbeit.

Ganz anders sieht es bei Open Source AI Modellen (Systemen, Netzwerken) aus, die transparent sind, und sich an die Open Source Ai – Definition halten. Das alles stellt eine gute Basis für eine vertrauensvolle Zusammenarbeit im Netzwerk dar. Siehe dazu auch

Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century

Das Kontinuum zwischen Closed Source AI und Open Source AI

Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Gedanken zu Vertrauen und Misstrauen

Neue Arbeitswelt: Vertrauen als Ersatz für Kontrolle?

Behandelt die Wissensgesellschaft ihr vermeintlich höchstes Gut „Wissen“ angemessen?

Image by Bruno from Pixabay

Die heute propagierte Wissensgesellschaft wird oft kritisiert. Beispielsweise findet man in Liessmann (2008): Theorie der Unbildung den Hinweis, dass Wissen im Gegensatz zu Information nicht unbedingt zweckorientiert ist:

„Wissen lässt sich viel, und ob dieses Wissen unnütz ist, entscheidet sich nie im Moment der Herstellung oder Aufnahme des Wissens“ (ebd.).

Der Autor treibt seine Kritik an der Entwicklung bei den Themen, Wissen, Wissen als Ressource und Wissensmanagement mit einer These auf die Spitze, indem er formuliert:

„Man könnte die These riskieren, dass in der Wissensgesellschaft das Wissen gerade keinen Wert an sich darstellt. Indem das Wissen als ein nach externen Kriterien wie Erwartungen, Anwendungen und Verwertungsmöglichkeiten hergestelltes Produkt definiert wird, ist es naheliegend, dass es dort, wo es diese Kriterien nicht entspricht, auch rasch wieder entsorgt werden muss. Gerne spricht man von der Beseitigung des veralteten Wissens, vom Löschen der Datenspeicher und vom Abwerfen unnötigen Wissensballasts. Mit anderen Worten: Die Wissensgesellschaft behandelt ihr vermeintlich höchstes Gut mitunter so, als wäre es der letzte Dreck“ (Liessmann 2008).

Wissen, immer und überall unter Nutzengesichtspunkten zu sehen, ist fatal. Wissen um seiner selbst willen kann durch überraschende Neukombinationen zu kreativen Gedanken und Problemlösungen führen. Grenzen wir dieses Wissen aus, wird alles Wissen beliebig, und damit auch weniger kreativ, bzw. innovativ, was uns wieder zu den kritisierten Nutzengesichtspunkten führt.

Es scheint paradox zu sein: Wissen ohne Nutzengesichtspunkte zuzulassen, führt zu einer besseren Nutzung von Wissen.

Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, Wissen gut zu verstehen, um den Umgang damit angemessen zu ermöglichen. Bei einer einseitig nutzenorientierten Betrachtung von Wissen, kann es gesellschaftlich zu Verwerfungen kommen – gerade so, als ob ein Sportler nur den rechten Arm trainieren würde.

Sind wir nicht intelligent genug, um zu wissen, was Intelligenz ist?

Image by Gerd Altmann from Pixabay

Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).

Dass die Messbarmachung der Intelligenz in Zeiten von Künstlicher Intelligenz tückisch sein kann, habe ich in dem Beitrag OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler? erläutert. Hans Markus Enzensberger hat sich auch mit der IQ-Messung intensiv befasst, und ist zu folgendem Schluss gekommen:

Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).

Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.

Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.

Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch 

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Über den Unsinn von Intelligenztests

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Künstliche Intelligenz: Wenn die Lösung das Problem ist

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Aktuell kann man den Eindruck gewinnen, dass alle Aufgaben oder Probleme mit Künstlicher Intelligenz angegangen werden, um Lösungen zu generieren.

Im Zusammenspiel zwischen Lösung und Problem hat Paul Watzlawick auf die Fehllogik und die zirkulare Kausalität hingewiesen.

Das oft genannte Beispiel von jemanden mit Schlafproblemen, der versucht, krampfhaft einzuschlafen, und damit die Situation eher verschlechtert, illustriert das etwas.

„Was Menschen tun, um ein Problem zu lösen, ist oft genau das, was das Problem hervorruft“ nach Paul Watzlawick, zitiert in Hartkemeyer/Freeman/Dhority (2006): Miteinander Denken. Das Geheimnis des Dialogs,

Ich frage mich: Kann es sein, dass die Nutzung der bekannten KI-Modelle nicht nur zur Lösung eines Problems führt (führen kann), sondern diese Problemlösung das ursprüngliche Problem noch verstärkt?

In einer abgewandelten Eigenfassung des Textes von Paul Watzlawick würde das wie folgt aussehen:

„Was Menschen tun, um ein Problem zu lösen (RF: z.B. ChatGPT nutzen…), ist oft genau das, was das Problem hervorruft (RF: z.B. ChatGPT nutzen….. ) – frei von mir nach Paul Watzlawick geändert. Ich hoffe er sieht mir das nach.

Es ist gut, wenn wir die enormen Möglichkeiten von KI nutzen, und kritisch hinterfragen (Kritisches Denken)

Mass Customization und Quantenmechanik

In verschiedenen Blogbeiträgen habe ich immer wieder darauf hingewiesen, dass wir uns von den in vielen Bereichen diskutierten Dichotomien (Entweder-oder) verabschieden sollten. Im Wissensmanagement beispielsweise haben wir es mit den beiden Polen implizites Wissen oder explizites Wissen zu tun. Zwischen beiden Polen gibt es allerdings ein Kontinuum des „sowohl-als-auch“. Ähnlich sieht es in anderen Bereichen aus.

Im Innovationsmanagement kennen wir die Extreme Closed Innovation oder Open Innovation. Beim Projektmanagement gibt es nicht nur das klassische Projektmanagement oder das agile Projektmanagement, sondern zwischen beiden Polen ein Kontinuum. Ähnlich sieht es bei der Künstlichen Intelligenz aus, wo es von Closed AI Models über Open Weight AI Models bis zu Open Source AI Models auch ein Kontinuum der Möglichkeiten gibt.

Diese Entwicklung deutet schon darauf hin, dass es in vielen Bereichen nicht mehr um ein „entweder-oder“, sondern um ein angemessenes „sowohl-als-auch“ geht. Vor über 30 Jahren hat B. Joseph Pine II schon darauf hingewiesen, und dabei eine Verbindung von der Quantenmechanik zu Mass Customization als hybride Wettbewerbsstrategie hergestellt:

„Today management has much the same problem: We still build most of our models around false dichotomies. To name but a few, we speak of strategy versus operations, cost versus quality, and centralized versus decentralized. The way out of this dilemma for scientist, finally, was to abandon the perspective of irreconcilable opposites, and to embrace interpretations that accept contradictions without trying to resolve them. Quantum mechanics does that in physics, mass customization does that in business“ (Pine 1993).

Die hybriden Möglichkeiten zur Schaffung von Werten für Kunden (User) sind heute (nach mehr als 30 Jahre nach der Veröffentlichung) in vielen Organisationen immer noch nicht bekannt.

Auf der nächsten MCP 2026 – Konferenz, im September in Balatonfüred (Ungarn), haben Sie die Chance, mit führenden Forschern und Praktikern über die Themen Mass Customization, Mass Personalization und Open Innovation zu sprechen.

Als Initiator der Konferenzreihe stehe ich Ihnen gerne für weitere Fragen zur Verfügung.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Die negativen und positiven Seiten von Routine

Image by Foundry Co from Pixabay

Der Trend in der Arbeitswelt geht dahin, Routinetätigkeiten zu reduzieren, um z.B. mehr Projekte durchführen zu können. Dabei werden Routinetätigkeiten oftmals durch Technologien ersetzt – ganz im Sinne der Wirtschaftlichkeit. Es ist verständlich, dass wir keine stupiden Handgriffe in der Produktion oder in der Verwaltung durchführen wollen.

Andererseits gibt es ja auch die liebgewonnenen Routinen, wie der morgendliche Kaffee, das gemeinsame Abendessen mit der Familie, der regelmäßige Sport mit anderen am Wochenende, usw. Solche Routinen sind eher positiv besetzt, da wir uns dabei wohl fühlen.

Betrachten wir also die Routine etwas umfassender, so können wir erkennen, dass Routine negative und positive Seiten hat. In der Geschichte sind daher auch zwei unterschiedliche Perspektiven zu erkennen:

„Die positive Seite der Routine wurde in Diderots großer Encyclopédie (1751-1772) dargestellt, die negative Seite der geregelten Arbeitszeit zeigte sich äußerst dramatisch in Adam Smiths Der Wohlstand der Nationen (1776). Diderot war der Meinung, die Arbeitsroutine könne wie jede andere Form des Auswendiglernens zu einem Lehrmeister der Menschen werden. Smith glaubte, Routine stumpfe den Geist ab. Heute steht die Gesellschaft auf der Seite von Smith. (…) Das Geheimnis der industriellen Ordnung lag im Prinzip in der Routine“ (Sennett 2002)

Routine ist also per se nicht geistlos, sie kann erniedrigen, sie kann aber auch beschützen. Routine kann die Arbeit zersetzen, aber auch ein Leben zusammenhalten (vgl. dazu Sennett 2002).

Diese Gedanken führen zwangläufig zu der aktuellen Diskussion um KI-.Agenten, die im einfachsten Fall darauf ausgerichtet sind, Abläufe zu automatisieren. Siehe dazu beispielsweise Mit Langflow einen einfachen Flow mit Drag & Drop erstellen.

Berücksichtigen wir die weiter oben von Sennett zusammengefassten Hinweise zur Routine, so sollten wir genau überlegen, welche Routinetätigkeiten durch Künstliche Intelligenz ersetzt werden, und welche Routinetätigkeiten eher nicht. Routine kann eben auch in einem turbulenten gesellschaftlichen Umfeld (emotional) stabilisieren, ja sogar schützen.