Künstliche Intelligenz: Pfadentstehung und Pfadbrechung

Pfadentstehung und Pfadbrechung (Ortmann 2009)

Bei Innovationen wird oft die Theorie der Pfadabhängigkeit thematisiert. Dabei ist am Anfang, in der Phase I der Entscheidungsselektivität, die Variationsbreite noch groß. Mit der Zeit wechselt die Situation (Critical Juncture) in die Phase II der positiven Rückkopplungen. Hier ist der Handlungsspielraum noch immer groß, doch die verfügbaren Varianten reduzieren sich. Eine gewisse Gewohnheit stellt sich ein, und es kommt zu einem Lock-in in der Phase III der Pfadabhängigkeit.

Diese Phasen können wir aktuell bei der Nutzung von KI-Modellen gut nachvollziehen, wobei ich vermute, dass viele durch die Nutzung der bekannten proprietären KI-Modelle wie ChatGPT, Gemini, Anthropic, Grok usw. in der Phase der Pfadabhängigkeit sind.

Es wundert daher nicht, dass Anbieter wie ChatGPT nun langsam aber sicher anfangen, diese Situation zu monetarisieren, und z.B. Werbung schalten. Diese Situation ist für viele Nutzer ärgerlich, doch stellen sich bei einem gewünschten Wechsel zu anderen KI-Modellen nun Switching Cost ein, die zu einer Hürde werden. Ein De-locking ist möglich, doch mit Aufwand verbunden.

Pfadabhängigkeit heißt ja: Prozesse sind nicht durch unsere Entscheidungen und Pläne zu determinieren, sondern nehmen ihren erst Schritt für Schritt näher bestimmten Verlauf in einem spezifischen Wechsel von Kontingenz und Notwendigkeit – in Folge von lauter intendierten und nicht-intendierten Effekten, schließlich in Folge von Selbstverstärkungseffekten, vor denen sich die Entscheidungsgewalt der Entscheider vollends blamiert (Ortmann 2009:11).

In der aktuellen Situation kann es dazu kommen, dass wir aus Bequemlichkeit nicht aus der Pfadabhängigkeit herauskommen. Vielen Nutzern ist diese Situation nicht bewusst. Sie glauben immer noch, dass sie es sind, die die KI-Systeme mit ihren Eingaben (Prompts) steuern…. Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich.

Wie spät ist es in Ihrem Veränderungsprozess?

Quelle: Schüßler, I.; Thurnes, C. M. (2005:123)

Alle und alles soll und muss sich verändern. Veränderungen gab es schon immer und werden heute noch einmal als wichtig hervorgehoben. Wenn jeder auf andere zeigt, wird sich wenig ändern. Wichtig erscheint erst einmal zu reflektieren, wie ich selbst Veränderungen gegenüberstehe (Selbstveränderung).

In der Abbildung ist dazu eine Uhr zu sehen, die in vier Bereiche aufgeteilt ist. Alles beginnt natürlich mit einem Orientierungsimpuls.

Quadrant I stellt die Phase der Verdrängung und Verleugnung dar. Quadrant II enthält Formulierungen zu Ärger und Aggression. Im Quadrant III geht es um das Zurückziehen und Resignieren. Der Quadrant IV enthält Formulierungen die zeigen, dass Sie neue Orientierungsimpulse als Neustart und Chance sehen.

Gerne können Sie anhand der verschiedenen Beschreibungen qualitativ analysieren, in welchem der Quadranten Sie sich mit Ihren Einstellungen in Bezug auf einen neuen Orientierungsimpuls sehen. Wie Sie an meiner Formulierung erkennen können, gehe ich davon aus, dass Sie sich je nach neuem Orientierungsimpuls in verschiedenen Quadraten befinden können.

Diese Selbst-Einschätzung können Sie gerne auch mit Einschätzungen aus Ihrem familiären oder beruflichen Umfeld abgleichen (Fremd-Einschätzung). Jede Veränderung beginnt mit dem ersten Schritt – bei mir selbst.

Welche Selbstorganisations-Theorie ist für Innovation geeignet?

Wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter
einer terminologischen Präzisierung von Komplexität (Bandte 2007:50, aus Stüttgen 2003): Eigene Hervorhebungen

In unserer komplexen Welt verwenden viele den Begriff „Komplexität“, doch fragt man nach wird deutlich, dass an unterschiedliche naturwissenschaftliche Ansätze gedacht wird. In der Abbildung sind daher wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität zu sehen, die den verschiedenen Disziplinen zugeordnet sind

Ein wesentlicher Schwerpunkt in der Komplexitätsdiskussion befasst sich mit SELBSTORGANISATION. In der Abbildung sind von mir bekannte Vertreter zu Selbstorganisations-Theorien hervorgehoben, die aus den Bereichen Biologie und Physik/Chemie kommen. Überraschend ist dabei, dass viele wichtige Theorien zum Thema um 1970 fast zeitgleich erschienen sind:

„Es war der magische Zeitpunkt um 1970, als fast zeitgleich erste naturwissenschaftliche Theorien der Selbstorganisation erschienen, die eine paradigmatische Wende einläuteten: die biologische Theorie der Autopoiese von Humberto Maturana, die Arbeit zur molekularen Evolution von Manfred Eigen, die thermodynamische Theorie dissipativer Systeme fernab vom Gleichgewicht von Ilya Prigogine sowie die aus der Quantenoptik und der Theorie der Phasenübergänge stammende Theorie der Synergetik von Hermann Haken. Die Begründer dieser Theorien kamen aus sehr unterschiedlichen Disziplinen“ (Petzer/Steiner 2016).

Da ich mich viel mit Innovationen befasse, ist es mir natürlich wichtig zu erfahren, welche Passung diese Theorien mit der Entstehen neuer Dienstleistungen, Produkte oder (allgemein) neuen Gesellschaftsstrukturen haben. Sehr interessant ist dabei, dass die Autopoiese (Maturana) wohl nicht so gut geeignet erscheint, und die Synergetik von Haken (1996) wohl besser passt:

„Obwohl die Autopoiese einen großen Einfluss im biologischen und vor allem im soziologischen Bereich hat, so ist ihr Bezug zur Selbstorganisation eher im zirkulären
Wirken bestehender Ordnung zu sehen. In Hinblick auf die Entstehung (Emergenz) von Ordnung und verschiedener Ordnungsstufen trifft die Autopoiese keine Aussagen. Sie setzt bereits Ordnung voraus. Daher sah Hermann Haken auch keinen Anlass sich mit dieser, vor allem im Rahmen des Radikalen Konstruktivismus in der Literatur hofierten und diskutierten Theorie, intensiver auseinanderzusetzen.

Übertragen auf soziale Systeme kann die Autopoiesetheorie Innovation oder die
Entstehung neuer Gesellschaftsstrukturen nicht thematisieren
„.

Quelle: (Petzer/Steiner 2016). Die Autoren nennen zur Unterstützung dieser These noch folgende Quellen:

– Hermann Haken: Synergetics. An Introduction, New York, NY: Springer 1977.
– Bernd Kröger: Hermann Haken und die Anfangsjahre der Synergetik, Berlin: Logos 2013, S. 259.
– Vgl. auch Marie-Luise Heuser: „Wissenschaft und Metaphysik. Überlegungen zu einer allgemeinen Selbstorganisationstheorie“, in: Wolfgang Krohn/Günter Küppers (Hg.): Selbstorganisation.

Für Haken (1996) sind dabei Werte sozialer Selbstorganisation. Phasenübergänge stellen an Bifurkationspunkten die Übergänge von Mikrozuständen von Elementen zu Makrozuständen (Emergenz) dar.

„Es genügt also, das Verhalten der wenigen instabilen Systemelemente zu erkennen, um den Entwicklungstrend des gesamten Systems und seine makroskopischen Muster zu bestimmen. Die Größen, mit denen das Verteilungsmuster der Mikrozustände eines Systems charakterisiert wird, heißen nach dem russischen Physiker Lew D. Landau „Ordnungsparameter““ (Mainzer 2008:43-44).

Mit Hilfe Künstlicher und Menschlicher Intelligenz sollte es möglich sein, diese wenigen instabilen Systemelemente zu erkennen (Ordnungsparameter), um makroskopische Muster zu bestimmen.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Was hat Fahrradfahren mit Handlungsgebieten und Domänen zu tun?

Image by photosforyou from Pixabay

Stellen Sie sich vor, jemand möchte von Ihnen wissen, wie er Fahrradfahren soll. Geben Sie ihm einfach eine kurze Beschreibung – oder fragen Sie eine Künstliche Intelligenz. Eine eher wissenschaftliche Antwort könnte wie folgt lauten:

„Bringen Sie die Kurvung Ihrer Fahrradspur im Verhältnis zur Wurzel Ihres Ungleichgewichtes geteilt durch das Quadrat Ihrer Geschwindigkeit! Diese Regel beschreibt das Gleichgewichthalten beim Fahrradfahren“ (Fischer 2010).

Könnten Sie aufgrund dieser Beschreibung, möglicherweise ergänzt durch tausende von Videos oder anderen Content, Fahrradfahren? Es wird deutlich, dass zu der Beschreibung noch etwas dazukommen muss: Ein Gefühl für das Gleichgewicht bei einem bestimmten Fahrrad, in einem bestimmten Gelände (Kontext) und Übung, Übung, Übung. So lange, bis man kein Anfänger, sondern ein Experte ist.

Im beruflichen Umfeld haben wir ähnliche Situationen, die anhand der folgenden Abbildung erläutert werden sollen.

Eigene Darstellung

In der Abbildung sind das Handlungsgebiet „Installieren“, das Handlungsgebiet „Diagnostizieren“ und beispielhaft ein weiteres Handlungsgebiet nebeneinander dargestellt.

Überlagert werden diese von den Sektoren A und B, in denen die Kontexte 1 bis 4 dargestellt sind. Kontext 1 könnte hier die Kernaufgabe 1 eines Berufs, Kontext 2 die Kernaufgabe 2 eines weiteren Berufs etc. darstellen.

Der Domänenbegriff kann sich im engeren Sinne auf eine Kernaufgabe eines Berufs beziehen – hier die Kernaufgabe 1 eines Berufs. Es ist allerdings auch möglich, den Domänenbegriff weiter zu definieren. Dann wären die Summe aller Handlungsgebiete gemeint – im Idealfall stellt eine Domäne den Beruf dar (Domäne=Beruf).

„Die Arbeit in einer Domäne ist stets situiert“ (Becker 2004, S. 36), also an die Problemlösungssituation und den Kontext gebunden, was zu einem sehr speziellen Wissen (Expertenwissen) und der damit verbundenen Expertise (Kompetenz auf Expertenniveau) führt.

Es wird deutlich, dass es nur sehr schwer möglich ist, diese spezielle Kompetenz zu übertragen, gerade dann, wenn man das Ganze der Arbeit betrachtet und nicht nur einzelne Facetten.

Solche Überlegungen können dabei helfen herauszufinden, welche Elemente der Arbeit beispielsweise durch Künstliche Intelligenz ersetzt, ergänzt, oder gar nicht abgebildet werden können.

Was macht eine Arbeitsgesellschaft, der die Arbeit ausgeht?

Der Titel meines Beitrags bezieht sich auf die Philosophin Hannah Arendt, die vor Jahren die Frage stellte, was eine Arbeitsgesellschaft anstelle, der die Arbeit ausgehe (Arendt, H. (1981): Vita activa. Vom tätigen Leben, München),

Dabei ist zunächst einmal zu klären, was unter Arbeit zu verstehen ist, denn auch hier hat sich über die Zeit einiges verändert, was die Abkürzungen Arbeit 1.0, Arbeit 2.0, Arbeit 3.0 und Arbeit 4.0 beschreiben.

Ein wesentlicher Teil des heutigen Arbeitsverständnisses bezieht sich immer noch auf die Sicherung und Erweiterung des Lebensunterhaltes.

„Unter Arbeit verstehen wir die Vielfalt menschlicher Handlungen, deren Zweck die Sicherung und Erweiterung des Lebensunterhaltes der arbeitenden Individuen und ihrer Angehöriger ebenso beinhaltet wie die Reproduktion des gesellschaftlichen Zusammenhanges der Arbeitsteilung und hierüber der Gesellschaft selbst, Arbeit ist vergesellschaftetes Alltagsleben (von Ferber 1991)“ (Peter, G. (1992): Situation-Institution-System als Grundkategorien einer Arbeitsanalyse. In: ARBEIT 1/1992, Auszug aus S. 64-79. In: Meyn, C.; Peter, G. (Hrsg.) (2010)).

Dieses Verständnis von Arbeit kann dem Denken in einer Industriegesellschaft zugeordnet werden. Dazu gehören auch Entlohnungs-Systeme, Sozial-Systeme, Rechts-Systeme, Gesundheits-Systeme, Bildungs-Systeme usw.

Wenn sich also am Verständnis von Arbeit etwas ändert, hat das erhebliche Auswirkungen auf all die genannten, und nicht-genannten, gesellschaftlichen Systeme. Am Beispiel der Landwirtschaft kann das gut nachvollzogen werden: Nachdem hier automatisiert/industrialisiert wurde, gab es zwar weniger Arbeit in dem Bereich, doch mehr Arbeit in einem neuen Bereich, eben der Industrie.

Genau hier setzt ein neueres Verständnis Von Arbeit an, das sich aus dem Strukturbruch zwischen einfacher und reflexiver Modernisierung ableitet, und Arbeit ganzheitlicher betrachtet:

Arbeit, und zwar das „Ganze der Arbeit“ (Biesecker 2000), sollte deshalb neu bestimmt werden, zunächst verstanden als „gesamtgesellschaftlicher Leistungszusammenhang“ (Kambartel 1993) der Reproduktion, woraus sich spezifische Rechte und Pflichten, Einkommen sowie Entwicklungschancen für die Mitglieder einer Gesellschaft ergeben. Von einem Ende der Arbeitsgesellschaft ist nämlich keine Rede mehr, wohl aber von einem Epochenbruch und der Notwendigkeit einer umfassenden Neugestaltung der gesellschaftlichen Arbeit“ (Peter/Meyn 2010).

Wenn Arbeit nun eher als „gesamtgesellschaftlicher Leistungszusammenhang“ gesehen werden sollte, bedeutet das natürlich, dass die auf dem früheren Begriff der Arbeit basierenden gesellschaftlichen Systeme (Gesundheits-System, Sozial-System Wirtschafts-System usw.) angepasst werden sollten.

Hinzu kommt, dass schon die nächste, von den Möglichkeiten der Künstlicher Intelligenz getriebene, Entwicklung ansteht. Dabei wird KI viele bisher bekannte Tätigkeitsportfolios verändern, und auch neue Tätigkeitsportfolios schaffen – und das relativ schnell. Siehe dazu KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie.

Aktuell hat man den Eindruck, dass alle gesellschaftlichen Systeme von den technologischen Entwicklungen getrieben werden, ganz im Sinne von Technology first. Es ist an der Zeit, Prioritäten zu verschieben – und zwar in Richtung Human first. Das ist möglich. Wie? Ein Beispiel:

„By comparison, Society 5.0 is “A human-centred society that balances economic advancement with the resolution of social problems by a system that highly integrates cyberspace and physical space” (Japan Cabinet Office, 2016, zitiert in Nielsen & Brix 2023).

Auch hier geht es um einen menschenzentrierten Ansatz, der allerdings nicht auf den Industriearbeiter begrenzt ist, sondern alle Bürger generell mitnehmen will. Dabei sollen die konkreten Probleme der Menschen (endlich) gelöst werden.

Da gibt es noch viel zu tun. So verstandene Arbeit geht nicht aus, und sollte in allen gesellschaftlichen Bereichen angemessen entlohnt werden.

Personas sind für Personalization ungeeignet

Personas sind (nach IREB-Glossar) „fictional characters created to represent the different user types that might use a site, brand, or product in a similar way.“ Die Verwendung von Personas gerade im Agilen Projektmanagement zur Ableitung der Anforderungen und zur Formulierung und Bewertung von User Stories ist populär. Dabei hatte ich allerdings auch schon in einem früheren Blogbeitrag auf auf Tücken dieser Vorgehenseise hingewiesen: Die Falle bei den Anforderungen.

Darüber hinaus hatte auch Frank Piller die Verwendung von Personas für die Hybride Wettbewerbsstrategie Mass Customization als nicht geeignet angesehen, da „A “persona of one” is turning the persona idea to its opposite“. Siehe dazu ausführlicher: Ist die Verwendung von Persona das Gegenteil von Mass Customization?

Neben dem Agilen Projektmanagement und Mass Customization haben sich auch Autoren mit Personas in Bezug zum Megatrend Mass Personalization befasst. Auch hier sieht man die Verwendung von Personas kritisch:

„Seit einiger Zeit „menschelt“ es in den Marketingabteilungen verstärkt. Anstelle von unanschaulichen Excel-Files mit ihren Tabellen und Diagrammen werden bei Präsentationen so genannte Personas zum Leben erweckt. Auch User Personas genannt. Einfach ausgedrückt dienen sie dazu, einen Zielkunden darzustellen.

Was Personas sind, darüber gehen die Meinungen in der Fachwelt auseinander. Die einen sprechen von fiktiven, aber realitätsnahen Nutzern, die anderen von prototypischen Kunden ihres Angebots – oder von archetypischen Nutzern. Zwar unterschiedlich bezeichnet, dienen sie einem einheitlichen Zweck: Sie repräsentieren Bedürfnisse einer Zielgruppe und machen es möglich, (mehr oder weniger) fundierte Entscheidungen bei der Entwicklung nutzerfreundlicher Produkte zu treffen. Von Beginn an.

Mass Personalization kann nicht realisiert werden, ohne die individuellen Nutzerbedürfnisse zu berücksichtigen. Die schlechte Nachricht: Personas sind nicht zu 100 Prozent zielführend und helfen bei personalisierten Produkten nicht weiter. Sie bieten nur eine Typisierung der Nutzer für Entwicklungszwecke und keine Personalisierung für die Produktion. Stattdessen wird ein parametrisiertes Profil benötigt, das mit dem individualisierten Fertigungsplan gematcht werden kann“ (Briehm/Dangelmeyer, in Krieg/Groß/Bauernhansl (2024) (Hrsg.)).

Es ist nicht ganz leicht, die feinen Unterschiede zu erkennen und daraus die richtigen Schlussfolgerungen zu ziehen. Daher ist es wichtig, sich zu informieren, und das aus erster Hand.

Im September 2026 haben Sie dazu auf der 12. MCP 2026 zu Mass Customization und Personalization die Möglichkeit. Die internationale Konferenz findet diesmal in Balatonfüred, Ungarn statt. Sprechen Sie mich bei Fragen bitte direkt an. Als Initiator der Konferenzreihe kann ich Ihnen gerne weitere Informationen geben.

Innovationen machen sich Veränderungen zunutze, die schon stattgefunden haben. Was haben Konferenzen damit zu tun?

In den letzten Jahrzehnten habe ich weltweit an vielen Konferenzen teilgenommen. Beispielhaft möchte ich hier nur die erste Weltkonferenz zu Mass Customization and Personalization MCPC 2001 an der Hong Kong University of Science and Technology (HKUST), die MCPC 2003 in München, die MCPC 2007 am MIT in Boston, die MCPC 2015 in Montreal usw. nennen..

Überall konnte ich sehen, welche Themen die Forscher in ihren Veröffentlichungen vorstellten. Konferenzen sind daher ein vorlaufender Indikator für aktuelle und zukünftige Entwicklungen, auch für Innovationen. Solche Zusammenhänge hat Peter Drucker schon vor vielen Jahren aufgezeigt:

„Es wird allgemein angenommen, dass Innovationen grundsätzlich Veränderungen herbeiführen – doch nur die wenigsten leisten das. Erfolgreiche Innovationen machen sich Veränderungen zunutze, die schon stattgefunden haben. Sie nutzen beispielsweise den Time-lag – in der Wissenschaft macht dieser oft zwanzig bis dreißig Jahre aus – zwischen der Veränderung an sich und deren Auf- und Annahme. Während dieses Zeitraums muss der Nutznießer dieses Wandels kaum, wenn überhaupt, Konkurrenz befürchten“ (Drucker 1996).

Manche Themen wie die Entwicklung und Nutzung von Konfiguratoren im Rahmen der Hybriden Wettbewerbsstrategie Mass Customization, Problemlösungen zur Verschwendung in der Massenproduktion durch Personalisierung, oder die Nutzung von Additive Manufacturing (3D-Druck), usw. wurden in den letzten Jahrzehnten schon auf Konferenzen vorgestellt. Es dauerte dann doch noch viele Jahre, bis die Entwicklungen im Mainstream der Unternehmen ankamen.

Es ist eine Kunst, die auf Konferenzen aufgezeigten Themen und Problemlösungen für die eigene Organisation zum richtigen Zeitpunkt nutzbar zu machen, also als Innovationen anzubieten. Die von Drucker angesprochene Zeitspanne von 20-30 Jahren bietet hier die Möglichkeit, das richtige Timing zu finden. Zu früh mit Innovationen auf den Markt zu gehen, kann genau so negativ sein, wie Innovationen zu spät anzubieten.

Auf der Konferenz MCP 2026 haben Sie im September wieder die Möglichkeit, sich über die Themen (Mass) Customization und Personalization, sowie Open Innovation aus erster Hand zu informieren. Die von mir initiierte Konferenzreihe findet in diesem Jahr das 12. Mal statt, und zwar in Balatonfüred (Ungarn). Wir werden auch dabei sein.

Behandelt die Wissensgesellschaft ihr vermeintlich höchstes Gut „Wissen“ angemessen?

Image by Bruno from Pixabay

Die heute propagierte Wissensgesellschaft wird oft kritisiert. Beispielsweise findet man in Liessmann (2008): Theorie der Unbildung den Hinweis, dass Wissen im Gegensatz zu Information nicht unbedingt zweckorientiert ist:

„Wissen lässt sich viel, und ob dieses Wissen unnütz ist, entscheidet sich nie im Moment der Herstellung oder Aufnahme des Wissens“ (ebd.).

Der Autor treibt seine Kritik an der Entwicklung bei den Themen, Wissen, Wissen als Ressource und Wissensmanagement mit einer These auf die Spitze, indem er formuliert:

„Man könnte die These riskieren, dass in der Wissensgesellschaft das Wissen gerade keinen Wert an sich darstellt. Indem das Wissen als ein nach externen Kriterien wie Erwartungen, Anwendungen und Verwertungsmöglichkeiten hergestelltes Produkt definiert wird, ist es naheliegend, dass es dort, wo es diese Kriterien nicht entspricht, auch rasch wieder entsorgt werden muss. Gerne spricht man von der Beseitigung des veralteten Wissens, vom Löschen der Datenspeicher und vom Abwerfen unnötigen Wissensballasts. Mit anderen Worten: Die Wissensgesellschaft behandelt ihr vermeintlich höchstes Gut mitunter so, als wäre es der letzte Dreck“ (Liessmann 2008).

Wissen, immer und überall unter Nutzengesichtspunkten zu sehen, ist fatal. Wissen um seiner selbst willen kann durch überraschende Neukombinationen zu kreativen Gedanken und Problemlösungen führen. Grenzen wir dieses Wissen aus, wird alles Wissen beliebig, und damit auch weniger kreativ, bzw. innovativ, was uns wieder zu den kritisierten Nutzengesichtspunkten führt.

Es scheint paradox zu sein: Wissen ohne Nutzengesichtspunkte zuzulassen, führt zu einer besseren Nutzung von Wissen.

Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, Wissen gut zu verstehen, um den Umgang damit angemessen zu ermöglichen. Bei einer einseitig nutzenorientierten Betrachtung von Wissen, kann es gesellschaftlich zu Verwerfungen kommen – gerade so, als ob ein Sportler nur den rechten Arm trainieren würde.

Das Organisationsprinzip hinter der Interaktiven Wertschöpfung

Image by Gerd Altmann from Pixabay

In ihrer Veröffentlichung Reichwald/Piller (2009): Interaktive Wertschöpfung. Open Innovation, Individualisierung und neue Formen der Arbeitsteilung haben die Autoren das Konzept einer Interaktiven Wertschöpfung ausführlich dargestellt. Interessant dabei ist, welches Organisationsprinzip dahinter steckt. Dazu habe ich folgendes gefunden:

„Das hinter der interaktiven Wertschöpfung stehende Organisationsprinzip wurde vom Yale-Wissenschaftler Yochai Benkler (2002, 2006) als „Commons-based Peer-Production“ bezeichnet: „Peer-Production“, das eine Gruppe Gleichgesinnter („Peers“) gemeinschaftlich ein Gute produziert, „Commons-based“, da das Ergebnis der Allgemeinheit zur Verfügung steht und auf offenem Wissen („Commons“) basiert. Die Idee der interaktiven Wertschöpfung baut auf der Commons-based Peer-Production auf, erweitert diese aber um einen Rahmen, in dem ein fokales Unternehmen diesen Prozess anstößt, moderiert oder unterstützt – genau wie wir es bei Threadless oder Innocentive gesehen haben“ (Reichwald, R.; Möslein, K. M.; Piller, F. T. (2008): Interaktive Wertschöpfung – Herausforderungen für die Führung. In: Buhse, W.; Stamer, S. (Hrsg.) (2008): Die Kunst, Loszulassen Enterprise 2.0. S. 99-122).

Basis ist also eine (Interaktive) Wertschöpfung, die darauf ausgerichtet ist, gemeinschaftlich Produkte zu erschaffen, die dann der Allgemeinheit zur Verfügung steht (nach Benkler).

Die von den Autoren propagierte „Interaktive Wertschöpfung“ soll darauf aufbauen, doch schränkt sie durch den Fokus auf Unternehmen das zugrunde liegende Organisationsprinzip einer Commons-based-Peer-Produktion eher ein.

Mit den heutigen technologischen Möglichkeiten ist es einzelnen Usern, und deren vernetzten Peers möglich, Produkte und Dienstleistungen für die Allgemeinheit zu entwickeln und selbst anzubieten. Dabei müssen diese User nicht zwangsläufig mit Unternehmen kooperieren, da die Transaktionskosten im gesamten Prozess in den letzten Jahrzehnten drastisch gesunken sind. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Eric von Hippel (2005): Democratizing Innovation 

MCP-Konferenz im September 2026 in Balatonfüred, Ungarn

Das Netzwerk vom Lernen

Eigene Darstellung nach Vester, F. (2001)

Wenn wir von Lernen sprechen, weiß scheinbar jeder, was gemeint ist. Alle reden mit, wenn es ums Lernen geht, doch kaum jemand weiß, was man unter Lernen versteht und was Lernen ausmacht. Lernen wird in der Schule, an Universität oder möglicherweise noch ein wenig im Beruf verortet.

Dass Lernen aufgrund der Informationen aus der Umwelt permanent stattfindet, und dass Lernen ein sehr komplexes Netzwerk darstellt, ist für viele möglicherweise eine kleine Überraschung.

Frederic Vester, der das vernetzte Denken in komplexen Systemen immer wieder propagiert hat, hat versucht, Lernen in seinen Grundzügen zu visualisieren. In der Abbildung wird deutlich, dass es sich hier um eine grobe und vereinfachende Darstellung des sehr vielfältigen und vernetzten Prozess des Lernens handelt.

Dennoch wird deutlich, dass Lernen nicht so einfach gesteuert werden kann, wie eine triviale Maschine, denn der Mensch ist eher ein nicht-triviales System. Die Erwachsenenbildung hat – Dank Arnold, R. – schon früh erkannt, dass man den Lernprozess nur ermöglichen kann, und schlägt folgerichtig dazu eine Ermöglichungsdidaktik vor.

Diese Erkenntnis sollten sich auch Unternehmen zu Nutze machen, die sich als Lernende Organisation verstehen und Lernen auf der individuellen Ebene, der Teamebene, der Organisationalen Ebene und der Netzwerkebene betrachten müssen. Doch: Welche Führungskraft versteht schon etwas von Lernprozessen? Siehe dazu auch

Agiles Lernen und selbstorganisierte Kompetenzentwicklung.

Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht.

Organisation und Lernen – ein immer noch schwieriges Thema. Warum eigentlich?

Lernende Organisation oder Organisationales Lernen?

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.