User Innovation entwickeln sich in drei Phasen

von Hippel et al. (2011): The Age of the Consumer-Innovator, in MITSloan Management Review,Fall 2011 Vol. 53 No 1

In unserem Blog habe ich schon sehr oft über User Innovation geschrieben. Eine Entwicklung, die so ganz anders ist, als der bekannte Hersteller-bezogene Innovationsprozess. Siehe dazu beispielhaft Hybrides Innovationsmanagement: Free Innovation und Producer Innovation.

Wie kann man sich den Ablauf eines Prozesses vorstellen, der bei der Innovationsentwicklung von einzelnen Personen (User) ausgeht?

“In Phase 1 — the earliest stage of a market — users often innovate to create the products they want; then, in Phase 2, other users either reject or validate the initial innovation. If the user innovation is validated through adoption by others, in Phase 3 the market has grown enough to be interesting to producing companies, which refine and commercialize the innovation for sale to a growing market of users” (ebd.).

Da User ihre Innovationen oft “nur” für sich entwickeln, kann es sein, dass diese Innovationen nicht über die Phase 1 hinauskommen. In der heutigen Zeit ist es allerdings durchaus möglich, solche User in den Sozialen Netzwerken zu finden. Das kann dann auch schon der Übergang in die Phase 2 bedeuten, in der andere User (Communities) die Innovation kommentieren und bewerten. In Phase 3 geht es dann darum, die User Innovation zu skalieren. An der Stelle kann es für Unternehmen interessant werden, denn die User haben oftmals nicht die Ressourcen, um die eigene Innovation in den Markt zu bringen.

Gerade Kleine und Mittlere Unternehmen (KMU) können heute mit Hilfe von KI-Agenten permanent nach interessanten User Innovation suchen lassen – und das am besten mit Hilfe von Open Source AI.

Kritik an `Best Practices` für inter-organisationales Lernen

Von anderen Organisationen zu lernen, erscheint auf den ersten Blick eine wirkungsvolle Möglichkeit zu sein, organisationales Lernen zu unterstützen. Dabei ist Lernen der Prozess und Wissen das Ergebnis.

Betrachten wir in dem Zusammenhang die drei Möglichkeiten, Wissen zu artikulieren, zu kodifizieren und zu transformieren, so wird schnell deutlich, dass es schwierig ist, Wissen von einem Best Practice Unternehmen auf ein anderes Unternehmen zu übertragen.

“This leads to a discussion in organisational learning theory: that ‘best practices’ no longer represent ‘the golden standard’ to achieve successful learning across organisational boundaries. The logic is that best practices represent ‘false generalisations’ because best practices “(…) depend on the predictability and stability for the environment, and it is well known that the environment of alliances lacks both criteria” (Nielsen & Brix 2024).

Es ist dennoch erstaunlich, wie oft noch Best Practices verwendet werden. Durch das stark veränderte Umfeld haben sich manche Erkenntnisse aus der Vergangenheit (hier: Organisationale Lerntheorien) möglicherweise überholt.

Siehe dazu beispielsweise auch Wissensbilanz- Made in Germany: Macht Benchmarking Sinn? und Benchmarking im Projektmanagement: Vergleichbarkeit und Optimierungspotenzial.

Innovations-Feuchtgebiete (Innovation Wetlands): Was ist darunter zu verstehen?

Quelle: https://pixabay.com/photos/wetlands-wetland-protection-5095846/

Wenn wir etwas erklären wollen, bedienen wir uns oft der Analogie. Wenn es um Innovationen geht, haben Forscher den Begriff “Innovation Wetlands“, also Innovations-Feuchtgebiete, benutzt, um eine besondere Form der Innovationsentwicklung zu beschreiben.

Feuchtgebiete waren über eine lange Zeit für Pest und Krankheiten verantwortlich und wurden daher oft in sogenannte Nutzflächen umgewandelt. In der Zwischenzeit wird allerdings immer deutlicher, dass Feuchtgebiete für unser Ökosystem sehr wichtig sind. Die Folge: Viele Flächen werden wieder renaturiert. Ähnlich sieht es mit den Innovation Wetlands, also den Innovations-Feuchtgebieten aus. Der folgende Absatz erläutert die Zusammenhänge:

“Similar concerns have motivated IP researcher Andrew Torrance and user innovation scholar Eric von Hippel to call for preservation of the “innovation wetlands” that are essential to the ability of users to innovate. Marshy ecosystems were for a very long time, they point out, conceived of either as “resources ripe for conversion into more beneficial uses” or as “noxious sources of pestilence and disease.” Over time, environmentalists and regulators realized that wetlands were “among the most productive and diverse of ecosystems on earth” and the law should protect and preserve them. Torrance and von Hippel coined the phrase “innovation wetlands” to suggest an analogous need for an awakening in the intellectual realm. They believe that legislation and other forms of regulation can have a “significant negative impact” on the “fragile” innovation ecosystem that enables user innovation to flourish” (Samuelson, Pamela, Freedom to Tinker (June 15, 2016). Theoretical Inquiries in Law, Forthcoming, Available at SSRN: https://ssrn.com/abstract=2800362).

Forscher aus dem Bereich IP (Intellectual Property Rights) wie Andrew Torrance und Eric von Hippel, der User Innovation in den Mittelpunkt seiner Arbeiten stellt, weisen darauf hin, dass staatliche Regulierungen diese Innovations-Feuchtgebiete einschränken, ja sogar vernichten können. Siehe dazu ausführlicher Free Innovation Paradigm and Producer Innovation Paradigm.

Möglicherweise erkennen staatliche Organisationen -genau wie bei den natürlichen Feuchtgebieten, auch den Wert von Innovation Wetlands und schützen diesen wichtigen Innovations-Raum im gesamten Innovations-Ökosystem.

Experteninterview zu ‘Künstliche Intelligenz im Projektmanagement’ gegeben

Vor einiger Zeit wurde ich wegen einem Experteninterview zum Thema Künstliche Intelligenz im Projektmanagement angefragt. Das Interview sollte Bestandteil einer Masterarbeit zum Thema sein. Nachdem ich mir die Anfrage genauer angesehen hatte, habe ich dem Interview zugestimmt.

Im Vorfeld musste ich (natürlich) eine Datenschutzerklärung ausfüllen und bestätigen, dass das Interview aufgenommen und transkribiert wird.

Am Montag, den 26.05.2025, fand dann das Interview online statt. In ca. 60 Minuten habe ich Fragen zum Thema beantwortet, und meine Einschätzung zu zukünftigen Entwicklungen gegeben. Ein Schwerpunkt der Befragung war die erforderliche Kompetenzentwicklung bei der Nutzung von Künstlicher Intelligenz.

Da mir im Rahmen meiner wissenschaftlichen Arbeiten auch immer wieder geholfen wurde, ist es für mich selbstverständlich, Interview-Anfragen, soweit es zeitlich geht, anzunehmen.

Ambidextres Innovationsmanagement: Zwischen Exploration und Exploitation

Innovationsmanagement zwischen Steuerung und Zufall (Kaudela-Baum 2008:35)

In dem Beitrag Innovationsmanagement zwischen Steuerung und Zufall hatte ich schon einmal darauf hingewiesen, dass Organisationen gerade in Innovationsmanagement zwischen Steuerung und Zufall hin und her “pendeln” (siehe Abbildung).

Die gesamte Organisationen soll somit Routineprozesse (inkl. KVP: Kontinuierlicher Verbesserungsprozess / oder Kaizen) effizient gestalten (Exploitation), und andererseits in dem aktuell turbulenten Umfeld flexibel und dynamisch sein (Exploration). Dieses Sowohl-als-auch wird auch als Organisationale Ambidextrie bezeichnet. Siehe dazu ausführlich:

Lang-Koetz, C., Reischl, A., Fischer, S., Weber, S., Kusch, A. (2023). Ambidextrie und das hybride Vorgehen. In: Ambidextres Innovationsmanagement in KMU. Springer Gabler, Berlin, Heidelberg.

Natürlich erinnert das auch an die Hybride Wettbewerbsstrategie Mass Customization und an das Hybride Projektmanagement.

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Die aktuelle Diskussion um Künstliche Intelligenz wird einerseits technisch geführt, andererseits geht es dabei auch um Menschliche Kompetenzen. Alleine diese Gegenüberstellung von “Intelligenz” hier und “Kompetenz” dort wirft schon Fragen auf:

(1) Ist der Begriff “Künstliche Intelligenz” schon ein Kategorienfehler?

Zunächst soll es um den etablierten Begriff “Künstliche Intelligenz” gehen, der durchaus kritisch hinterfragt werden kann. Genau das hat Beispielsweise der Meister der Systemtheorie, Niklas Luhmann, getan:

“Der Soziologe Niklas Luhmann beschreibt dies treffend als Kategorienfehler (Luhmann & Schorr, 1982) – ein grundlegender Unterschied zwischen maschineller Informationsverarbeitung und menschlichen Qualitäten. Maschinen können zwar Daten präzise und schnell verarbeiten, doch echte Kreativität, Sinnverständnis und emotionale Reflexion bleiben ihnen verschlossen” (Ehlers 2025, in weiter bilden 1/2025).

Jetzt kann man natürlich anmerken, dass sich diese Argumentation auf die damaligen IT-Systeme bezog, die heutigen KI-Systeme allerdings doch anders sind. Diese Perspektive ist durchaus berechtigt, doch ist an der Argumentation Luhmanns immer noch etwas dran, wenn wir die heutigen KI-Systeme betrachten.

(2) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlicher Intelligenz etwa auch ein Kategorienfehler?

Interessant ist hier, dass es den Hinweis auf einen Kategorienfehler auch aus der Intelligenzforschung gibt. Siehe dazu ausführlicher OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Wenn wir also mit Intelligenz das meinen, was ein Intelligenztest misst, sieht es für den Menschen schon jetzt ziemlich schlecht aus.

Wenn wir allerdings Intelligenz entgrenzen und eher den Ansatz von Howard Gardner sehen, der von Multiplen Intelligenzen ausgeht, wird es schon etwas spannender, denn nach Howard Gardner ist Intelligenz u.a. ein biopsychologisches Potenzial:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner  2002:46-47).

Insofern wäre dann der Vergliche zwischen Künstlicher Intelligenz und Multiplen Intelligenzen ein Kategorienfehler. Siehe dazu auch Künstliche Intelligenz – ein Kategorienfehler? Darin wird auch auf die sozialen und emotionalen Dimensionen bei Menschen hingewiesen.

(3) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlichen Kompetenzen ein Kategorienfehler?

Wenn wir Künstliche Intelligenz mit Menschlichen Kompetenzen vergleichen, vergleichen wir auch indirekt die beiden Konstrukte “Intelligenz” und “Kompetenz. In dem Beitrag Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen? finden Sie dazu ausführlichere Anmerkungen.

Das AIComp-Kompetenzmodell, bei dem nicht die Abgrenzung zwischen den Möglichkeiten der Künstlichen Intelligenz und den Menschlichen Kompetenzen steht, sondern die “produktive Kooperationskultur” (ebd.). Eine Kooperationskultur zwischen Intelligenz und Kompetenz?

Wenn das alles nicht schon verwirrend genug ist, schreiben mehrere Autoren in dem Gesamtzusammenhang auch noch von Menschlichen Qualitäten oder Skills (Future Skills). Letzteres unterstellt eine eher amerikanische Perspektive auf Kompetenzen.

“Frühere Kompetenzdefinitionen beziehen sich auf die im anglo-amerikanischen Raum gebräuchliche Unterscheidung individueller Leistunsgsdispositionen in Knowledge, Skills, Abilities and Other Characteristics (KSAO), wobei modernere Definitionen auch eher die Selbstorganisationsdisposition in den Vordergrund stellen” (Freund 2011).

Sollten wir daher lieber von Künstlichen Kompetenzen und Menschlichen Kompetenzen auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk sprechen, und diese dann vergleichen?

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Digitale Souveränität: Welche Open Source Alternativen gibt es?

Open Source Alternativen (Ausschnitt). Quelle: https://digital-sovereignty.net/recommendations/product-recom

In den letzten Jahrzehnten haben wir uns an alle möglichen Tools gewöhnt. Dazu gehören z.B. alle Microsoft-, Google-, Meta-Produkte. Es fällt vielen Privatpersonen und Organisationen sehr schwer, sich aus dieser Abhängigkeit zu befreien (Pfadabhängigkeit). Dennoch merken in letzter Zeit viele Privatpersonen und Organisationen, dass es Zeit wird, Alternativen zu suchen.

Es stellt sich allerdings die Frage: Welche Open Source Alternativen gibt es?

Wer sich bisher mit dem Thema noch nicht wirklich auseinandergesetzt hat, wird über die von Prof. Wehners zusammengestellte Liste an Open Source Alternativen überrascht sein. In der Abbildung ist nur ein Ausschnitt zu sehen. Darin habe ich hervorgehoben (grün umrahmt), welche der genannten Tools wir selbst schon einsetzen. Bei den Videokonferenzen sollte noch das in NEXTCLOUD intergierte TALK mit aufgenommen werden.

Schauen Sie sich die Liste an und überlegen Sie, welche Alternative Sie einmal ausprobieren wollen. Bei Fragen können Sie uns ansprechen. Wir teilen Ihnen gerne unsere Erfahrungen mit.

Künstliche Intelligenz: Von der Produktentwicklung wieder (zurück) zur Prozessentwicklung?

Künstliche Intelligenz wird unseren individuellen Alltag, Unternehmen/Organisationen und letztendlich die gesamte Gesellschaft in verschiedenen Anwendungsformen immer stärker beeinflussen.

Dabei deutet sich in den Unternehmen/Organisationen eine interessante Entwicklung an.

Organisationen waren in den letzten 100 Jahren der Industrialisierung darauf fokussiert, ihre Prozesse (oftmals Routineprozesse) immer weiter zu optimieren, effektiver und effizienter zu machen. Diese Prozesslandschaften haben dann zu den bekannten Qualitätsmanagement-Systemen oder auch Projektmanagement-Systemen geführt. Gerade im Projektmanagement hat sich diese Vorgehensweise (Vorgehensmodelle) bei Projekten im Entwicklungsbereichen (Innovationen) zu einer Arbeitsform (Vorgehensmodell) entwickelt, die eher produktorientiert ist. Paradebeispiel dafür ist das Scrum-Framework mit den zu erzielenden Increments am Ende des Sprints oder das Minimum Viable Product (MVP), das wir aus dem Lean Start-up-Ansatz kennen.

Dieser Trend wird aktuell durch Künstliche Intelligenz scheinbar wieder umgekehrt. Wie kommt das?

Schauen wir uns einmal an, wie stark Künstliche Intelligenz den gesamten Lebenszyklus der Software-Entwicklung beeinflusst, so können wir erahnen, dass die Zyklen, in denen ein (Software-)Ergebnis (Increment, MVP) produziert werden kann, immer kürzer werden. Möglicherweise so kurz, dass es sich gar nicht mehr lohnt, den gesamten Scrum-Zyklus mit den vorgesehenen Artefakten und Events durchzuführen, und es zu einem kontinuierlichen Fluss an Ergebnissen (Produkten) kommt. In meinem Beitrag Künstliche Intelligenz: Wird Scrum durch den permanenten Fluss an Produkten zu Kanban? hatte ich das schon einmal angedeutet. Es freut mich daher, dass der Gedanke durchaus auch von anderen Autoren vertreten wird:

“Der Fokus essenzieller Design- und Architekturentscheidungen verschiebt sich in der Digitalisierung genau wie einst in der Industrialisierung von der Produktentwicklung hin zur Prozessentwicklung. Hier schließt sich auch der Kreis zu Scrum, denn zwei der wichtigsten Scrum-Pioniere Hirotaka Takeuchiund Ikujiro Nonaka kamen ursprünglich aus industriellen Produktions- und Innovationskontexten, nicht aus der Softwareentwicklung” (Immich, T.(2025): KI-Agenten Teil 2: Von der Produktentwicklung zur Prozessoptimierung, in Heise Online vom 27.05.2025).

Digitale Souveränität: Souveränitätsscore für KI Systeme

Souveränitätsscore für KI-Systeme – Ausschnitt (Quelle: https://digital-sovereignty.net/score/score-ai)

In der Zwischenzeit sind sehr viele KI-Modelle (AI Model) verfügbar, sodass es manchmal zu etwas unscharfen Beschreibungen kommt. Eine erste Unterscheidung ist, Closed Source AI, Open Weights AI und Open Source AI nicht zu verwechseln. In dem Beitrag AI Kontinuum wird das erläutert.

“OpenAI” wurde beispielsweise als Muttergesellschaft von ChatGPT 2015 als gemeinnützige Organisation gegründet, seit 2019 ist “OpenAI” gewinnorientiert und wird von Microsoft dominiert. Durch geschicktes Marketing wird oftmals suggeriert, dass von kommerziellen Anbietern bereitgestellte Modelle “Open Source AI” sind.

Dabei stellt sich natürlich gleich die Frage, nach einer entsprechenden Definition, die es auch seit 2024 gibt: Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht.

Wenn Sie sich also für AI Modelle interessieren, können Sie dieses Modell gegenüber den in der Definition genannten Kriterien prüfen.

Weiterhin können Sie den Souveränitätsscore für KI Systeme von Prof. Wehner nutzen (Abbildung). Schauen Sie sich auf der Website auch noch weiter um – es lohnt sich.

Pfadabhängigkeit etwas genauer betrachtet

Die Konstitution und Entwicklung von Pfaden (Schäcke 2006:31)

In mehreren Blogbeiträgen habe ich im Zusammenhang mit Innovationen den Begriff der Pfadabhängigkeit thematisiert. Siehe dazu “Pfadabhängigkeit” in Organisationen, Führt “Agilität” auch wieder zu einer Pfadabhängigkeit? , Wie hängen Nebenfolgen, Pfadabhängigkeit und Innovation zusammen?, Zu Kernkompetenzen und Pfadabhängigkeiten in der Automobilindustrie.

In allen Beiträgen liegt der Schwerpunkt darauf, Effizienz als das prägende Element zu betrachten, um zu entscheiden: Bleibe ich in dem gewohnten Pfad, oder wechsle ich in einen anderen Pfad?

Dass es auch einen anderen Blick auf Pfadabhängigkeit gibt, hat Jürgen Beyer in seinem Artikel ausführlich dargestellt. Dabei stellt er fest, dass Pfadabhängigkeit nicht gleich Pfadabhängigkeit ist.

Beyer, J. (2005): Pfadabhängigkeit ist nicht gleich Pfadabhängigkeit! Wider den impliziten Konservatismus eines gängigen Konzepts, in Zeitschrift für Soziologie, Jg. 34, Heft 1, Februar 2005, S. 5–21 | PDF

Der Autor zeichnet zunächst den Verlauf der wissenschaftlichen Diskussionen zum Thema nach und zeigt, dass sich die Pfadabhängigkeits-These durchaus verändert und weiterentwickelt hat. Dabei wird deutlich, dass die für die These herangezogenen Stabilitätsgründe (wie “”increasing returns“, Komplementaritäten, Machtkonstellationen oder andere Grundlagen der Pfadabhängigkeit” ebd.) durchaus anfällig für einen grundlegenden Wandel sein können.

Das deutet wiederum darauf hin, dass es nach einem “lock-in” bei der Pfadabhängigkeit doch auch dazu kommen kann, dass “Akteure jeweils einen Schlüssel finden können, um das Schloss wieder aufzuschließen” (ebd.).