In Organisationen kommt es immer wieder zu der Frage, ob Routineprozesse (Exploration) oder eher Innovationen (Exploitation) in den Fokus organisationaler Entwicklung stehen sollten. In der Zwischenzeit wird deutlich, dass beides in einer Organisation wechselseitig bewältig und entwickelt werden sollten. Diese Ambidextriehatte ich schon einmal in dem Blogbeitrag Ambidextres Innovationsmanagement: Zwischen Exploration und Exploitation erläutert.
Es stellt sich natürlich gleich die Frage, wie eine geeignete Strategie gerade für Digitale Innovationen aussehen kann. Forscher vom Fraunhofer Institut Stuttgart und der Universität Stuttgart sind der Frage anhand von Literaturrecherchen und Interviews nachgegangen und haben ihre Erkenntnisse veröffentlicht:
Schrader et al. (2025): Organizing digital innovations. Journal of Open Innovation: Technology, Market, and Complexity 11 (2025) | Link
Ein Ergebnis war, dass organisationale Ambidextrie eine wichtige Voraussetzung für Digitale Innovationen darstellt. Weiterhin haben die Forscher in ihrem Paper ein Framework dargestellt, das einer Organisation hilft, die geeignete Strategie auszuwählen und umzusetzen.
Ergänzend sollte noch erwähnt sein, dass organisationale Ambidextrie auch sehr viel von den Menschen einfordert. Es ist nicht leicht, permanent zwischen den „beiden Welten“ zu pendeln.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
KI-Anwendungen basieren oft auf Trainingsdaten, sogenannter Large Language Models (LLM). Um die Leistungsfähigkeit und die Qualität der Antworten von solchen Systemen zu verbessern, wurde inzwischen ein „Denkprozess“ (Reasoning) vor der Ausgabe der Antwort vorgeschaltet. Siehe dazu ausführlicher What are Large Reasoning Models (LRMs)?
Die Frage stellt sich natürlich: Liefern LRMs wirklich bessere Ergebnisse als LLMs?
In einem von Apple-Mitarbeitern veröffentlichten, viel beachteten Paper wurde nun die Leistungsfähigkeit nicht aufgrund logisch-mathematischer Zusammenhänge alleine untersucht, sondern anhand von drei Komplexitätskategorien – mit überraschenden Ergebnissen:
„Recent generations of language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.. (…) By comparing LRMs with their standard LLM counterparts under same inference compute, we identify three performance regimes: (1) low-complexity tasks where standard models outperform LRMs, (2) medium-complexity tasks where LRMs demonstrates advantage, and (3) high-complexity tasks where both models face complete collapse“
Source: Shojaee et al. (2025): The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.
In Zukunft werden immer mehr hoch-komplexe Problemlösungen in den Mittelpunkt von Arbeit rücken. Gerade in diesem Bereich scheinen LLMs und sogar LRMs allerdings ihre Schwierigkeiten zu haben. Ehrlich gesagt, wundert mich das jetzt nicht so sehr. Mich wundert eher, dass das genannte Paper die KI-Welt so aufgewühlt hat 🙂 Siehe dazu auch Was sind eigentlich Multi-Kontext-Probleme?
Sicher werden die Tech-Unternehmen der KI-Branche jetzt argumentieren, dass die nächsten KI-Modelle auch diese Schwierigkeiten meistern werden. Das erinnert mich an unseren Mercedes-Händler, der ähnlich argumentierte, sobald wir ihn auf die Schwachstellen des eingebauten Navigationssystems hingewiesen hatten: Im nächsten Modell ist alles besser.
Technologiegetriebene Unternehmen – insbesondere KI-Unternehmen – müssen wohl so argumentieren, und die Lösungen in die Zukunft projizieren – Storytelling eben, es geht immerhin um sehr viel Geld. Man muss also daran glauben….. oder auch nicht.
Mit KI Agenten (AI Agents) ist es möglich, in der Geschäftswelt vielfältige Prozesse zu optimieren, oder innovative Prozesse, Produkte und Dienstleistungen zu generieren, die bisher aus den verschiedensten Gründen nicht möglich waren. Dazu zählen oftmals nicht verfügbare Daten und die dazugehörenden Kosten.
Denken wir etwas weiter, so müssen in Zukunft auch immer stärker KI-Agenten miteinander kommunizieren, also von Agent zu Agent – A2A. Passiert das zwischen sehr vielen Agenten eines Wirtschaftssystems, bzw. einer ganzen Gesellschaft, entsteht so etwas wie eine Agentic Society.
Das Projekt NANDA hat sich in dem Zusammenhang das Ziel gesetzt, diese Entwicklung mit einem Open Agentic Web zu unterstützen:
„Imagine billions of specialized AI agents collaborating across a decentralized architecture. Each performs discrete functions while communicating seamlessly, navigating autonomously, socializing, learning, earning and transacting on our behalf“ (Source).
Das vom MIT initiierte Projekt NANDA arbeitet in Europa u.a. mit der TU München und der ETH Zürich zusammen. Das Ziel ist, alles Open Source basiert zur Verfügung zu stellen..
Ich bin an dieser Stelle immer etwas vorsichtig, da beispielsweise OpenAI auch beim Start das Ziel hatte, KI als Open Source zur Verfügung zu stellen. In der Zwischenzeit wissen wir, dass OpenAI ein Closed Source Model, bzw. ein Open Weights Model ist, und kein Open Source Model. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.
Seit wir in Sozialen Netzwerken unterwegs sind, haben sich nach und nach – hauptsächlich ab dem Jahr 2000 – einzelne Personen zu Influencer entwickelt, und in der Zwischenzeit sogar professionell positioniert. Doch was sind Influencer eigentlich?
„Als Influencer (deutsch etwa Einflussnehmer, Beeinflusser; von englisch to influence ‚beeinflussen‘) werden seit dem Beginn der 2000er Jahre Multiplikatoren bezeichnet, die ihre starke Präsenz und ihr Ansehen in sozialen Netzwerken nutzen, um beispielsweise Produkte oder Lebensstile zu bewerben“ (Quelle: Wikipedia vom 21.08.2025).
Es geht den Personen also hauptsächlich darum, andere zu beeinflussen, bestimmte Produkte oder Dienstleistungen zu kaufen. Dabei verknüpfen die Influencer Ihre persönlichen Meinungen ganz bewusst und offen mit den verschiedenen Marken und verdienen dadurch teilweise sehr viel Geld. Die Beeinflussung von möglichen Interessenten von Produkten ist schon lange ein Instrument des Marketings. Durch die Sozialen Netzwerke kommt noch hinzu, dass jeder sich mit relativ geringen Aufwand als Influencer positionieren kann – Skalierbarkeit bei geringen Kosten.
Manche Influencer stellen sich in ihren Videos und Kommentaren auch gerne als Experten für bestimmte Produkte und Dienstleistungen dar. An dieser Stelle stellt sich natürlich die Frage:
Gibt es zwischen einem Influencer und einem Experten Unterschiede?
Experten haben oftmals mehrere tausend Stunden in einer bestimmten Domäne gearbeitet und dabei implizites Wissen und entsprechende Kompetenz entwickelt. Expertise ist also zu einem großen Teil personengebunden und wird ihnen zugeschrieben. Expertise/Kompetenz als Zuschreibung anderer. Experten können beispielswiese durch ein Pyramiding in Netzwerken visualisiert/erkannt werden.
“Pyramiding search is a variant of snowballing – but with an important difference. Pyramiding requires that people having a strong interest in a given attribute or quality, for example a particular type of expertise, will tend to know of people who know more about and/or have more of that attribute than they themselves do (von Hippel et al 1999)”, zitiert von von Hippel/Franke/Prügl 2009).
Experten wollen also – im Gegensatz zu Influencern – nicht primär beeinflussen, sondern helfen, komplexe Probleme zu lösen. Experten haben auch nicht so sehr das Ziel einen Verkaufsprozess auszulösen. Das kann zwar auch vorkommen, ist allerdings nicht das Hauptziel.
In dieser ersten kleinen Gegenüberstellung wird schon deutlich, dass es zwischen Influencer und Experten Unterschiede, allerdings auch einige Überschneidungen gibt – was die Sache wiederum kompliziert macht. Diesen Umstand nutzen manche Influencer, um sich als Experten zu positionieren, was sie allerdings oft nicht sind…
Das RKW Kompetenzzentrum veröffentlicht immer wieder Hilfen für die organisatorische Entwicklung von gerade mittelständischen Unternehmen. Diesmal wurden mit dem Twin Transition Tool (Abbildung) zwei wichtige Trans kombiniert. Einerseits ist das natürlich die Digitalisierung, und andererseits die Nachhaltigkeit.
„Die Twin Transition (auch doppelte Transformation oder Nachhaltige Digitalisierung genannt) ist eine der größten Herausforderungen unserer Zeit. Doch was ist die Idee dahinter? Gemeint ist, die grüne (nachhaltige) und die digitale Transformation von Wirtschaft und Gesellschaft gemeinsam zu denken und voranzutreiben“ (ebd.).
Das Online-Tool kann direkt gestartet werden. Anschließend haben Sie die Möglichkeit, aus insgesamt 17 Themenfelder die Bereiche per drag&drop auswählen, die für Sie am wichtigsten erscheinen. Das weitere Vorgehen wird in einem kleinen Video erläutert.
Insgesamt ist das Tool gerade für Kleine und Mittlere Unternehmen (KMU) geeignet, sich die Zusammenhänge klar zu machen und geeignete Maßnahmen für die eigene Organisation abzuleiten.
In Deutschland haben wir manchmal ein etwas schwieriges Verhältnis zu einzelnen Begriffen. So ist es beispielsweise mit dem Begriff „Fehler„, der oft negativ besetzt ist. Wenn ein Fehler passiert, ist das (oft) nichts Gutes – so die allgemeine Meinung.
Zu dieser Perspektive beigetragen hat die aus dem Qualitätsmanagement bekannte „0-Fehler“ Strategie, die sich in den Köpfen von Mitarbeitern eingeprägt hat. Wenn wir an Prozesse in der Produktion denken, die immer gleich ablaufen sollen, so ist es natürlich schlecht, wenn es zu größeren Abweichungen kommt. Auch Fehler von Chirurgen können Folgen haben usw.. Man kann Fehler allerdings auch anders sehen.
In der Abbildung sind verschiedene Fehlertypen so sortiert, dass nach oben Fehler eher vermieden werden sollten, und nach unten Fehler zu Verbesserungen, und sogar zu Innovationen führen können. Es liegt auf der Hand, dass beispielsweise „Sabotage“ nicht toleriert und somit sanktioniert werden sollte. Andererseits sollten „Kreative Fehler“ toleriert, ja sogar unterstützt und durch Experimentieren ermöglicht werden.
Die Übersicht zeigt, dass Fehler nicht gleich Fehler ist, und wir daher in Organisationen und auch im zwischenmenschlichen Bereich sinnvoll unterscheiden sollten. Gerne können Sie daraus nun eine eigene Übersicht für Ihre Organisation entwickeln, sodass sich die Mitarbeiter darin wiederfinden und möglicherweise eine neue Fehlerkultur in Ihrer Organisation entsteht.
Böhle et al. 2011:21; entnommen aus Huchler 2016:62
In dem Blogbeitrag Arbeitshandeln enthält explizites und implizites Wissen aus dem Jahr 2016, habe ich die Zusammenhänge zwischen Arbeitshandeln und dem expliziten „objektivierbaren“ Wissen, bzw. impliziten subjektivierenden“ Wissen dargestellt und erläutert.
Setzen wir doch einmal diese Zusammenhänge neu in Verbindung mit den Diskussionen darüber, ob Künstliche Intelligenz Arbeitsplätze, oder ganze Berufe ersetzen wird. Es wird dabei gleich deutlich, dass es in der Diskussion nicht darum geht, Arbeitsplätze oder Berufe durch Künstliche Intelligenz zu ersetzen, sondern darum, das Arbeitshandeln unter den neuen technologischen Möglichkeiten zu untersuchen.
Nach Böhle (2011) zeigen technische und organisatorische Komplexität Grenzen der wissenschaftlich-technischer Beherrschung auf, und zwar in Bezug auf Unwägbarkeiten im Arbeitshandeln.
Sind Unwägbarkeiten die Normalität, benötigt das Arbeitshandeln das Erfahrungswissen von Personen (Subjekte), im Sinne des erfahrungsgeleiteten-subjektivierenden Handelns (vgl. Böhle 2011).
Die Tech-Konzerne argumentieren mit ihren neuen und neuesten KI-Modellen, dass Technologie das gesamte Arbeitshandeln in diesem Sinne einmal abbilden kann. Diese Perspektiven sind möglicherweise für die schnelle Marktdurchdringung und für das Einsammeln von Kapital wichtig (Storytelling), doch greift dieser Ansatz bisher nur bei sehr begrenzten Tätigkeitsportfolios komplett.
Natürlich wird weiter argumentiert, dass sich die Technik weiterentwickelt und es nur eine Frage der Zeit ist, bis das komplette Arbeitshandeln technologisch abgebildet ist. Es ist durchaus zu erkennen, dass KI-Modelle durchaus in der Lage sind bestimmte Merkmale des subjektivierenden Arbeitshandeln abbilden kann. Daraus entstand auch der Glaube an eine Art Allgemeine Generelle Intelligenz (AGI), die der menschlichen Intelligenz überlegen sei.
Durch solche Ideen verschiebt sich der Nachweis für die aufgestellte These immer weiter in die Zukunft, und wird zu einem Glaubensbekenntnis. Möglicherweise handelt es sich bei dem geschilderten Denkmuster um eine Art Kategorienfehler?
Leistung: grundsätzlich fix Dauer: ausgerichtet an der Leistungserbringung Kosten: ausgerichtet an der Leistungserbringung
Leistung: ausgerichtet an der Dauer und dem Machbaren Dauer: grundsätzlich fix Kosten: grundsätzlich fix (Personalkosten)
Planung
Phasen, Meilensteine, Arbeitspakete, Liefergegenstände/-objekte Up-Front, aber rollierend möglich
Releases, Epics, Features, User Stories, Inkremente grundsätzlich rollierend
Aufwand (Personal)
Schätzung im Gegenstromverfahren (Management, Experten) in Personentagen Up-front, dann ggf. nachsteuernd
Schätzung durch das Team in Story Points
rollierend
Steuerungs- instrumente
Fortschrittsmetriken, Meilensteintrendanalyse, Earned Value Analyse Status Meeting, Berichte
Acceptance of Done, Taskboard, Burn-Down-/-Up-Chart
Sprint-Review, Daily Stand Up
Hüsselmann/Hergenröder (2024): Integrierte Earned Value Analyse, nach Fiedler (2020)
Das klassische, eher plangetriebene Vorgehen beim Projektmanagement ist seit vielen Jahren bekannt und etabliert. Es wundert daher nicht, dass es gerade etablierten Organisationen schwer fällt, die beim agilen Projektmanagement zu berücksichtigen Vorgehensweise zu integrieren..
Die in der Tabelle zusammengefasste Gegenüberstellung der Merkmale „Anforderungen“, „Umfang (Scope“, „Ziele“, „Planung“, „Aufwand (Scope)“ und „Steuerungsinstrumente“ gibt Ihnen noch einmal einen Gesamtüberblick dazu.
Dabei sollten Sie allerdings bedenken, dass es oft nicht um ein Entweder-oder, sondern um ein Sowohl-als-auch geht, was als Hybrides oder auch Adaptives Projektmanagement bezeichnet werden kann.
Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.
Der Trend zur Individualisierung hat eine gesellschaftliche und ökonomische Dimension. Dabei bestimmen neue technologische Möglichkeiten, wie z-B- die Künstliche Intelligenz, deutlich die Richtung der Veränderungen. Technologie war schon in der Vergangenheit immer wieder Treiber für solche Entwicklungen – mit all seinen Risiken und Möglichkeiten.
Dabei ging es in der Vergangenheit beispielsweise im ökonomischen Sinne darum, Produkte und Dienstleistungen immer stärker an das Individuum anzupassen – ganz im Sinne von Customization, Personalization, Mass Customization, Mass Personalization etc. – ganz im Sinne von Unternehmen.
Andererseits bieten neue Technologien wie Künstliche Intelligenz, Additive Manufacturing (3D-Druck), Robotik usw. auch neue Möglichkeiten für jeden Einzelnen, da die Kosten für diese Technologien teilweise sogar gegen „0“ gehen. Beispiel im Softwarebereich: sind Open Source Projekte, oder im Innovationsbereich die vielen Open Innovation Projekte. Dabei meine ich bewusst den Ansatz von Eric von Hippel „Democratizing Innovation,“ bzw. „Free Innovation“. Siehe dazu auch Künstliche Intelligenz und Open Innovation.
Immer mehr Menschen nutzen die neuen Möglichkeiten und kreieren ihre eignen Bilder, Beiträge, Videos oder eben Produkte und Dienstleistung mit Hilfe von Künstlicher Intelligenz, Additive Manufacturing (3D-Druck) und Robotik. Dabei geht es den Personen nicht in erster Linie darum, damit geschäftlich aktiv zu sein. Es geht am Anfang oft um das spielerische experimentieren mit den neuen Chancen.
Manche Personen stellen ihre Kreationen anderen zur Verfügung, z.B. auf Plattformen wie Patient Innovation. Alles, um unsere Gesellschaft einfach etwas besser, menschlicher zu machen. Dazu habe ich folgenden Text in einer Veröffentlichung der Initiative2030 gefunden:
„Wir glauben an einen aufgeklärten „Ich-Begriff“, bei dem die ausgiebige Beschäftigung dem Inneren weder das Ego füttern, noch ein um sich selbst kreisen anfeuern muss. In der Logik der Dichotomie der Kontrolle setzen wir uns dafür ein, dass handelnde Individuen ihren Einfluss auf die Dinge, die ihnen am wichtigsten sind, perspektivisch gewaltig ausbauen können. Wenn sie sich dann noch mit anderen zusammentun, können alternative Zukünfte gestaltet werden“ (Initiative2030 (2025): Missionswerkstatt. Das Methodenhandbuch | PDF).
Ich bin auch der Meinung, dass einzelne Personen heute und in Zukunft mit Hilfe der neuen technischen Möglichkeiten, die täglichen und wichtigen Probleme von Menschen lösen können. Alleine und natürlich im Austausch mit anderen. Ob es dazu das oben verlinkte Methodenhandbuch bedarf sei dahingestellt. Dennoch: Für manche ist es gut, einen kleinen Leitfaden zum Thema zu haben.
Dabei steht nicht der Profit im Mittelpunkt, sonderndas soziale Miteinander zum Wohle aller.
Es ist schon eine Binsenweisheit, dass Künstliche Intelligenz (GenAI) alle Bereiche der Gesellschaft mehr oder weniger berühren wird. Das ist natürlich auch im Projektmanagement so. Dabei ist es immer gut, wenn man sich auf verlässliche Quellen, und nicht auf Berater-Weisheiten verlässt.
Eine dieser Quellen ist die Gesellschaft für Projektmanagement e.V., die immer wieder Studien zu verschiedenen Themen veröffentlicht. In der Studie GPM (2025): Gehalt und Karriere im Projektmanagement. Sonderthema: Die Anwendung Künstlicher Intelligenz im Projektmanagementfindet sich auf Seite 13 folgende Zusammenfassung:
„Künstliche Intelligenz im Projektkontext Künstliche Intelligenz (KI) wird im Bereich Projektmanagement in der Mehrheit der Unternehmen eingesetzt, allerdings in noch geringem Maße. (1) KI-basierte Tools werden insgesamt eher selten genutzt, wenn sie zum Einsatz kommen, dann sind es hauptsächlich ChatGPT, Jira, MS Pilot oder eigenentwickelte Tools. (2) Es zeichnet sich kein eindeutiger Projektmanagement-Bereich ab, in dem KI bevorzugt zum Einsatz kommt. Am deutlichsten noch in der Projektplanung und in der Projektinitiierung, am seltensten im Projektportfolio- und im Programmmanagement. (3) Der Nutzen der KI wird tendenziell eher positiv gesehen, insbesondere als Unterstützung der alltäglichen Arbeit, zur Erleichterung der Arbeit im Projektmanagement und zur Erhöhung der Produktivität. (4) Der Beitrag von KI zu einem höheren Projekterfolg wird von der Mehrheit der Befragten nicht gesehen – allerdings nur von einer knappen Mehrheit. (5) Es besteht eine grundlegende Skepsis gegenüber KI, was verschiedene Leistungsparameter im Vergleich zum Menschen betrifft. Alle hierzu gestellten Fragen wie Fehleranfälligkeit, Genauigkeit, Konsistenz der Information oder Konsistenz der Services wurden mehrheitlich zu Gunsten des Menschen bewertet. (6) Die überwiegende Mehrheit der befragten Projektmanagerinnen und Projektmanager teilt diverse Ängste gegenüber der KI nicht, wie z. B. diese werde Jobs vernichten oder dem Menschen überlegen sein.“ Quelle: GPM (2025). Anmerkung: Im Originaltext wurden Aufzählungszeichen verwendet. Um besser auf einzelnen Punkte einzugehen, habe ich diese nummeriert, was somit keine Art von Priorisierung darstellt.
An dieser Stelle möchte ich nur zwei der hier genannten Ergebnisse kommentieren:
Punkt (1): Es wird deutlich, dass hauptsächlich Closed Source Modelle verwendet werden. Möglicherweise ohne zu reflektieren, was mit den eigenen Daten bei der Nutzung passiert – gerade wenn auch noch eigene, projektspezifische Daten hochgeladen werden. Besser wäre es, ein Open Source basiertes KI-System und später Open Source basierte KI-Agenten zu nutzen. Dazu habe ich schon verschiedene Blogbeiträge geschrieben. Siehe dazu beispielhaft Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.