Ende des alten Jahres 2025, und zu Beginn des Neuen Jahres 2026 habe ich mal wieder meine Bücher durchgesehen und feststellt, dass ich viele der alten Bücher in den letzten Jahren aus einer bestimmten Perspektive gelesen habe.
Es lohnt sich auf jeden Fall, das eine oder andere Buch „neu“ zu lesen, da sie aus heutiger Sicht spannende Erkenntnisse beinhalten können. Beispielsweise das Buch von B. Joseph Pine II aus dem Jahr 1993 zur hybriden Wettbewerbsstrategie Mass Customization.
Alle sprechen über Hybrid Work, Hybrides Projektmanagement usw., doch wer kennt schon die hybride Wettbewerbsstrategie Mass Customization?
Dabei sind Mass Customization und Mass Personalization (Megatrends) in Zeiten von Künstlicher Intelligenz aktueller denn je. Solche Themen stellen wir auf der von mir initiierten Konferenzreihe MCP im September in Balatonfüred (Ungarn) vor. Sprechen Sie mich gerne an, wenn Sie dazu weitere Informationen haben möchten.
In den letzten Jahrhunderten hat sich angedeutet, dass einmal Erlerntes immer wieder aktualisiert werden musste (Abbildung). In manchen Bereichen kommt es auch vor, dass das Erlernte gar nicht mehr benötigt wurde, und Mitarbeiter von Unternehmen ganz neue Themen lernen mussten.
Diese Entwicklung nimmt nun mit den Möglichkeiten der Künstlichen Intelligenz noch einmal Fahrt auf. Klassische Abschlüssen und Zertifikate können durchaus schnell an Wert verlieren. Die Beratungsgesellschaft McKinsey verkündet sogar das Ende der klassischen Ausbildung – ganz im Sinne des Lebenslangen Lernens. In einem Artikel dazu findet man folgenden Kommentar:
„Für Arbeitnehmer bedeutet dies, dass die eigene Lernfähigkeit zum wichtigsten Kapital wird, während Unternehmen ihre Personalstrategien grundlegend neu ausrichten müssen, um in einer KI-getriebenen Umgebung wettbewerbsfähig zu bleiben“ (Niels Matthiesen, Golem vom 07.01.2025).
Organisationen müssen verstehen, wie ihre Mitarbeiter, wie Teams (Projektteams), die gesamte Organisation und ihr Netzwerk lernen – ganz im Sinne einer Lernenden Organisation.
Dabei stellt sich natürlich gleich die Frage, ob Organisationen überhaupt etwas über Lernen wissen. Wie in der Abbildung zu erkennen ist, geht es in Zukunft nicht mehr um Sicherheitslernen, sondern um Unsicherheitslernen, was eine Kompetenzstärkung bedeutet.
Führungskräfte ermöglichen dabei Lernprozesse. Genau das ist die Aufgabe der Erwachsenenbildung. Führungskräfte sollten daher wissen, was unter moderner Erwachsenenbildung zu verstehen ist.
Im Dezember 2025 hat Oxford Insights den Government AI Readiness Index 2025 veröffentlicht. Darin wurde die Fähigkeit von 195 Regierungen bewertet, Künstliche Intelligenz zum Wohle der Öffentlichkeit einzusetzen:
„This year, we assess 195 governments worldwide by their capacity to harness AI to benefit the public“ (ebd.).
Es wird deutlich, dass wir in einer bi-polaren Welt leben, wenn es um Künstliche. Intelligenz geht. Die beiden Pole sind dabei die USA und China.
Dennoch ist auch ersichtlich, dass sich sehr viele regionale und nationale Initiativen damit befassen, wie die Möglichkeiten der Künstlichen Intelligenz für eine Gesellschaft nutzbar gemacht werden können.
Digitale Souveränität wird oftmals mit Daten-Souveränität in Organisationen verwechselt. Es ist daher wichtig zu verstehen, was Organisationale Daten-Souveränität ausmachen kann. Dazu habe ich folgenden Vorschlag in einem Paper gefunden:
„We define organizational data sovereignty as the self-determined and deliberate exercise of control over an organization’s data assets, which includes the recognition of their value, the proactive management of data activities (collection, storage, sharing, analysis, and interpretation), and the ability to assimilate and apply these data to drive value creation through interorganizational collaboration“ (Moschko et al. 2024).
In dem Paper geht es den Autoren um Organisationale Daten-Souveränität in Bezug auf Open Value Creation (OVC) in offenen Innovationsprozessen (Open Innovation).
Nachdem viele europäische und nationale Institutionen erkannt haben, wie abhängig wir in der Europäischen Union von US-amerikanischen und chinesischen Tech-Konzernen geworden sind, gibt es einen starken Trend zur Digitalen Souveränität
Das Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS GmbH) stellt dazu fest, dass der Begriff der Digitalen Souveränität oftmals irreführend verwendet wird, und es sich oftmals eher ein Souveränitäts-Washing handelt.
In einem Whitepaper wurden dazu verschiedene Beispiele genannt, die das illustrieren. Weiterhin wurde auch noch einmal klargestellt, was unter Digitale Souveränität zu verstehen ist.
„Ein Höchstmaß an Digitaler Souveränität bietet eine digitale Lösung dann, wenn sie:
rechtssicher/DSGVO-konform betrieben werden kann (bspw. ohne Zugriff durch ausländische Behörden auf Daten),
Wechselfähigkeit ermöglicht (d. h. kein Vendor-Lock-in besteht),
Kontrolle sichert (auch bei Ausfall, Sperrung oder Wechsel von Dienstleistern),
Transparenz bietet (z. B. durch einsehbaren Quellcode)
und anpassbar und gestaltbar ist (z. B. durch Weiterentwicklung in der Community oder durch Dienstleister).“
Quelle: Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) GmbH (2025): Souveränitäts-Washing bei Cloud-Diensten erkennen. Warum Digitale Souveränität mehr ist als ein Standortversprechen | Whitepaper (PDF).
Anhand dieser Kriterien kann nun jeder Einzelne, jedes Unternehmen und jede Öffentliche Verwaltung prüfen, ob es sich bei einem Angebot um Digitale Souveränität oder doch eher um Souveränitäts-Washing handelt. Ähnliche Entwicklungen gibt es ja auch beim Green-Washing.
Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität
Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:
„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).
Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.
In der Softwareentwicklung war es schon früh klar, dass Projekte mit unklaren Anforderungen anders abgewickelt werden müssen, als gut planbare Projekte. Aus diesen Überlegungen heraus hat sich das Agile Manifest ergeben, und haben sich verschiedene Vorgehensmodelle entwickelt, wie z.B. KANBAN in der IT, Scrum oder auch Design Thinking.
Es wundert weiterhin nicht, dass Künstliche Intelligenz rasch in der Softwareentwicklung – z.B. auch im Scrum Framework – angewendet wurde, und auch noch wird. An dieser Stelle wird klar, dass bestehende Prozesse mit KI effizienter durchgeführt werden sollen. In dem Beitrag von Montagne (2025) wird in Bezug auf eine McKinsey-Studie erwähnt, dass durch diese Vorgehensweise durchaus Produktivitätsvorteile in Höhe von 10-15% erzielt werden können.
„Old Model (Standard Agile + AI): ~10-15% productivity gain“ (ebd.).
Demgegenüber weist Montagne allerdings auch darauf hin, dass durch eine andere Vorgehensweise – also ohne das Scrum Framework – plus KI ganz andere Produktivitätsvorteile erzielt werden können.
Die Abbildung weiter oben zeigt in der Gegenüberstellung die immensen Vorteile einer Vorgehensweise, die sich von Scrum unterscheidet und Agentic AI mit Kiro nutzt.
Es stellt sich natürlich gleich die Frage, ob dieses Learning aus der Softwareentwicklung auch auf andere Bereiche übertragbar ist. Antwort: Ja, das ist es.
In dem Kontinuum der KI-Modelle sind die Übergänge zwischen den Polen fließend. Immer mehr große Modelle bieten daher neben den Closed Models (Proprietäre Modelle) sogenannte Open Weights Modelle an.
OpenAI hat am 05.08.2025 GPT OSSveröffentlicht, das in der kleinsten Version mit 20B z.B. über Huggingface genutzt werden kann. Grundsätzlich erscheint diese Öffnung gut zu sein. Der Beitrag OpenAI Cracks The Door With GPT OSS vom 11.08.2025 geht darauf detaillierter ein. Ich möchte dazu folgende Punkte anmerken:
(1) OpenAI suggerierte bei der Gründung mit dem Namen, dass man sich den Open Source Werten verpflichtet fühlt. Seit 2019 ist OpenAI allerdings vorwiegend ein kommerzielles Unternehmen, das den Firmennamen für geschicktes Marketing nutzt.
(2) Der Modellname GPT OSS weist zunächst darauf hin, dass es sich um Open Source Software (OSS) handelt, was grundsätzlich zu begrüßen ist.
(3) Möglicherweise werden viele GTP OSS mit Open Source AIverwechseln, was möglicherweise auch gewollt ist. Ansonsten hätte das Unternehmen auch einen anderen Namen verwenden können.
(4) Bei GPT OSS handelt es sich nicht um Open Source AI, sondern um einen Open Weight Model: „Among the Big AI companies, attitudes towards openness vary. Some, like OpenAI or Anthropic, do not release any of their models openly. Others, like Meta, Mistral or Google, release some of their models. These models — for example, Llama, Mistral or Gemma — are typically shared as open weights models“ (Tarkowski, A. (2025): Data Governance in Open Source AI. Enabling Responsible and Systemic Access. In Partnership with the Open Source Initiative).
(5) Dabei ist zu beachten, dass man sich mit proprietärer Künstlicher Intelligenz (KI) immer noch die Denkwelt der Eigentümer einkauft.
Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI
Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.
Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.
„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).
Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.
„Die Werte, auf die sich die Union gründet, sind die Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit, Rechtsstaatlichkeit und die Wahrung der Menschenrechte einschließlich der Rechte der Personen, die Minderheiten angehören. Diese Werte sind allen Mitgliedstaaten in einer Gesellschaft gemeinsam, die sich durch Pluralismus, Nichtdiskriminierung, Toleranz, Gerechtigkeit, Solidarität und die Gleichheit von Frauen und Männern auszeichnet“ (ebd.).
Manchmal habe ich den Eindruck, dass Regionen in der Europäischen Union gerne eigene Werte durchsetzen möchten, sich regional abschotten, aber dennoch die Vorteile der Europäischen Union nutzen wollen. Diese Vorteile gibt es nicht, ohne die Berücksichtigung der genannten Werte – sogar dann, wenn es um die Nutzung der Künstlichen Intelligenz geht. Siehe dazu auch