Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität
Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:
„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).
Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.
In der Softwareentwicklung war es schon früh klar, dass Projekte mit unklaren Anforderungen anders abgewickelt werden müssen, als gut planbare Projekte. Aus diesen Überlegungen heraus hat sich das Agile Manifest ergeben, und haben sich verschiedene Vorgehensmodelle entwickelt, wie z.B. KANBAN in der IT, Scrum oder auch Design Thinking.
Es wundert weiterhin nicht, dass Künstliche Intelligenz rasch in der Softwareentwicklung – z.B. auch im Scrum Framework – angewendet wurde, und auch noch wird. An dieser Stelle wird klar, dass bestehende Prozesse mit KI effizienter durchgeführt werden sollen. In dem Beitrag von Montagne (2025) wird in Bezug auf eine McKinsey-Studie erwähnt, dass durch diese Vorgehensweise durchaus Produktivitätsvorteile in Höhe von 10-15% erzielt werden können.
„Old Model (Standard Agile + AI): ~10-15% productivity gain“ (ebd.).
Demgegenüber weist Montagne allerdings auch darauf hin, dass durch eine andere Vorgehensweise – also ohne das Scrum Framework – plus KI ganz andere Produktivitätsvorteile erzielt werden können.
Die Abbildung weiter oben zeigt in der Gegenüberstellung die immensen Vorteile einer Vorgehensweise, die sich von Scrum unterscheidet und Agentic AI mit Kiro nutzt.
Es stellt sich natürlich gleich die Frage, ob dieses Learning aus der Softwareentwicklung auch auf andere Bereiche übertragbar ist. Antwort: Ja, das ist es.
In dem Kontinuum der KI-Modelle sind die Übergänge zwischen den Polen fließend. Immer mehr große Modelle bieten daher neben den Closed Models (Proprietäre Modelle) sogenannte Open Weights Modelle an.
OpenAI hat am 05.08.2025 GPT OSSveröffentlicht, das in der kleinsten Version mit 20B z.B. über Huggingface genutzt werden kann. Grundsätzlich erscheint diese Öffnung gut zu sein. Der Beitrag OpenAI Cracks The Door With GPT OSS vom 11.08.2025 geht darauf detaillierter ein. Ich möchte dazu folgende Punkte anmerken:
(1) OpenAI suggerierte bei der Gründung mit dem Namen, dass man sich den Open Source Werten verpflichtet fühlt. Seit 2019 ist OpenAI allerdings vorwiegend ein kommerzielles Unternehmen, das den Firmennamen für geschicktes Marketing nutzt.
(2) Der Modellname GPT OSS weist zunächst darauf hin, dass es sich um Open Source Software (OSS) handelt, was grundsätzlich zu begrüßen ist.
(3) Möglicherweise werden viele GTP OSS mit Open Source AIverwechseln, was möglicherweise auch gewollt ist. Ansonsten hätte das Unternehmen auch einen anderen Namen verwenden können.
(4) Bei GPT OSS handelt es sich nicht um Open Source AI, sondern um einen Open Weight Model: „Among the Big AI companies, attitudes towards openness vary. Some, like OpenAI or Anthropic, do not release any of their models openly. Others, like Meta, Mistral or Google, release some of their models. These models — for example, Llama, Mistral or Gemma — are typically shared as open weights models“ (Tarkowski, A. (2025): Data Governance in Open Source AI. Enabling Responsible and Systemic Access. In Partnership with the Open Source Initiative).
(5) Dabei ist zu beachten, dass man sich mit proprietärer Künstlicher Intelligenz (KI) immer noch die Denkwelt der Eigentümer einkauft.
Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI
Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.
Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.
„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).
Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.
„Die Werte, auf die sich die Union gründet, sind die Achtung der Menschenwürde, Freiheit, Demokratie, Gleichheit, Rechtsstaatlichkeit und die Wahrung der Menschenrechte einschließlich der Rechte der Personen, die Minderheiten angehören. Diese Werte sind allen Mitgliedstaaten in einer Gesellschaft gemeinsam, die sich durch Pluralismus, Nichtdiskriminierung, Toleranz, Gerechtigkeit, Solidarität und die Gleichheit von Frauen und Männern auszeichnet“ (ebd.).
Manchmal habe ich den Eindruck, dass Regionen in der Europäischen Union gerne eigene Werte durchsetzen möchten, sich regional abschotten, aber dennoch die Vorteile der Europäischen Union nutzen wollen. Diese Vorteile gibt es nicht, ohne die Berücksichtigung der genannten Werte – sogar dann, wenn es um die Nutzung der Künstlichen Intelligenz geht. Siehe dazu auch
In dem Blogbeitrag Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century hatte ich darauf hingewiesen, dass es falsch ist zu behaupten, dass die USA innovativ sind, und die Europäische Union nur reguliert. Diese Plattitüde wird immer wieder von den Tech-Giganten aus den USA verwendet – allerdings wird die Aussage dadurch nicht richtiger.
Auch Japan (Society 5.0) oder Indien (IndiaAI) gehen dazu über, Künstliche Intelligenz in einer Form zu regulieren, dass die Gesellschaft die Vorteile nutzen kann, und die Nachteile reduziert werden. Doch nicht nur die EU und diese beiden Länder sind in Sachen Künstlicher Intelligenz aktiv. Stellt man die Aktivitäten weltweit zusammen, ist es erstaunlich zu sehen, wie vielfältig mit Künstlicher Intelligenz umgegangen wird.
In diesem Zusammenhang ist die Website Regulations.AI interessant, da dort die Informationen zum jeweiligen Stand in einer Region oder in einem Land übersichtlich zusammengefasst sind. Die Website wird von dem schweizer Unternehmen Smittek GmbH betrieben: Terms of Use.
Alles ist heute mit allem irgendwie vernetzt, sodass auf allen Ebenen Entgrenzung stattfindet, die wiederum zu Komplexität in allen Bereichen einer Gesellschaft führt. Dabei sollten wir die eher „technische“ Komplexität von der sozialen Komplexität unterscheiden.
Es ist in dem Zusammenhang interessant, dass „Geistes- und Sozialwissenschaften besonders gut geeignet sind, (1) die Entwicklung sozialer Komplexität zu beschreiben und (2) das gesellschaftliche Schema, innerhalb dessen die Sinngebung erfolgt, neu zu gestalten“ (Blogbeitrag).
Dabei stellt sich sofort die Frage: Wie kann soziale Komplexität bewältigt werden? Dazu habe ich bei bei John Erpenbeck folgendes gefunden:
„Ein besonderer Anstoß für mich war Hermann Hakens Artikel „Synergetik und Sozialwissenschaften“ in der Zeitschrift Ethik und Sozialwissenschaften (Haken / Wunderlin 2014). Er legte nahe, Werte als – von ihm so genannte – „Ordner“ sozialer Komplexität zu verstehen. Ohne solche Ordner wird Komplexität nicht beherrschbar. Sie sind zugleich zufällig und notwendig. Sie haben ihre Wirklichkeit jedoch nur, wenn sie durch Einzelne verinnerlicht und gelebt werden. Werte sind damit stets Ordner individueller oder kollektiver, physischer oder geistiger menschlicher Selbstorganisation. Kurz: Werte sind Ordner menschlicher Selbstorganisation (Haken 1996). Nicht alle Ordner sind Werte, aber alle Werte sind Ordner im Sinne von Haken (1983)“ (Erpenbeck, J. (2024): Werte als Inseln zeitlicher Stabilität im Fluss selbstorganisierter sozialer Entwicklungen, in Störl (Hrsg.) (2024): Zeit als Existenzform der Materie).
Es wundert daher nicht, dass Werte in allen möglichen Zusammenhängen thematisiert werden. Aktuell geht es beispielsweise bei der Nutzung der Künstlicher Intelligenz darum zu klären, ob wir die Werte der amerikanischen Tech-Konzerne, die Werte der chinesischen Politik oder unsere europäischen Werte als Ordner für soziale Komplexität nutzen wollen.
Klassische Kompetenzentwicklung versteht Kompetenz nach Erpenbeck und Heyse als Selbstorganisationsdisposition, die entwickelt werden kann und sollte. Mit dem Aufkommen von Künstlicher Intelligenz kommt auch immer stärker der Ruf nach einer entsprechenden Kompetenz auf – einer Digitalen Kompetenz oder auch KI-Kompetenz. Dabei sollte unter Künstlicher Intelligenz und Generativer Künstlicher Intelligenz unterschieden werden.
„Der Begriff generativ bedeutet bei künstlicher Intelligenz (KI), dass KI-Systeme aus Eingaben mittels generativer Modelle und gespeicherter Lerndaten neue Ergebnisse/Ausgaben wie Texte, Sprachaussagen, Vertonungen, Bilder oder Videos erzeugen“ (Quelle: Wikipedia).
Es handelt sich bei Generativer Intelligenz (GenAI) also auch um eine Art von Kreativität, die entsteht und die beispielsweise von Menschen bewertet werden kann, bzw. sollte. Es wundert daher nicht, dass vorgeschlagen wird, so eine „evaluative Kreativität“ – und in dem Zusammenhang auch generative Kompetenzen – zu entwickeln:
„Entwickle Deine evaluative Kreativität, entwickle Deine generativen Kompetenzen. (…) Generative Kompetenzen: die Fähigkeit, sich in neuen Technologien kreativ und selbstorganisiert mit einer klaren Wertorientierung zu bewegen“ (Erpenbeck und Sauter 2025).
Bemerkenswert ist hier, dass es nicht nur darum geht, mit KI-Modellen sebstorganisiert umgehen zu können, sondern auch wichtig ist, dass das mit einer klaren Wertorientierung erfolgen soll.
Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:
Agiles Manifest:Individuen und Interaktionen mehr als Prozesse und Werkzeuge In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.
SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.
KANBANbasiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt. Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.
Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.
In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Herangehensweisen in den USA, in China und in Europa sind, wenn es um Künstliche Intelligenz geht. Darüber hinaus hat auch Japan mit dem Ansatz einer Society 5.0 beschrieben, dass Künstliche Intelligenz dazu dienen soll, die Herausforderungen einer modernen Gesellschaft zu lösen.
Auch das aufstrebende Indien hat nun seine Richtlinien für die gesellschaftliche Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) veröffentlicht. Dabei werden gleich zu Beginn folgende 7 Prinzipien genannt:
01 Trust is the Foundation Without trust, innovation and adoption will stagnate. 02 People First Human-centric design, human oversight, and human empowerment. 03 Innovation over Restraint All other things being equal, responsible innovation should be prioritised over cautionary restraint. 04 Fairness & Equity Promote inclusive development and avoid discrimination. 05 Accountability Clear allocation of responsibility and enforcement of regulations. 06 Understandable by Design Provide disclosures and explanations that can be understood by the intended user and regulators. 07 Safety, Resilience & Sustainability Safe, secure, and robust systems that are able to withstand systemic shocks and are environmentally sustainable.
Source: Ministry of Electronics and Information Technology (2025): India AI Governance Guidelines. Enabling Safe and Trusted AI Innovation (PDF)
Bemerkenswert finde ich, dass an erster Stelle steht, dass Vertrauen die Grundlage für Innovationen bildet. Vertrauen in die Möglichkeiten der Künstlichen Intelligenz kann man meines Erachtens nur durch Transparenz erreichen. Proprietäre KI-Systeme, bei denen unklar ist, wo die Daten herkommen und wie mit (auch eigenen) Daten umgegangen wird, sind unter der genannten Bedingung (Trust) mit Vorsicht zu genießen.