Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität
Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:
„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).
Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.
In der Softwareentwicklung war es schon früh klar, dass Projekte mit unklaren Anforderungen anders abgewickelt werden müssen, als gut planbare Projekte. Aus diesen Überlegungen heraus hat sich das Agile Manifest ergeben, und haben sich verschiedene Vorgehensmodelle entwickelt, wie z.B. KANBAN in der IT, Scrum oder auch Design Thinking.
Es wundert weiterhin nicht, dass Künstliche Intelligenz rasch in der Softwareentwicklung – z.B. auch im Scrum Framework – angewendet wurde, und auch noch wird. An dieser Stelle wird klar, dass bestehende Prozesse mit KI effizienter durchgeführt werden sollen. In dem Beitrag von Montagne (2025) wird in Bezug auf eine McKinsey-Studie erwähnt, dass durch diese Vorgehensweise durchaus Produktivitätsvorteile in Höhe von 10-15% erzielt werden können.
„Old Model (Standard Agile + AI): ~10-15% productivity gain“ (ebd.).
Demgegenüber weist Montagne allerdings auch darauf hin, dass durch eine andere Vorgehensweise – also ohne das Scrum Framework – plus KI ganz andere Produktivitätsvorteile erzielt werden können.
Die Abbildung weiter oben zeigt in der Gegenüberstellung die immensen Vorteile einer Vorgehensweise, die sich von Scrum unterscheidet und Agentic AI mit Kiro nutzt.
Es stellt sich natürlich gleich die Frage, ob dieses Learning aus der Softwareentwicklung auch auf andere Bereiche übertragbar ist. Antwort: Ja, das ist es.
Krieg/Groß/Bauernhansl (2024) (Hrsg.): Einstieg in die Mass Personalization. Perspektiven für Entscheider
Wenn es um den Nutzen, oder den Wert, eines Produktes oder einer Dienstleistung geht, sollten grundsätzlich zwei Punkte beachtet werden.
(1) Die verschiedenen Dimensionen von Nutzen (Added Values) In der Abbildung ist zu erkennen, dass Added Values fünf Dimensionen beinhalten. Neben dem funktionalen Nutzen, sind das natürlich der wirtschaftliche Nutzen, ein prozessoraler Nutzen und ein emotionaler Nutzen, Die Dimension, die stärker in den Fokus rücken sollte, ist der soziale Nutzen (eigene Hervorhebung in der Abbildung). Am Beispiel der Anwendung von Künstlichen Intelligenz wird deutlich, dass der Fokus in der aktuellen Diskussion zu sehr auf dem wirtschaftlichen Nutzen liegt, und zu wenig den sozialen Nutzen thematisiert.
(2) Nutzen, Wert und Werte Bei einer ausgewogenen Betrachtung zur Nutzung Künstlicher Intelligenz auf der persönlichen Ebene, auf der Team-Ebene, auf der organisationalen Ebene oder auf gesellschaftlicher Ebene können Werte als Ordner dienen. „Der Begriff »Werte« unterscheidet sich vom Begriff »Wert« dadurch, dass der erste Begriff die Gründe beschreibt, warum etwas für jemanden wichtig ist. Werte repräsentieren normative Grundlagen, die als Leitprinzipien für individuelles Verhalten und gesellschaftliche Strukturen dienen. Sie bilden die Basis für die Bewertung von Wert und beeinflussen die Art und Weise, wie Individuen und Gesellschaften Güter, Dienstleistungen oder Handlungen priorisieren“ (Hämmerle et al. 2025, Fraunhofer HNFIZ).
In dem Kontinuum der KI-Modelle sind die Übergänge zwischen den Polen fließend. Immer mehr große Modelle bieten daher neben den Closed Models (Proprietäre Modelle) sogenannte Open Weights Modelle an.
OpenAI hat am 05.08.2025 GPT OSSveröffentlicht, das in der kleinsten Version mit 20B z.B. über Huggingface genutzt werden kann. Grundsätzlich erscheint diese Öffnung gut zu sein. Der Beitrag OpenAI Cracks The Door With GPT OSS vom 11.08.2025 geht darauf detaillierter ein. Ich möchte dazu folgende Punkte anmerken:
(1) OpenAI suggerierte bei der Gründung mit dem Namen, dass man sich den Open Source Werten verpflichtet fühlt. Seit 2019 ist OpenAI allerdings vorwiegend ein kommerzielles Unternehmen, das den Firmennamen für geschicktes Marketing nutzt.
(2) Der Modellname GPT OSS weist zunächst darauf hin, dass es sich um Open Source Software (OSS) handelt, was grundsätzlich zu begrüßen ist.
(3) Möglicherweise werden viele GTP OSS mit Open Source AIverwechseln, was möglicherweise auch gewollt ist. Ansonsten hätte das Unternehmen auch einen anderen Namen verwenden können.
(4) Bei GPT OSS handelt es sich nicht um Open Source AI, sondern um einen Open Weight Model: „Among the Big AI companies, attitudes towards openness vary. Some, like OpenAI or Anthropic, do not release any of their models openly. Others, like Meta, Mistral or Google, release some of their models. These models — for example, Llama, Mistral or Gemma — are typically shared as open weights models“ (Tarkowski, A. (2025): Data Governance in Open Source AI. Enabling Responsible and Systemic Access. In Partnership with the Open Source Initiative).
(5) Dabei ist zu beachten, dass man sich mit proprietärer Künstlicher Intelligenz (KI) immer noch die Denkwelt der Eigentümer einkauft.
Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI
Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.
Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.
„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).
Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.
Die Lernzieltaxonomie von Bloom et al. aus dem Jahr 1956 wird heute noch in ihrer ursprünglichen Fassung benutzt, obwohl es schon zeitgemäßere Weiterentwicklungen gibt.
Zunächst einmal ist der Vorschlag von Anderson und Krathwohl aus dem Jahr 2001 zu nennen, bei dem die oberste Ebene in Evaluieren umbenannt wurde, und eine weitere Ebene „Erschaffen“ hinzugekommen ist.
Auf Basis dieser Weiterentwicklung hat die Oregon State University 2024 eine englischsprachige Darstellung unter der Lizenz CC BY-NC 4.0 veröffentlicht, die die jeweiligen Ebenen mit den Möglichkeiten der Künstlicher Intelligenz ergänzt.
Das Trendscouting-Team der PHBern hat die gesamte Übersicht ins Deutsche übersetzt (Abbildung).
In dem Blogbeitrag Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century hatte ich darauf hingewiesen, dass es falsch ist zu behaupten, dass die USA innovativ sind, und die Europäische Union nur reguliert. Diese Plattitüde wird immer wieder von den Tech-Giganten aus den USA verwendet – allerdings wird die Aussage dadurch nicht richtiger.
Auch Japan (Society 5.0) oder Indien (IndiaAI) gehen dazu über, Künstliche Intelligenz in einer Form zu regulieren, dass die Gesellschaft die Vorteile nutzen kann, und die Nachteile reduziert werden. Doch nicht nur die EU und diese beiden Länder sind in Sachen Künstlicher Intelligenz aktiv. Stellt man die Aktivitäten weltweit zusammen, ist es erstaunlich zu sehen, wie vielfältig mit Künstlicher Intelligenz umgegangen wird.
In diesem Zusammenhang ist die Website Regulations.AI interessant, da dort die Informationen zum jeweiligen Stand in einer Region oder in einem Land übersichtlich zusammengefasst sind. Die Website wird von dem schweizer Unternehmen Smittek GmbH betrieben: Terms of Use.
Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:
Agiles Manifest:Individuen und Interaktionen mehr als Prozesse und Werkzeuge In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.
SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.
KANBANbasiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt. Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.
Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.
In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Herangehensweisen in den USA, in China und in Europa sind, wenn es um Künstliche Intelligenz geht. Darüber hinaus hat auch Japan mit dem Ansatz einer Society 5.0 beschrieben, dass Künstliche Intelligenz dazu dienen soll, die Herausforderungen einer modernen Gesellschaft zu lösen.
Auch das aufstrebende Indien hat nun seine Richtlinien für die gesellschaftliche Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) veröffentlicht. Dabei werden gleich zu Beginn folgende 7 Prinzipien genannt:
01 Trust is the Foundation Without trust, innovation and adoption will stagnate. 02 People First Human-centric design, human oversight, and human empowerment. 03 Innovation over Restraint All other things being equal, responsible innovation should be prioritised over cautionary restraint. 04 Fairness & Equity Promote inclusive development and avoid discrimination. 05 Accountability Clear allocation of responsibility and enforcement of regulations. 06 Understandable by Design Provide disclosures and explanations that can be understood by the intended user and regulators. 07 Safety, Resilience & Sustainability Safe, secure, and robust systems that are able to withstand systemic shocks and are environmentally sustainable.
Source: Ministry of Electronics and Information Technology (2025): India AI Governance Guidelines. Enabling Safe and Trusted AI Innovation (PDF)
Bemerkenswert finde ich, dass an erster Stelle steht, dass Vertrauen die Grundlage für Innovationen bildet. Vertrauen in die Möglichkeiten der Künstlichen Intelligenz kann man meines Erachtens nur durch Transparenz erreichen. Proprietäre KI-Systeme, bei denen unklar ist, wo die Daten herkommen und wie mit (auch eigenen) Daten umgegangen wird, sind unter der genannten Bedingung (Trust) mit Vorsicht zu genießen.
Digitale Souveränität fängt damit an, sich von propritärer Software unabhängiger zu machen. Proprietäre Software ist Software, deren Quellcode nicht öffentlich ist, und die Unternehmen gehört (Closed Software). Dazu zählen einerseits die verschiedenen Anwendungen von Microsoft, aber auch die von Google oder ZOHO usw.
Demgegenüber gibt es in der Zwischenzeit leistungsfähige Open Source Software. Die indische Organisation SFLC hat am 11. November eine Übersicht veröffentlicht, die Google Workplace, ZOHO Workplace und Nextcloud Office/ProtonMail/BigBlueButton gegenüberstellt – die Abbildung zeigt einen Ausschnitt aus der Tabelle, die in diesem Beitrag zu finden ist.
„The purpose of this comparison is to assess the different approaches, features, and trade-offs each solution presents and to help organizations make informed decisions based on their operational requirements, technical capabilities, and priorities around privacy, flexibility, and cost“ (ebd.).
Wir nutzen seit einiger Zeit Nextcloud mit seinen verschiedenen Möglichkeiten, inkl. Nextcloud Talk (Videokonferenzen), sodass BigBlueButton nicht separat erforderlich ist.
Darüber hinaus nutzen wir LocalAI über den Nextcloud Assistenten, haben OpenProject integriert und erweitern diese Möglichkeiten mit Langflow und Ollama, um KI-Agenten zu entwickeln.
Alles basiert auf Open Source Software, die auf unseren Servern laufen, sodass auch alle Daten auf unseren Servern bleiben – ganz im Sinne einer stärkeren Digitalen Souveränität.
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.