Künstliche Intelligenz, Agiles Manifest, Scrum und Kanban

Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:

Agiles Manifest: Individuen und Interaktionen mehr als Prozesse und Werkzeuge
In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden
Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

KANBAN basiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt.
Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.

In einem anderen Blogbeitrag hatte ich dazu schon einmal darauf hingewiesen, dass man sich mit proprietärer Künstlicher Intelligenz (KI) auch die Denkwelt der Eigentümer einkauft.

Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.

Es liegt an uns, ob wir uns von den Tech-Giganten weiter in eine immer stärker werdende Abhängigkeit treiben lassen, oder andere Wege gehen – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Künstliche Intelligenz: Die neue Olmo3 Modell-Familie

https://allenai.org/

Auf die Olmo Modell Familie hatte ich diesen Blogbeitrag schon einmal hingewiesen: Mit der Olmo2 Modell-Familie offene Forschung an Sprachmodellen vorantreiben. Es handelt sich dabei um Modelle, die vom Ai2 Institut entwickelt und veröffentlicht werden. Ziel des Instituts ist es, neben der Offenheit der Modelle auch einen Beitrag zur Lösung der gesellschaftlichen Herausforderungen zu leisten. Im November 2025 ist die Olmo3 Modell-Familie veröffentlicht worden:

Olmo 3-Think (7B, 32B)–our flagship open reasoning models for advanced experiments, surfacing intermediate thinking steps.

Olmo 3-Instruct (7B)–tuned for multi-turn chat, tool use, and function/API calling.

Olmo 3-Base (7B, 32B)–strong at code, reading comprehension, and math; our best fully open base models and a versatile foundation for fine-tuning.

Die Modelle sind bei Huggingface frei verfügbar und können in einem Playground getestet werden.

Sollten wir zwischen Handlungs- und Ereigniskontingenz unterscheiden?

Image by Gerd Altmann from Pixabay

Der Begriff „Kontingenz“ kommt immer stärker in den Fokus, je deutlicher wir erkennen, dass unsere Lebenserfahrungen ungewiss und offen sind. Es kann also alles so kommen, oder ganz anders. Das macht es nicht einfacher, Entscheidungen zu fällen.

„Das zäumt die Sache sogleich pragmatisch auf, und mit Hermann Lübbe (1998:35) können wir dann ´kontingent´ Ereignisse oder Vorgänge nennen, ´sofern sie mit Handlungen handlungssinnunabhängig interferieren.´ Zwischen Unmöglichkeit und Notwendigkeit also liegt das Reich der Kontingenz. Mit Lübbes Bestimmung hat es allerdings eine Schwierigkeit, die ins Auge sticht, sobald man daran denkt, dass die Handlung selbst kontingent genannt werden kann, weil – insofern – sie selbst anders möglich ist/war. Kontingent ist dann alles, was dem Entscheidenden oder dem Handelnden anders möglich ist – vor dem Hintergrund dessen, was er (oder, aber das ist etwas anderes, ein Beobachter zweiter Ordnung) als notwendig oder unmöglich ansieht. Dann interferieren nicht externe Ereignisse handlungssinnunabhängig mit Handlungen, sondern Handlungen begründungssinnunabhängig mit ihren Begründungen. Zwingende Gründe, solche, die ein Handeln als notwendig begründen, gibt es nicht im Reich der Kontingenz. Diese Version der Kontingenz lässt sich in den Satz kleiden: Es könnte auch anders sein, und wir können anders. Lübbes Version lautet: Es könnte auch anders [17] sein, aber wir können es nicht ändern. Ich finde es zweckmäßig, jene Version Handlungskontingenz, die Version Lübbes aber Ereigniskontingenz zu nennen“ (Ortmann 2009:17-18).

Ortmann weist darauf hin, dass Kontingenz einerseits immer in Bezug auf etwas gesehen werden musss – also in Bezug auf eine bestehende Ordnung. Andererseits gibt es kein Management ohne Kontingenz, wobei es sich um den Umgang mit Handlungskontingenz oder Ereigniskontingenz handeln kann (ebd. S. 23). Es sieht so aus, als ob die Unterscheidung für die praktische Anwendung von Management nützlich ist.