Warum wird GESCHÄFTSMODELL + AI nicht ausreichen?

Organisationen und Privatpersonen befassen sich mit Künstlicher Intelligenz (GenAI) und sind fasziniert von den Möglichkeiten. Dabei setzen fast alle Organisationen auf die Formel

GESCHÄFTSMODELL +AI

Gut zu erkennen ist das beispielsweise in dem Beitrag Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung. Man geht von dem üblichen Softwareentwicklungsprozess aus und überlegt, wie Künstliche Intelligenz in den einzelnen Schritten (einzelnen Tasks) genutzt werden kann. Ähnlich ist es im Projektmanagement, z.B. nach DIN 69901 mit den vorgeschlagenen Minimum-Prozessen usw. usw. In dem Zusammenhang habe ich folgenden Text gefunden:

“(…) if you’re content to sit on your +AI mindset, things aren’t going to go well for your business (or you personally) because you will lack the agility and capability that come with the next generation of AI” (Thomas et al. 2025).

In Zukunft bietet Künstliche Intelligenz, und hier meine ich speziell auch Agentic AI (KI-Agenten), ganz neue, andere Möglichkeiten. Wir sollten daher mittel- und langfristig von einem anderen Ansatz (Mindset) ausgehen:

AI+

Dieser Blick sollte sich von den bestehenden Geschäftsmodellen lösen, und von den (neuen) Möglichkeiten der KI ausgehen. Das ist dann nicht mehr evolutionär, sondern eher disruptiv und wird ganze Bereiche verändern.

Mein Vorschlag ist es hier, nicht auf Closed Source AI oder Open Weighted AI, sondern auf Open Source AI zu setzen – auch bei Agentic AI. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

Von GenAI zu Agentic AI bedeutet, eine andere Perspektive einzunehmen, und andere Kompetenzen zu entwickeln

WEF (2024): Navigating the AI Frontier. A Primer on the Evolution and Impact of AI Agents

Alle reden und schreiben über KI (Künstliche Intelligenz / AI: Artificial Intelligence) und meinen damit meistens GenAI. Bei den verschiedenen KI-Anwendungen geht es mehrheitlich darum, Abläufe mit ihren verschiedenen Tasks zu unterstützen. Siehe dazu beispielsweise Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung. Ähnliches findet man auch bei anderen Branchen wie z.B. der Kommunikationsbranche usw.

Diese vielfältigen Möglichkeiten faszinieren Menschen und Organisationen so sehr, dass sie das auch bei den entsprechenden Kompetenzentwicklungen als einen der Schwerpunkte sehen. Hervorheben möchte ich hier beispielsweise das oft erwähnte Prompt-Engineering.

Betrachten wir allerdings neuere KI-Entwicklungen, so wird immer deutlicher, dass es in der nahen Zukunft immer mehr darum gehen wird, mit KI-Agenten (Agentic AI) umzugehen. Dabei verändern sich allerdings die Perspektiven auf die Nutzung von KI grundlegend. Der folgende Absatz zeigt das deutlich auf:

“Quite simply, today, most people use AI in a task-oriented workflow (for example, to finish a code stub or summarize a document), whereas agents are goal oriented. You give an AI agent a task, and it will get it done and even plan future actions without needing your explicit guidance or intervention. Working with agents requires a change in perspective: instead of designing an AI driven app to run some specific tasks, you use an agentic approach that focuses on outcomes and objectives. An agent will try to achieve a desired outcome and will figure out on its own which tasks are necessary” (Thomas, R.; Zikopoulos, P.; Soule, K. 2025).

Die in dem Zusammenhang mit KI thematisierten Kompetenzen waren und sind immer noch zu sehr auf den “task-oriented workflow” ausgerichtet. Dabei benötigen wird bei der eher “goal oriented”, also ergebnisorientierten (zielorientierten) Herangehensweise, andere Kompetenzen.

Ich bin gespannt, wie die vielen KI-Kompetenzmodelle diese Entwicklungen abfangen werden. Denn: Kaum ist das eher task-oriented Kompetenzmodell veröffentlicht, muss schon nachgebessert werden. In der Logik dieser Kompetenzmodelle wird es wohl bald eine Weiterentwicklung geben, die in Zukunft “AI Agentic” – Kompetenzen in den Mittelpunkt stellt, usw. usw. Ob das für Menschen und Organisationen einen guten (stabilen) Rahmen für ein modernes Kompetenzmanagement bietet?

Wie Sie als Leser meines Blogs wissen, stehe ich diesen KI-Kompetenzmodellen etwas kritisch gegenüber, da sie zu “Bindestrich”-Kompetenzen (Digitale Kompetenzen, Agile Kompetenzen, KI-Kompetenzen) führen, die sich in großen Teilen verändern müssen. Meines Erachtens ist es besser, allgemein von Kompetenzen von Selbstorganisationsdispositionen zu sprechen – und zwar auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk – natürlich auch unter dem Aspekt der Nutzung von KI. Siehe dazu Kompetenzmanagement.

Experteninterview zu ‘Künstliche Intelligenz im Projektmanagement’ gegeben

Vor einiger Zeit wurde ich wegen einem Experteninterview zum Thema Künstliche Intelligenz im Projektmanagement angefragt. Das Interview sollte Bestandteil einer Masterarbeit zum Thema sein. Nachdem ich mir die Anfrage genauer angesehen hatte, habe ich dem Interview zugestimmt.

Im Vorfeld musste ich (natürlich) eine Datenschutzerklärung ausfüllen und bestätigen, dass das Interview aufgenommen und transkribiert wird.

Am Montag, den 26.05.2025, fand dann das Interview online statt. In ca. 60 Minuten habe ich Fragen zum Thema beantwortet, und meine Einschätzung zu zukünftigen Entwicklungen gegeben. Ein Schwerpunkt der Befragung war die erforderliche Kompetenzentwicklung bei der Nutzung von Künstlicher Intelligenz.

Da mir im Rahmen meiner wissenschaftlichen Arbeiten auch immer wieder geholfen wurde, ist es für mich selbstverständlich, Interview-Anfragen, soweit es zeitlich geht, anzunehmen.

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Die aktuelle Diskussion um Künstliche Intelligenz wird einerseits technisch geführt, andererseits geht es dabei auch um Menschliche Kompetenzen. Alleine diese Gegenüberstellung von “Intelligenz” hier und “Kompetenz” dort wirft schon Fragen auf:

(1) Ist der Begriff “Künstliche Intelligenz” schon ein Kategorienfehler?

Zunächst soll es um den etablierten Begriff “Künstliche Intelligenz” gehen, der durchaus kritisch hinterfragt werden kann. Genau das hat Beispielsweise der Meister der Systemtheorie, Niklas Luhmann, getan:

“Der Soziologe Niklas Luhmann beschreibt dies treffend als Kategorienfehler (Luhmann & Schorr, 1982) – ein grundlegender Unterschied zwischen maschineller Informationsverarbeitung und menschlichen Qualitäten. Maschinen können zwar Daten präzise und schnell verarbeiten, doch echte Kreativität, Sinnverständnis und emotionale Reflexion bleiben ihnen verschlossen” (Ehlers 2025, in weiter bilden 1/2025).

Jetzt kann man natürlich anmerken, dass sich diese Argumentation auf die damaligen IT-Systeme bezog, die heutigen KI-Systeme allerdings doch anders sind. Diese Perspektive ist durchaus berechtigt, doch ist an der Argumentation Luhmanns immer noch etwas dran, wenn wir die heutigen KI-Systeme betrachten.

(2) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlicher Intelligenz etwa auch ein Kategorienfehler?

Interessant ist hier, dass es den Hinweis auf einen Kategorienfehler auch aus der Intelligenzforschung gibt. Siehe dazu ausführlicher OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Wenn wir also mit Intelligenz das meinen, was ein Intelligenztest misst, sieht es für den Menschen schon jetzt ziemlich schlecht aus.

Wenn wir allerdings Intelligenz entgrenzen und eher den Ansatz von Howard Gardner sehen, der von Multiplen Intelligenzen ausgeht, wird es schon etwas spannender, denn nach Howard Gardner ist Intelligenz u.a. ein biopsychologisches Potenzial:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner  2002:46-47).

Insofern wäre dann der Vergliche zwischen Künstlicher Intelligenz und Multiplen Intelligenzen ein Kategorienfehler. Siehe dazu auch Künstliche Intelligenz – ein Kategorienfehler? Darin wird auch auf die sozialen und emotionalen Dimensionen bei Menschen hingewiesen.

(3) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlichen Kompetenzen ein Kategorienfehler?

Wenn wir Künstliche Intelligenz mit Menschlichen Kompetenzen vergleichen, vergleichen wir auch indirekt die beiden Konstrukte “Intelligenz” und “Kompetenz. In dem Beitrag Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen? finden Sie dazu ausführlichere Anmerkungen.

Das AIComp-Kompetenzmodell, bei dem nicht die Abgrenzung zwischen den Möglichkeiten der Künstlichen Intelligenz und den Menschlichen Kompetenzen steht, sondern die “produktive Kooperationskultur” (ebd.). Eine Kooperationskultur zwischen Intelligenz und Kompetenz?

Wenn das alles nicht schon verwirrend genug ist, schreiben mehrere Autoren in dem Gesamtzusammenhang auch noch von Menschlichen Qualitäten oder Skills (Future Skills). Letzteres unterstellt eine eher amerikanische Perspektive auf Kompetenzen.

“Frühere Kompetenzdefinitionen beziehen sich auf die im anglo-amerikanischen Raum gebräuchliche Unterscheidung individueller Leistunsgsdispositionen in Knowledge, Skills, Abilities and Other Characteristics (KSAO), wobei modernere Definitionen auch eher die Selbstorganisationsdisposition in den Vordergrund stellen” (Freund 2011).

Sollten wir daher lieber von Künstlichen Kompetenzen und Menschlichen Kompetenzen auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk sprechen, und diese dann vergleichen?

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Digitale Souveränität: Souveränitätsscore für KI Systeme

Souveränitätsscore für KI-Systeme – Ausschnitt (Quelle: https://digital-sovereignty.net/score/score-ai)

In der Zwischenzeit sind sehr viele KI-Modelle (AI Model) verfügbar, sodass es manchmal zu etwas unscharfen Beschreibungen kommt. Eine erste Unterscheidung ist, Closed Source AI, Open Weights AI und Open Source AI nicht zu verwechseln. In dem Beitrag AI Kontinuum wird das erläutert.

“OpenAI” wurde beispielsweise als Muttergesellschaft von ChatGPT 2015 als gemeinnützige Organisation gegründet, seit 2019 ist “OpenAI” gewinnorientiert und wird von Microsoft dominiert. Durch geschicktes Marketing wird oftmals suggeriert, dass von kommerziellen Anbietern bereitgestellte Modelle “Open Source AI” sind.

Dabei stellt sich natürlich gleich die Frage, nach einer entsprechenden Definition, die es auch seit 2024 gibt: Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht.

Wenn Sie sich also für AI Modelle interessieren, können Sie dieses Modell gegenüber den in der Definition genannten Kriterien prüfen.

Weiterhin können Sie den Souveränitätsscore für KI Systeme von Prof. Wehner nutzen (Abbildung). Schauen Sie sich auf der Website auch noch weiter um – es lohnt sich.

Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung

High-level software development life cycle (McKinsey (2024): The gen AI skills revolution: Rethinking your talent strategy)

Wie in dem Beitrag von McKinsey (2024) ausführlich erläutert wird, beeinflusst Künstliche Intelligenz (GenAI) alle Schritte/Phasen der Softwareentwicklung. Drüber hinaus werden in Zukunft immer mehr KI-Agenten einzelne Tasks eigenständig übernehmen, oder sogar über Multi-Agenten-Systeme ganze Entwicklungsschritte.

Die Softwareentwicklung hat dazu beigetragen, dass Anwendungen der Künstlichen Intelligenz heute überhaupt möglich sind. Es kann allerdings sein, dass Künstliche Intelligenz viele Softwareentwickler und deren Unternehmen überflüssig macht.

Möglicherweise ist in Zukunft auch jeder Einzelne Mensch in der Lage, sich mit Künstlicher Intelligenz kleine erste Programme schreiben zu lassen – ohne dass Programmierkenntnisse erforderlich sind. Ganz im Sinne von Low Code, No Code und Open Source.

So eine Entwicklung kann als Reflexive Innovation bezeichnet werden: “Die Revolution frisst ihre eigenen Kinder” (Quelle). Siehe dazu ausführlicher Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.

Künstliche Intelligenz und Kompetenz

Wenn ein neues Thema aufkommt, geht es dabei oft auch darum, entsprechende Kompetenzen zu entwickeln. Als beispielsweise immer klarer wurde, dass die Digitalisierung alle Bereiche unseres Lebens beeinflussen wird, wurde schnell von Digitalen Kompetenzen gesprochen und geschrieben, die alle und jeder entwickeln sollte/müsste. In dem Beitrag “Digitale Kompetenzen” oder besser “Kompetenzen in digitalen Kontexten”? habe ich erläutert, warum es in diesem Fall besser ist, von Kompetenzen in digitalen Kontexten zu sprechen. Solche Bindestrich-Kompetenzen gibt es in sehr vielen Facetten – nun auch bei dem Thema Künstliche Intelligenz.

Auch hier wird schnell von KI-Kompetenzen gesprochen, ohne zu reflektieren, dass es grundsätzlich Kompetenzen sind, die im Kontext der Künstlichen Intelligenz entwickelt (nicht vermittelt!) werden sollen. In diesem Zusammenhang verweise ich gerne darauf, Kompetenzen als Selbstorganisationsdispositionen zu sehen. Diese Perspektive geht auf Erpenbeck und Heyse zurück:

“Die Handlungskompetenztheorie von Erpenbeck und Heyse (Erpenbeck 2012, Erpenbeck & Sauter 2015, Heyse & Erpenbeck 2007) wiederum betont die Bedeutung von selbstorganisiertem und werteorientiertem Handeln in komplexen Situationen, was sich auch auf den Bereich der KI übertragen lässt. Personen mit hoher Handlungskompetenz
sind dann in der Lage, Handlungen zu entwickeln, um erfolgreich handlungsfähig zu sein und zu bleiben” (Ehler et al. 2025).

Siehe dazu auch

Hybridisierung von Kompetenzen: Kompetenzmanagement in Zeiten von Künstlicher Intelligenz

Persönlichkeitseigenschaften, -fähigkeiten und Kompetenzen

Projektmanagement: KI-Unterstützung der ICB 4.0 Kompetenzen

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk

Open Source AI: Veröffentlichung der ALIA AI Modelle für ca. 600 Millionen Spanisch sprechender Menschen weltweit

Quelle: https://alia.gob.es/

Es ist schon erstaunlich, wie unreflektiert viele Privatpersonen, Organisationen oder auch Öffentliche Verwaltungen Künstliche Intelligenz (AI / GenAI) von den bekannten Tech-Unternehmen nutzen. Natürlich sind diese Closed Source AI Models, oder auch Open Weights Models, sehr innovativ und treiben durch immer mehr neue Funktionen die Anwender vor sich her. Viele kommen dabei gar nicht richtig zum Nachdenken. Möglicherweise ist das ja auch so gewollt….

Die Notwendigkeit, Open Source AI zu nutzen wird gerade im Hinblick auf die europäischen Rahmenbedingungen immer wichtiger. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich.

Hinzu kommt noch, dass es immer mehr länderspezifische KI-Modelle gibt, die den sprachlichen Kontext, und damit die sprachlichen Besonderheiten besser abbilden. Die wichtigsten LLM (Closed Source AI) sind mit englischsprachigen Daten trainiert und übersetzen dann in die jeweilige Sprache. Das klappt zwar recht gut, doch fehlt es gerade bei Innovationen, oder kulturellen regionalen Besonderheiten, an der genauen Passung.

Die spanische Verwaltung hat nun die Initiative ALIA gestartet, die 100% öffentlich finanziert ist, und eine KI-Ressource für alle Spanisch sprechenden Menschen sein soll. Dazu gehören auch frei verfügbare AI Modelle (LLM) (…)

“(…) to generate ethical and trustworthy AI standards, with open-source and transparent models, guaranteeing the protection of fundamental rights, the protection of intellectual property rights and the protection of personal data, and developing a  framework of best practices in this field (Vasquez in OSOR 2025).

“ALIA es una iniciativa pionera en la Unión Europea que busca proporcionar una infraestructura pública de recursos de IA, como modelos de lenguaje abiertos y transparentes, para fomentar el impulso del castellano y lenguas cooficiales -catalán y valenciano, euskera y gallego- en el desarrollo y despliegue de la IA en el mundo” (ALIA Website)

Es freut mich zu sehen, wie die einzelnen europäischen Regionen oder Länder Initiativen starten, die die europäischen, oder auch regionalen Besonderheiten berücksichtigen – und das alles auf Open Source Basis. Siehe dazu auch

Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Das Kontinuum zwischen Closed Source AI und Open Source AI

In dem Beitrag AI: Was ist der Unterschied zwischen Open Source und Open Weights Models? hatte ich schon einmal darauf hingewiesen, dass es zwischen den Polen Closed Source AI und Open Source AI ein Kontinuum weiterer Möglichkeiten gibt.

Die Grafik illustriert den Zusammenhang noch einmal anhand der zwei Dimensionen Degree of Openness und Completeness. Man sieht hier deutlich, dass der Firmenname OpenAI dazu führen kann, z.B. ChatGPT von OpenAI als Open Source AI zu sehen, obwohl es komplett intransparent ist und somit in die Kategorie Closed Source AI gehört. Die Open Weights Models liegen irgendwo zwischen den beiden Polen und machen es nicht einfacher, wirkliche Open Source AI zu bestimmen.

Eine erste Entscheidungshilfe kann die Definition zu Open Source AI sein, die seit 2024 vorliegt. Anhand der (recht wenigen) Kriterien kann man schon eine erste Bewertung der Modelle vornehmen.

In der Zwischenzeit hat sich auch die Wissenschaft dem Problem angenommen und erste Frameworks veröffentlicht. Ein erstes Beispiel dafür ist hier zu finden:

White et al. (2024): The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence | Quelle).

Open Source KI-Agenten: Update auf Langflow 1.4

Eigener Screenshot

Die Abhängigkeit von amerikanischen oder chinesichen KI-Anbietern ist zu einem großen Problem in Europa geworden, da wir in Europa einen anderen Ansatz im Umgang mit Künstlicher Intelligenz haben. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich.

Um die eigene Digitale Souveränität wiederzuerlangen, setzen immer mehr Organisationen auf Open Source Anwendungen. Siehe dazu Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Wir haben beispielsweise im ersten Schritt Nextcloud als Alternative zu den bekannten Microsoft-Produkten auf einem eigenen Server installiert, und weitere Bausteine wie Open Project, Moodle usw. integriert. In Nextcloud ist ein Assistent integriert, über den wir auch KI-Modelle lokal (LocalAI) auf unserem Server nutzen können. Siehe dazu auch LocalAI: Aktuell können wir aus 713 Modellen auswählen.

Eine professionelle Möglichkeit, KI-Agenten zu nutzen – also Prozesse mit internen/externen Daten und KI-Modellen zu kombinieren – haben wir mit Langflow (Open Source) auf unserem Server installiert. Siehe dazu AI Agents: Langflow (Open Source) auf unserem Server installiert. Mit der neuen Version 1.4 stehen uns nun stark erweiterte Funktionen zur Verfügung. In dem Beitrag Langflow 1.4: Organize Workflows + Connect with MCP werden diese ausführlich erläutert:

This release introduces Projects, a new way to organize, modularize, and expose your AI workflows.

Beyond organization, Projects are now also MCP servers! MCP (Model Context Protocol) is an open standard from Anthropic designed to establish seamless interoperability between LLM applications and external tools, APIs, or data sources.

In der nächsten Zeit werden wir verschiedene Anwendungen für KI-Agenten testen und unsere Erafhrungen hier mitteilen.