Report 2025: Commercial Open Source Software (COSS)

Quelle: Linux Foundation Infographic

Wir alle nutzen mehr oder weniger intensiv Open Source Anwendungen. Gerade in der Diskussion um die Digitale Souveränität in Europa kommt dem Thema allerdings eine besondere Bedeutung zu – es geht um mehr Unabhängigkeit und dadurch um mehr Eigenverantwortung für Daten. Darüber hinaus gibt es auch eine dynamische Entwicklung bei der Kommerzialisierung von Open Source Anwendungen (COSS: Commercial Open Source Software). In dem aktuell vorliegenden Report

Sam Boysel, Linux Foundation; Matthiueu Lavergne, Serena; Matt Trifiro, Commercial Open Source Startup Alliance (COSSA) (2025): The State of Commercial. Open Source 2025. The Data-Backed Financial Case from 25 Years of Commercial Open Source | PDF

geht es darum aufzuzeigen, wie sich Commercial Open Source Software (COSS) auch bei wichtigen finanziellen Kennzahlen schlägt. Die Ergebnisse sind erstaunlich:

“This report sets out to settle that debate with data. Drawing from 25 years of venture capital activity and a matched dataset of over 800 VC-backed COSS startups, we benchmark the funding trajectories and liquidity outcomes of open source companies against their closed-source peers. The results are conclusive: not only is COSS financially viable, it consistently outperforms on key venture metrics especially in infrastructure software” (ebd.).

Seit vielen Jahren sind Personen und Organisationen, die Open Source Software favorisieren, eher eine “Randnotiz” gewesen. Diese Sicht scheint sich seit einigen Jahren kontinuierlich zu verändern. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Künstliche Intelligenz: Halluzinationen und der Bullshit-Faktor – eine Art Künstliche Dummheit?

Wenn es um Menschliche Intelligenz geht, sprechen wir auch oft über die scheinbare Menschliche Dummheit. In meinen Blogbeiträgen Reden wir über Dummheit und Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen? bin ich auf das Thema eingegangen. Weiterhin finden sich in der Rezension Ina Rösing: Intelligenz und Dummheit weitere interessante Anmerkungen.

Im Zusammenhang mit Künstlicher Intelligenz könnte man natürlich auch über eine Art Künstliche Dummheit nachdenken. Wie schon länger bekannt, stellen beispielsweise Halluzinationen und falsche Antworten ein nicht zu vernachlässigendes Phänomen dar. Darüber hinaus gibt es allerdings auch noch eine Art Bullshit-Faktor. Es geht dabei um die Missachtung der Wahrheit in großen Sprachmodellen. Genau diesen Aspekt haben sich verschiedene Forscher der Princeton University einmal genauer angesehen und ein interessantes Paper dazu veröffentlicht:

Liang et al. (2025): Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models | PDF

Es stellt sich hier natürlich die Frage, wie sich Halluzination und der genannte Bullshit-Faktor unterscheiden. Dazu habe ich folgendes gefunden:

“Daher gebe es auch einen entscheidenden Unterschied zwischen Halluzinationen und dem, was er als „Bullshit“ bezeichnet – und der liegt in der internen Überzeugung des Systems. Wenn ein Sprachmodell halluziniert, ist es nicht mehr in der Lage, korrekte Antworten zu erzeugen. „Beim Bullshit hingegen ist das Problem nicht Verwirrung über die Wahrheit, sondern eine fehlende Verpflichtung, die Wahrheit zu berichten” (t3n vom 21.08.2025).

Interessant finde ich, dass die Forscher wohl auch eine erste Möglichkeit gefunden haben, um diesen Bullshit-Faktor zu überprüfen. Gut wäre es natürlich, wenn die Ergebnisse dann allen zur Verfügung stehen würden. Gespannt bin ich besonders darauf, wie Open Source AI Modelle abschneiden.

Künstliche Intelligenz: LLM (Large Language Models) und Large Reasoning Models (LRMs) in Bezug auf komplexes Problemlösen

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

KI-Anwendungen basieren oft auf Trainingsdaten, sogenannter Large Language Models (LLM). Um die Leistungsfähigkeit und die Qualität der Antworten von solchen Systemen zu verbessern, wurde inzwischen ein “Denkprozess” (Reasoning) vor der Ausgabe der Antwort vorgeschaltet. Siehe dazu ausführlicher What are Large Reasoning Models (LRMs)?

Die Frage stellt sich natürlich: Liefern LRMs wirklich bessere Ergebnisse als LLMs?

In einem von Apple-Mitarbeitern veröffentlichten, viel beachteten Paper wurde nun die Leistungsfähigkeit nicht aufgrund logisch-mathematischer Zusammenhänge alleine untersucht, sondern anhand von drei Komplexitätskategorien – mit überraschenden Ergebnissen:

“Recent generations of language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.. (…) By comparing LRMs with their standard LLM counterparts under same inference compute, we identify three performance regimes: (1) low-complexity tasks where standard models outperform LRMs, (2) medium-complexity tasks where LRMs demonstrates advantage, and (3) high-complexity tasks where both models face complete collapse

Source: Shojaee et al. (2025): The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.

In Zukunft werden immer mehr hoch-komplexe Problemlösungen in den Mittelpunkt von Arbeit rücken. Gerade in diesem Bereich scheinen LLMs und sogar LRMs allerdings ihre Schwierigkeiten zu haben. Ehrlich gesagt, wundert mich das jetzt nicht so sehr. Mich wundert eher, dass das genannte Paper die KI-Welt so aufgewühlt hat 🙂 Siehe dazu auch Was sind eigentlich Multi-Kontext-Probleme?

Sicher werden die Tech-Unternehmen der KI-Branche jetzt argumentieren, dass die nächsten KI-Modelle auch diese Schwierigkeiten meistern werden. Das erinnert mich an unseren Mercedes-Händler, der ähnlich argumentierte, sobald wir ihn auf die Schwachstellen des eingebauten Navigationssystems hingewiesen hatten: Im nächsten Modell ist alles besser.

Technologiegetriebene Unternehmen – insbesondere KI-Unternehmen – müssen wohl so argumentieren, und die Lösungen in die Zukunft projizieren – Storytelling eben, es geht immerhin um sehr viel Geld. Man muss also daran glauben….. oder auch nicht.

Möglicherweise handelt sich es hier um einen Kategorienfehler. Siehe dazu ausführlicher Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

KI-Agenten im Projektmanagement

Künstliche Intelligenz kann ganz generell in vielen Bereichen einer Organisation eingesetzt werden – natürlich auch im Projektmanagement. Zu KI im Projektmanagement gibt es in der Zwischenzeit viele Beiträge. Siehe dazu beispielsweise auch Künstliche Intelligenz (KI) im Projektmanagement: Routine und Projektarbeit.

In der Zwischenzeit geht es in der Diskussion zu KI auch immer stärker um die Frage, wie KI Agenten im Projektmanagement genutzt werden können. Dazu gibt es den Beitrag KI-Agenten im Projektmanagement: So unterstützen digitale Rollen den Projektalltag von Jörg Meier, vom 15.07.2025 im GPM Blog. Darin werden erste gute Hinweise gegeben. Dennoch:

Ich hätte mir hier gewünscht, dass der Author auch auf die Problematik der Nutzung von Closed Sourced Modellen wie ChatGPT oder Gemini hinweist. Ausgewählte KI Modelle sollten möglichst “wirklich” Open Source AI (Definition aus 2024) sein. Es wäre m.E. auch die Aufgabe der GPM die Digitale Souveränität insgesamt stärker bewusst zu machen. Siehe dazu beispielsweise auch Digitale Souveränität: Souveränitätsscore für KI Systeme.

Dass KI Agenten gerade in der Software-Entwicklung erhebliche Potenziale erschließen können, wird in diesem Beitrag deutlich: The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen.

NANDA – die Idee eines Open Agentic Web

Nanda Roadmap (Quelle: https://nanda.media.mit.edu/)

Mit KI Agenten (AI Agents) ist es möglich, in der Geschäftswelt vielfältige Prozesse zu optimieren, oder innovative Prozesse, Produkte und Dienstleistungen zu generieren, die bisher aus den verschiedensten Gründen nicht möglich waren. Dazu zählen oftmals nicht verfügbare Daten und die dazugehörenden Kosten.

Auf Basis dieser Entwicklungen können wir in Zukunft immer stärker von einer Agentenbasierten Wirtschaft sprechen – Agentic Economy (Siehe Abbildung). Dabei geht es um die Nutzung von KI-Agenten in Unternehmen oder in ganzen Branchen. Siehe dazu The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen oder auch Künstliche Intelligenz lässt Mass Customization in einem anderen Licht erscheinen.

Denken wir etwas weiter, so müssen in Zukunft auch immer stärker KI-Agenten miteinander kommunizieren, also von Agent zu Agent – A2A. Passiert das zwischen sehr vielen Agenten eines Wirtschaftssystems, bzw. einer ganzen Gesellschaft, entsteht so etwas wie eine Agentic Society.

Das Projekt NANDA hat sich in dem Zusammenhang das Ziel gesetzt, diese Entwicklung mit einem Open Agentic Web zu unterstützen:

“Imagine billions of specialized AI agents collaborating across a decentralized architecture. Each performs discrete functions while communicating seamlessly, navigating autonomously, socializing, learning, earning and transacting on our behalf” (Source).

Das vom MIT initiierte Projekt NANDA arbeitet in Europa u.a. mit der TU München und der ETH Zürich zusammen. Das Ziel ist, alles Open Source basiert zur Verfügung zu stellen..

Ich bin an dieser Stelle immer etwas vorsichtig, da beispielsweise OpenAI auch beim Start das Ziel hatte, KI als Open Source zur Verfügung zu stellen. In der Zwischenzeit wissen wir, dass OpenAI ein Closed Source Model, bzw. ein Open Weights Model ist, und kein Open Source Model. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.

RKW Kompetenzzentrum: Das Twin Transition Tool

Quelle: https://www.rkw-kompetenzzentrum.de/twintransitiontool/

Das RKW Kompetenzzentrum veröffentlicht immer wieder Hilfen für die organisatorische Entwicklung von gerade mittelständischen Unternehmen. Diesmal wurden mit dem Twin Transition Tool (Abbildung) zwei wichtige Trans kombiniert. Einerseits ist das natürlich die Digitalisierung, und andererseits die Nachhaltigkeit.

“Die Twin Transition (auch doppelte Transformation oder Nachhaltige Digitalisierung genannt) ist eine der größten Herausforderungen unserer Zeit. Doch was ist die Idee dahinter? Gemeint ist, die grüne (nachhaltige) und die digitale Transformation von Wirtschaft und Gesellschaft gemeinsam zu denken und voranzutreiben” (ebd.).

Das Online-Tool kann direkt gestartet werden. Anschließend haben Sie die Möglichkeit, aus insgesamt 17 Themenfelder die Bereiche per drag&drop auswählen, die für Sie am wichtigsten erscheinen. Das weitere Vorgehen wird in einem kleinen Video erläutert.

Insgesamt ist das Tool gerade für Kleine und Mittlere Unternehmen (KMU) geeignet, sich die Zusammenhänge klar zu machen und geeignete Maßnahmen für die eigene Organisation abzuleiten.

KI-Modelle: Monitoring einer Entwicklungsumgebung

Using watsonx.governance to build a dashboard and track a multimodel
deployment environment (Thomas et al. 2025)

In verschiedenen Beiträgen hatte ich beschrieben, was eine Organisation machen kann, um KI-Modelle sinnvoll einzusetzen. An dieser Stelle möchte ich nur einige wenige Punkte beispielhaft dazu aufzählen.

Zunächst können LLM (Large Language Models) oder SLM (Small Language Models) eingesetzt werden – Closed Sourced , Open Weighted oder Open Source. Weiterhin können KI-Modelle mit Hilfe eines AI-Routers sinnvoll kombiniert, bzw. mit Hilfe von InstructLab mit eigenen Daten trainiert werden. Hinzu kommen noch die KI-Agenten – aus meiner Sicht natürlich auch Open Source AI.

Das sind nur einige Beispiele dafür, dass eine Organisation aufpassen muss, dass die vielen Aktivitäten sinnvoll und wirtschaftlich bleiben. Doch: Wie können Sie das ganze KI-System verfolgen und verbessern? In der Abbildung sehen Sie ein Dashboard, dass den Stand eines KI-Frameworks abbildet. Die Autoren haben dafür IBM watsonx Governance genutzt.

“Our dashboard gives us a quick view of our environment. There are LLMs from OpenAI, IBM, Meta, and other models that are in a review state. In our example, we have five noncompliant models that need our attention. Other widgets define use cases, risk tiers, hosting locations (on premises or at a hyper scaler), departmental use (great idea for chargebacks), position in the approval lifecycle, and more” (Thomas et al. 2025).

Die Entwicklungen im Bereich der Künstlichen Intelligenz sind vielversprechend und in ihrer Dynamik teilweise auch etwas unübersichtlich. Das geeignete KI-Framework zu finden, es zu entwickeln, zu tracken und zu verbessern wird in Zukunft eine wichtige Aufgabe sein.

AI 2027 Scenario: Wie wird sich Künstliche Intelligenz bis Ende 2027 entwickeln?

Quelle: https://ai-2027.com/summary

Der Mensch war schon immer daran interessiert heute schon zu wissen, was in der Zukunft auf ihn zukommen wird, oder zukommen soll. Es ist daher ganz selbstverständlich, dass verschiedene Interessengruppen wie Unternehmen, Berater, Soziologen oder auch einzelne Personen versuchenden, die Entwicklungen bei der Künstlichen Intelligenz vorherzusagen, zu prognostizieren.

Um ein relativ ausgewogenes Bild zu bekommen ist es gut, wenn sich unabhängige Wissenschaftler damit befassen. In dem AI Futures Project haben sich solche Personen zusammengetan. Es handelt sich hier um eine Nonprofit Research Organization, die im April 2025 eine erste Veröffentlichung zum Thema herausgebracht hat:

Kokotajlo et al. (2025): AI 2027 | Website

Es macht durchaus Sinn sich mit den dargestellten Schritten auseinanderzusetzen. denn die zusammengestellten Erkenntnisse sind ausführlich mit Forschungsergebnissen hinterlegt – was mir durchaus gefällt.

Dennoch: Mir sind die Perspektiven immer noch zu einseitig technologiegetrieben, denn Künstliche Intelligenz schafft auch gesellschaftliche, soziale Veränderungen.

Digital Sovereignty Index Score

Quelle: https://dsi.nextcloud.com/

In dem Blogbeitrag Digitale Souveränität: Europa, USA und China im Vergleich hatte ich schon einmal darauf hingewiesen, wie unterschiedlich die Ansätze zur Digitalen Souveränität in verschiedenen Regionen der Welt sind. Die verschiedenen Dimensionen waren hier “Right-based”, “Market-based”, “State-based” und “Centralization”, aus denen sich die gegensätzlichen Extreme “Hard Regulation” und “Soft Regulation” ergeben haben.

Der Digital Sovereignty Index Score (Abbildung) unterscheidet sich von dieser Betrachtungsweise. Im Unterschied zu der zu Beginn erwähnten Analyse, die eher die politische oder marktwirtschaftliche Perspektive hervorhebet, entsteht der Digital Sovereignty Index anders.

Hier wird analysiert, ob die wichtigsten 50 relevanten, selbst gehosteten Tools für digitale Kollaboration und Kommunikation verfügbar sind.

“We selected 50 of the most relevant self-hosted tools for digital collaboration and communication. These include platforms for file sharing, video conferencing, mail, notes, project management, and more.

We then measured their real-world usage by counting the number of identifiable server instances per country.

The result is an index score per country, (…)”

Source: https://dsi.nextcloud.com/

Die Digitale Souveränität wird in einem Score berechnet und für verschiedene Länder in einer anschaulichen Grafik dargestellt (Abbildung). Die Farben zeigen an, wie gut (grün) oder schlecht (rot) es in dem beschriebenen Sinn mit der Digitalen Souveränität in dem jeweiligen Land bestellt ist. Es ist gut zu erkennen, das die beiden Länder Finnland und Deutschland grün hervorgehoben sind.

Wie der Grafik weiterhin zu entnehmen ist, sind viele Länder, u.a. China noch weiß dargestellt. Die Limitierung der Analyse ist den Initiatoren des DSI Score durchaus bewusst, dennoch sehen sie diese Grafik als Startpunkt für eine bessere Übersicht zu dem Thema, zum dem jeder aufgefordert ist, mitzumachen.

Mich hat natürlich interessiert, wer hinter der Website steckt… – siehe da, es ist die Nextcloud GmbH mit dem Büro Stuttgart. Das wundert mich jetzt nicht wirklich, da Nextcloud schon immer auf die Digitale Souveränität bei Einzelpersonen, Organisationen und Öffentlichen Verwaltungen hingewiesen hat. Auch wir stellen nach und nach auf die Möglichkeiten von Nextcloud um, inkl. LocalAI und Open Source KI-Agenten. Siehe dazu auch

Von der digitalen Abhängigkeit zur digitalen Souveränität

Digitale Souveränität: Welche Open Source Alternativen gibt es?

Digitale Souveränität: Souveränitätsscore für KI Systeme

Digitale Souveränität: Google Drive im Vergleich zu Nextcloud

Künstliche Intelligenz und Arbeitshandeln: Grenzen wissenschaftlich-technischer Beherrschung

Böhle et al. 2011:21; entnommen aus Huchler 2016:62

In dem Blogbeitrag Arbeitshandeln enthält explizites und implizites Wissen aus dem Jahr 2016, habe ich die Zusammenhänge zwischen Arbeitshandeln und dem expliziten “objektivierbaren” Wissen, bzw. impliziten subjektivierenden” Wissen dargestellt und erläutert.

Setzen wir doch einmal diese Zusammenhänge neu in Verbindung mit den Diskussionen darüber, ob Künstliche Intelligenz Arbeitsplätze, oder ganze Berufe ersetzen wird. Es wird dabei gleich deutlich, dass es in der Diskussion nicht darum geht, Arbeitsplätze oder Berufe durch Künstliche Intelligenz zu ersetzen, sondern darum, das Arbeitshandeln unter den neuen technologischen Möglichkeiten zu untersuchen.

Nach Böhle (2011) zeigen technische und organisatorische Komplexität Grenzen der wissenschaftlich-technischer Beherrschung auf, und zwar in Bezug auf Unwägbarkeiten im Arbeitshandeln.

Sind Unwägbarkeiten die Normalität, benötigt das Arbeitshandeln das Erfahrungswissen von Personen (Subjekte), im Sinne des erfahrungsgeleiteten-subjektivierenden Handelns (vgl. Böhle 2011).

Die Tech-Konzerne argumentieren mit ihren neuen und neuesten KI-Modellen, dass Technologie das gesamte Arbeitshandeln in diesem Sinne einmal abbilden kann. Diese Perspektiven sind möglicherweise für die schnelle Marktdurchdringung und für das Einsammeln von Kapital wichtig (Storytelling), doch greift dieser Ansatz bisher nur bei sehr begrenzten Tätigkeitsportfolios komplett.

Natürlich wird weiter argumentiert, dass sich die Technik weiterentwickelt und es nur eine Frage der Zeit ist, bis das komplette Arbeitshandeln technologisch abgebildet ist. Es ist durchaus zu erkennen, dass KI-Modelle durchaus in der Lage sind bestimmte Merkmale des subjektivierenden Arbeitshandeln abbilden kann. Daraus entstand auch der Glaube an eine Art Allgemeine Generelle Intelligenz (AGI), die der menschlichen Intelligenz überlegen sei.

Durch solche Ideen verschiebt sich der Nachweis für die aufgestellte These immer weiter in die Zukunft, und wird zu einem Glaubensbekenntnis. Möglicherweise handelt es sich bei dem geschilderten Denkmuster um eine Art Kategorienfehler?