Künstliche Intelligenz: Hohe Investitionen und keine Rendite?

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Es ist schon erstaunlich: Tag für Tag lesen wir von Milliardeninvestitionen der Unternehmen in GenAI. Es gibt in der Zwischenzeit auch genügend Beispiele aus allen Branchen die zeigen, wie mit Künstlicher Intelligenz (GenAI) produktiver als vorher gearbeitet werden kann. Somit sollten diese Effekte auch betriebswirtschaftlich nachgewiesen werden können.

Die Frage st also: Gibt es auch eine gewisse Rendite auf die Investitionen, die in solche Projekte gesteckt werden?

Eine MIT-Studie vom Juli 2025 zeigt ein überraschendes Ergebnis: Der Erfolg, in Form einer messbaren Rendite (Return on Investment). kann bei 95% der Organisationen nicht nachgewiesen werden. Hier der Originalabsatz aus der Studie:

Despite $30–40 billion in enterprise investment into GenAI, this report uncovers a surprising result in that 95% of organizations are getting zero return. The outcomes are so starkly divided across both buyers (enterprises, mid-market, SMBs) and builders (startups, vendors, consultancies) that we call it the GenAI Divide. Just 5% of integrated AI pilots are extracting millions in value, while the vast majority remain stuck with no measurable P&L impact. This divide does not seem to be driven by model quality or regulation, but seems to be determined by approach” (MIT NANDA 2025).

Interessant ist, dass der jeweils gewählte Ansatz (determined by approach) wohl das Grundübel ist. Möglicherweise ist es gar nicht so gut, sich nur auf die sehr großen, proprietären KI-Anbieter zu konzentrieren – ja, sich von diesen abhängig zu machen. Siehe dazu beispielsweise auch KI-Modelle: Monitoring einer Entwicklungsumgebung.

Digitale Souveränität: Projekt SOOFI (Sovereign Open Source Foundation Models) gestartet

Quelle: Pressemitteilung | PDF | zu SOOFI

In unserem Blog habe ich schon oft über die notwendige Digitale Souveränität von einzelnen Personen, Organisationen und Länder geschrieben. Es wird dabei immer deutlicher, dass wir in Europa Modelle benötigen, die nicht vom Mindset amerikanischer Tech-Konzernen oder vom Mindset chinesischer Politik dominiert werden, und auf Open Source Basis zur Verfügung stehen.

So etwas soll nun mit SOOFI (Sovereign Open Source Foundation Models) entwickelt werden. In der Abbildung ist der prinzipielle Aufbau zu erkennen. Auf Basis geeigneter Daten können Foundation Models an die jeweiligen Bedürfnisse ganzer Branchen angepasst werden. Darauf aufbauend, schließen sich u.a. auch AI Agenten an.

“Ein wichtiger Schritt für die europäische KI-Souveränität: Unter SOOFI arbeiten zukünftig Wissenschaftlerinnen und Wissenschaftler aus 6 führenden deutschen Forschungseinrichtungen zusammen, um souveräne europäische Alternativen zu KI Technologien aus den USA und China bereitzustellen. Der Fokus liegt darin, mit den Modellen einen Beitrag für die industrielle Nutzung von KI zu leisten” (Quelle: Pressemitteilung | PDF).

Möglicherweise interessieren Sie auch noch folgende Beiträge zum Thema:
Digitale Souveränität: Europa, USA und China im Vergleich
Von der digitalen Abhängigkeit zur digitalen Souveränität,
Digitale Souveränität: Welche Open Source Alternativen gibt es?
Digitale Souveränität: Souveränitätsscore für KI Systeme
Digitale Souveränität: Google Drive im Vergleich zu Nextcloud

Künstliche Intelligenz für die Menschen

UN (2024): Governing AI For Humanity

Immer mehr Regionen und Länder stellen fest, dass die Entwicklung der Künstlichen Intelligenz – wie alle Innovationen – mindestens zwei Seiten hat. Es gibt einerseits den Nutzen für Menschen, Unternehmen und Gesellschaften und andererseits auch Schwierigkeiten.

Solche Entwicklungen geben immer Anlass, darüber nachzudenken, ob Künstliche Intelligenz so gesteuert werden kann, dass es nicht nur einzelnen Unternehmen zugute kommt, sondern einer ganzen Gesellschaft.

In der Zwischenzeit gibt es sehr viele nationale und regionale Initiativen, die versuchen, einerseits die Entwicklungen von Künstlicher Intelligenz zu fördern, andererseits aber auch Grenzen zu ziehen, deren Überschreitung zu möglichen gesellschaftlichen Schäden führen können.

Die United Nations (UN) ist für so eine Fragestellung prädestiniert, und hat mit der Veröffentlichung UN /2024): Governing AI For Humanity (PDF) eine gute Basis geschaffen, um ausgewogen über das Thema diskutieren zu können.

Aktuell habe ich den Eindruck, dass die Diskussionen über die Entwicklung und Nutzung Künstlicher Intelligenz von den amerikanischen Tech-Konzernen dominiert werden, die ihre wirtschaftlichen Vorteile sehen, die gesellschaftlich negativen Auswirkungen gerne den jeweiligen Ländern überlassen wollen.

Siehe dazu auch Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century und die Erläuterungen zu einer Society 5.0.

Open Source AI: Kimi K2 Thinking vorgestellt

Mit DeepSeek ist chinesischen Entwicklern ein Coup gelungen, denn sie konnten zeigen, dass ein KI-Modell nicht teuer sein muss. Die amerikanischen Tech-Giganten standen damals mit ihren Milliarden-Investitionen ziemlich schlecht dar.

Nun gibt es mit Kimi K2 Thinking ein weiteres Modell, mit dem chinesische Entwickler zeigen, wie mit relativ wenigen Ressourcen – und damit Kosten – ein leistungsfähiges Modell angeboten werden kann. Der Schwerpunkt des Modells liegt dabei auf “Coding”.

Es ist Open Source basiert und wurde unter der MIT-Lizenz veröffentlicht. Diese enthält eine interessante Klausel: Da amerikanische Konzerne chinesische Open Source Modelle gerne für ihre Entwicklungen nutzen – ohne das transparent zu machen – ist die freie kommerzielle Nutzung bis zu einem monatlichen Umsatz von 20 Millionen Dollar möglich.

Kimi K2 Thinking ist ein MoE-Modell, (for Coding) dessen Entwicklung nur 4,6 Millionen Dollar gekostet haben soll – wieder eine beeindruckende Kennzahl. Darüber hinaus zeigen Benchmarks, die enorme Leistungsfähigkeit des Modells. Weitere Informationen sind in dem folgenden Beitrag zusammengefasst:

Moonshot AI stellt Kimi K2 Thinking als “bestes Open-Source-Thinking-Modell” vor (Krempler, J. 2025, in the decoder vom 07.11.2025).

Mal sehen, ob wir das Modell auch in LocalAI, bzw. in Ollama auf unseren Servern einbinden können. Bis dahin kann auf der Landingpage Kimi K2 Thinking getestet werden.

Open Source AI: OlmoEarth Modell-Familie veröffentlicht

Screenshot: https://allenai.org/blog/olmoearth-models

Über die Open Source AI-Modelle der Olmo2-Familie habe ich schon einmal in diesem Blogbeitrag geschrieben. Grundsätzlich soll mit diesen Modellen die Forschung an Sprachmodellen unterstützt werden. Anfang November hat Ai2 nun bekannt gegeben, dass mit OlmoEarth eine weitere Modell-Familie als Foundation Models (Wikipedia) zur Verfügung steht.

OlmoEarth is a family of open foundation models built to make Earth AI practical, scalable, and performant for real-world applications. Pretrained on large volumes of multimodal Earth observation data” (Source: Website).

Es handelt sich also um eine offene, trainierte Modell-Familie, die zur Lösung realer Probleme (real world problems) beitragen sollen. Hier ein Beispiel von der Nutzung der Daten für eine Fragestellung in Nigeria:

Es gibt vier unterschiedliche Modelle. Interessant dabei ist, dass es auch kleine Modelle (Nano und Tiny) gibt, die kostengünstig sind, und schnell genutzt werden können:

OlmoEarth-v1-Nano (~1.4M parameters) & OlmoEarth-v1-Tiny (~6.2M)—for fast, cheap inference at scale
OlmoEarth-v1-Base (~90M)—balanced accuracy and speed for most use cases
OlmoEarth-v1-Large (~300M)—best performance on challenging tasks

Auf der OlmoEarth-Platform können die Modelle getestet werden.

Emotionale Intelligenz und Künstliche Intelligenz am Arbeitsplatz

Wenn es um Künstliche Intelligenz geht, kommt auch immer öfter der Hinweis auf, dass Emotionale Intelligenz immer wichtiger wird. In dem Blogbeitrag AI City und Emotionale Intelligenz wird beispielsweise auf den Zusammenhang mit AI Citys verwiesen:

“For a smart city, having only “IQ” (intelligence quotient) is not enough; “EQ” (emotional quotient) is equally essential. (…) the emotions of citizen communities …”

Hier wird also vorgeschlagen, neben dem Intelligenz-Quotienten (IQ) noch einen Emotionalen Quotienten (EQ) bei der Betrachtung zu berücksichtigen.

Doch was verstehen wir unter “Emotionale Intelligenz”?

Ich beziehe mich hier auf eine Beschreibung von Salovay und Mayer, und bewusst nicht auf den populären Ansatz von Goleman:

“Emotional intelligence is a type of social intelligence that involves the ability to monitor one’s own and others’ emotions to discriminate among them, and to use the information to guide one’s thinking and actions (Salovey & Mayer 1990)”, cited in Mayer/Salovay 1993, p. 433).

Die Autoren sehen also Emotionale Intelligenz als Teil einer Sozialen Intelligenz. Spannend ist weiterhin, dass Mayer und Salovay ganz bewusst einen Bezug zur Multiplen Intelligenzen Theorie von Howard Gardner herstellen. Siehe Emotionale Intelligenz: Ursprung und der Bezug zu Multiplen Intelligenzen.

Betrachten wir nun Menschen und AI Agenten im Zusammenspiel, so muss geklärt werden, woran AI Agenten (bisher) bei Entscheidungen scheitern. Dazu habe ich folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Auch Daniel Goleman, der den Begriff “Emotionale Intelligenz” populär gemacht hat, beschreibt den Zusammenhang von Emotionaler Intelligenz und Künstlicher Intelligenz am Arbeitsplatz, und weist auf die erforderliche Anpassungsfähigkeit (Adaptability) hin:

Adaptability: This may be the key Ei competence in becoming part of an AI workplace. Along with emotional balance, our adaptability lets us adjust to any massive transformation. The AI future will be different from the present in ways we can’t know in advance” (EI in the Age of AI, Goleman via LinkedIn, 30.10.2025).

Was mir allerdings an der Formulierung nicht gefällt ist der Begriff “Ei competence”, denn Intelligenz und Kompetenz sind durchaus unterschiedlich. Siehe dazu Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Innovationen: Künstliche Intelligenz und Neu-Kombinationen

Bei Innovationen sollten wir uns zunächst einmal klar machen, was im Unternehmenskontext darunter zu verstehen ist. Das Oslo Manual schlägt vor, Innovation wie folgt zu interpretieren:

“(…) a new or improved product or process (or combination thereof) that differs significantly from the unit’s previous products or processes and that has been made available to potential users (product) or brought into use by the unit (process)” (Oslo Manual 2018).

Dass Innovation u.a. eine Art Neu-Kombination von Existierendem bedeutet, ist vielen oft nicht so klar (combination thereof). Neue Ideen – und später Innovationen – entstehen oft aus vorhandenen Konzepten. oder Daten.

An dieser Stelle kommen nun die Möglichkeiten der Künstlichen Intelligenz (GenAI oder auch AI Agenten) ins Spiel. Mit KI ist es möglich, fast unendlich viele Neu-Kombinationen zu entwickeln, zu prüfen und umzusetzen. Das können Unternehmen nutzen, um ihre Innovationsprozesse neu zu gestalten, oder auch jeder Einzelne für seine eigenen Neu-Kombinationen im Sinne von Open User Innovation nutzen. Siehe dazu Von Democratizing Innovation zu Free Innovation.

Entscheidend ist für mich, welche KI-Modelle dabei genutzt werden. Sind es die nicht-transparenten Modelle der Tech-Unternehmen, die manchmal sogar die Rechte von einzelnen Personen, Unternehmen oder ganzer Gesellschaften ignorieren, oder nutzen wir KI-Modelle, die frei verfügbar, transparent und für alle nutzbar sind (Open Source AI)?

Wenn wir das Wohl der Menschen, und nicht nur den Profit einzelner Tech-Konzerne in den Mittelpunkt stellen, kommt für mich im Sinne einer Digitalen Souveränität nur Open Source AI infrage. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Kontextorientierte Innovationstrategie in Zeiten von Künstlicher Intelligenz

Innovation ist ein wesentliches Element für den Wohlstand einer Gesellschaft – nicht nur für einzelne Unternehmen. Diese orientieren sich in ihren Strategien oft auf Technik (technikorientiere Innovationsstrategie) und auf Kunden (kundenorientierte Innovationsstrategie). Beide Perspektiven sollten durch ein Denken in Kontexten ergänzt werden.

“Eine kontextorientierte Innovationsstrategie versucht daher, nutzerorientierte Lösungsansätze für die Bewältigung und Entlastung von Alltagskomplexität in innovative Produkte und Dienstleistungen zu übersetzen. (…) Eine kontextorientierte Strategie ist von der Perspektive her langfristig orientiert, verbindet technologisches Wissen mit den jeweiligen soziokulturellen Anwendungskontexten und trägt insofern der rekursiven Beziehung von Innovation und Bedürfnis Rechnung. Dabei zielt eine kontextorientierte Innovationsstrategie letztlich auf Differenzierung am Markt, denn »the essence of strategy is […] choosing to perform activities differently or to perform different activities than rivals« – und damit auf langfristiges Überleben am Markt (Porter 1996, 64)” Quelle: Burmeister et al. (2006): Innovation im Kontext: Ansätze zu einer offenen Innovationsstrategie, in Drossou (2006).

Gerade in Zeiten von Künstlichen Intelligenz werden oftmals nur die Dimensionen “Technik” und “Kunde” thematisiert und zu wenig der gesellschaftliche Kontext von Innovationen mit bedacht. Die ersten beiden Dimensionen sind eher kurzfristig, die kontextorientierte Innovationsstrategie eher langfristig ausgerichtet. Gerade dieser Punkt ist für eine gesellschaftliche Entwicklung wichtig, die alle Menschen mit einbezieht.

Diese Gedanken passen gut zu dem in Japan vorgestellten Ansatz einer Society 5.0.

Künstliche Intelligenz und die ursprüngliche Bedeutung von Bildung

Image by dumcarreon from Pixabay

Es ist deutlich zu erkennen, dass Künstliche Intelligenz in seinen verschiedenen Formen (GenAI, AI Agenten usw.) Berufsbilder, Lernen, Wissens- und Kompetenzentwicklung beeinflusst, bzw. in Zukunft noch stärker beeinflussen wird. Siehe dazu beispielsweise WEF Jobs Report 2025.

Auch Strukturen im Bildungsbereich müssen sich daher fragen, welche Berechtigung sie noch in Zukunft haben werden, da sich der aktuelle Bildungssektor in fast allen Bereichen noch stark an den Anforderungen der Industriegesellschaft orientiert. Wenn es beispielsweise um Schulen geht, hat sich seit mehr als 100 Jahren nicht viel geändert. Siehe dazu Stundenplan von 1906/1907: Geändert hat sich bis heute (fast) nichts. Dazu passt folgendes Zitat:

“Every time I pass a jailhouse or a school, I feel sorry for the people inside.”
— Jimmy Breslin, Columnist, New York Post (Quelle)

Wohin sollen sich die Bildungsstrukturen – hier speziell Schulen – entwickeln?

(1) Wir können die Technologischen Möglichkeiten von Künstlicher Intelligenz in den Mittelpunkt stellen, und Menschen als nützliches Anhängsel von KI-Agenten verstehen. Dabei werden Menschen auf die KI-Technologie trainiert,, weiter)gebildet, geschult.

(2) Wir können alternativ Menschen und ihr soziales Zusammenleben in den Mittelpunkt stellen, bei dem Künstliche Intelligenz einen wertvollen Beitrag liefern kann. Ganz im Sinne einer Society 5.0.

Aktuell dominiert fast ausschließlich die Nummer (1) der genannten Möglichkeiten, was dazu führen kann, dass der Bildungsbereich Menschen so trainiert, dass sie zu den von Tech-Giganten entwickelten Technologien passen.

Möglicherweise hilft es in der Diskussion, wenn man den Ursprung des Wortes “Schule” betrachtet. Der Begriff geht auf das griechische Wort “Skholè” zurück, was ursprünglich „Müßiggang“, „Muße“, bedeutet und später zu „Studium“ und „Vorlesung“ wurde (Quelle: Wikipedia).

Bei Forschungen zur Künstlichen Intelligenz sind Autoren genau darauf eingegangen, weil sie vermuten, dass gerade diese ursprüngliche Perspektive besser zu den aktuellen Entwicklung passen kann:

“We find this etymology deeply revealing because it undercovers a profound truth about education´s original purpose: it wasn´t about preparing workers for jobs, but about providing space for thoughtful reflection and exploration of life´s fundamental questions. What inspires us about the ancient´s Greek approach is how they saw education as a means to help people find their purpose and develop their full potential as human beings” (Bornet et al. 2025).

Menschen und AI Agenten im Zusammenspiel

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Immer mehr Organisationen fragen sich, inwiefern Workflows und besonders AI Agenten die bisher von Menschen durchgeführten Arbeiten ersetzen werden. In dem Blogbeitrag The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen wird deutlich, was heute schon in einzelnen Branchen möglich ist.

Auch der Jobs Reports 2025 des WEF zeigt auf, dass bis 2030 wohl 172 Millionen neue Jobs entstehen, und 92 Millionen wegfallen werden. Es geht dabei nicht immer um komplette Jobs, sondern auch um Teilbereiche oder Tätigkeitsportfolios, die immer mehr von AI Agenten übernommen werden (können).

Alles was mit Logik und Speicherung zu tun hat, ist eher die Stärke von Künstlicher Intelligenz, den Workflows, bzw. den AI Agenten. Doch in welchen Bereichen versagen AI Agenten noch? Dazu habe ich den folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Dabei bezieht sich Bornet auf eine Veröffentlichung von Bang Liu et al. (2025:19-20), in dem die Autoren drei Hirnregionen in Bezug auf AI (Artificial Intelligence) untersuchten. L1: Well developed; L2: Partially developed; L3: Underexplored.

Das Ergebnis ist also, dass AI Agenten in den Ebenen Emotionen, Kontext und Motivation unterentwickelt sind (L3), wenn es um menschliche Entscheidungen geht.

Erkenntnis (Cognition) entsteht dabei nicht nur in einem Bereich im Gehirn, sondern durch das Zusammenspiel vieler unterschiedlich vernetzter Areale. Bei komplexen Problemlösungsprozesse (CPS: Complex Problem Solving) geht es verstärkt um Emotionen, Kontext und Motivation.

Im Idealfall könnten Menschen an diesen Stellen einen Mehrwert für eine qualitativ gute Problemlösung (Erkenntnis) einbringen. Es stellt sich dabei allerdings auch die Frage, wie stark sich Menschen an die Möglichkeiten einer Künstlichen Intelligenz (AI Agenten) anpassen sollen.

Zusätzlich können die in dem sehr ausführlichen wissenschaftlichen Paper von Bang Liu et al. (2025) erwähnten Zusammenhänge Hinweise geben, wie die Zusammenarbeit – das Zusammenspiel – zwischen Menschen und AI Agenten organisiert, ja ermöglicht werden kann.