Emotionale Intelligenz und Künstliche Intelligenz am Arbeitsplatz

Wenn es um Künstliche Intelligenz geht, kommt auch immer öfter der Hinweis auf, dass Emotionale Intelligenz immer wichtiger wird. In dem Blogbeitrag AI City und Emotionale Intelligenz wird beispielsweise auf den Zusammenhang mit AI Citys verwiesen:

“For a smart city, having only “IQ” (intelligence quotient) is not enough; “EQ” (emotional quotient) is equally essential. (…) the emotions of citizen communities …”

Hier wird also vorgeschlagen, neben dem Intelligenz-Quotienten (IQ) noch einen Emotionalen Quotienten (EQ) bei der Betrachtung zu berücksichtigen.

Doch was verstehen wir unter “Emotionale Intelligenz”?

Ich beziehe mich hier auf eine Beschreibung von Salovay und Mayer, und bewusst nicht auf den populären Ansatz von Goleman:

“Emotional intelligence is a type of social intelligence that involves the ability to monitor one’s own and others’ emotions to discriminate among them, and to use the information to guide one’s thinking and actions (Salovey & Mayer 1990)”, cited in Mayer/Salovay 1993, p. 433).

Die Autoren sehen also Emotionale Intelligenz als Teil einer Sozialen Intelligenz. Spannend ist weiterhin, dass Mayer und Salovay ganz bewusst einen Bezug zur Multiplen Intelligenzen Theorie von Howard Gardner herstellen. Siehe Emotionale Intelligenz: Ursprung und der Bezug zu Multiplen Intelligenzen.

Betrachten wir nun Menschen und AI Agenten im Zusammenspiel, so muss geklärt werden, woran AI Agenten (bisher) bei Entscheidungen scheitern. Dazu habe ich folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Auch Daniel Goleman, der den Begriff “Emotionale Intelligenz” populär gemacht hat, beschreibt den Zusammenhang von Emotionaler Intelligenz und Künstlicher Intelligenz am Arbeitsplatz, und weist auf die erforderliche Anpassungsfähigkeit (Adaptability) hin:

Adaptability: This may be the key Ei competence in becoming part of an AI workplace. Along with emotional balance, our adaptability lets us adjust to any massive transformation. The AI future will be different from the present in ways we can’t know in advance” (EI in the Age of AI, Goleman via LinkedIn, 30.10.2025).

Was mir allerdings an der Formulierung nicht gefällt ist der Begriff “Ei competence”, denn Intelligenz und Kompetenz sind durchaus unterschiedlich. Siehe dazu Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Innovationen: Künstliche Intelligenz und Neu-Kombinationen

Bei Innovationen sollten wir uns zunächst einmal klar machen, was im Unternehmenskontext darunter zu verstehen ist. Das Oslo Manual schlägt vor, Innovation wie folgt zu interpretieren:

“(…) a new or improved product or process (or combination thereof) that differs significantly from the unit’s previous products or processes and that has been made available to potential users (product) or brought into use by the unit (process)” (Oslo Manual 2018).

Dass Innovation u.a. eine Art Neu-Kombination von Existierendem bedeutet, ist vielen oft nicht so klar (combination thereof). Neue Ideen – und später Innovationen – entstehen oft aus vorhandenen Konzepten. oder Daten.

An dieser Stelle kommen nun die Möglichkeiten der Künstlichen Intelligenz (GenAI oder auch AI Agenten) ins Spiel. Mit KI ist es möglich, fast unendlich viele Neu-Kombinationen zu entwickeln, zu prüfen und umzusetzen. Das können Unternehmen nutzen, um ihre Innovationsprozesse neu zu gestalten, oder auch jeder Einzelne für seine eigenen Neu-Kombinationen im Sinne von Open User Innovation nutzen. Siehe dazu Von Democratizing Innovation zu Free Innovation.

Entscheidend ist für mich, welche KI-Modelle dabei genutzt werden. Sind es die nicht-transparenten Modelle der Tech-Unternehmen, die manchmal sogar die Rechte von einzelnen Personen, Unternehmen oder ganzer Gesellschaften ignorieren, oder nutzen wir KI-Modelle, die frei verfügbar, transparent und für alle nutzbar sind (Open Source AI)?

Wenn wir das Wohl der Menschen, und nicht nur den Profit einzelner Tech-Konzerne in den Mittelpunkt stellen, kommt für mich im Sinne einer Digitalen Souveränität nur Open Source AI infrage. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Wir behandeln oftmals Menschen wie Roboter und Künstliche Intelligenz wie Kreative

In den letzten Jahren wird immer deutlicher, dass Künstliche Intelligenz unser wirtschaftliches und gesellschaftliches Leben stark durchdringen wird. Dabei scheint es so zu sein, dass die Künstliche Intelligenz der Menschlichen Intelligenz weit überlegen ist. Beispielsweise kann Künstliche Intelligenz (GenAI) äußerst kreativ sein, was in vielfältiger Weise in erstellten Bildern oder Videos zum Ausdruck kommt. In so einem Zusammenhang behandeln wir Künstliche Intelligenz (AI: Artificial Intelligence) wie Kreative und im Gegensatz dazu Menschen eher wie Roboter. Dazu habe ich folgenden Text gefunden:

“We are treating humans as robots and ai as creatives. it is time to flip the equation” (David de Cremer in Bornet et al. 2025).

David de Cremer ist der Meinung, dass wir die erwähnte “Gleichung” umstellen sollten. Dem kann ich nur zustimmen, denn das aktuell von den Tech-Giganten vertretene Primat der Technik über einzelne Personen und sogar ganzen Gesellschaften sollte wieder auf ein für alle Beteiligten gesundes Maß reduziert werden. Damit meine ich, dass die neuen technologischen Möglichkeiten einer Künstlichen Intelligenz mit den Zielen von Menschen/Gesellschaften und den möglichen organisatorischen und sozialen Auswirkungen ausbalanciert sein sollten.

Der japanische Ansatz einer Society 5.0 ist hier ein sehr interessanter Ansatz. Auch in Europa gibt es Entwicklungen, die in diese Richtung gehen: Beispielsweise mit den Möglichkeiten von EuroLLM, einem Europäischen Large Language Model (LLM) auf Open Source Basis. Siehe dazu auch Open EuroLLM: Ein Modell Made in Europe – eingebunden in unsere LocalAI.

KI-Modelle: Von “One Size Fits All” über Variantenvielfalt in die Komplexitätsfalle?

In letzter Zeit gibt es immer mehr Meldungen, dass der Einsatz von Künstlicher Intelligenz in allen gesellschaftlichen Bereichen steigt. Doch nicht immer sind KI-Projekte erfolgreich und werden daher eingestellt – was bei neuen Technologien ja nicht ungewöhnlich ist. Siehe dazu beispielsweise Künstliche Intelligenz: 40% der Projekte zu Agentic AI werden wohl bis Ende 2027 eingestellt (Gartner).

Dennoch ist deutlich zu erkennen, dass es immer mehr Anbieter in allen möglichen Segmenten von Künstlicher Intelligenz – auch bei den Language Models – gibt. Wenn man sich alleine die Vielzahl der Modelle bei Hugging Face ansieht: Heute, am17.09.2025, stehen dort 2,092,823 Modelle zur Auswahl, und es werden jede Minute mehr. Das erinnert mich an die Diskussionen auf den verschiedenen (Welt-) Konferenzen zu Mass Customization and Personalization. Warum?

Large Language Models (LLM): One Size Fits All
Wenn es um die bei der Anwendung von Künstlicher Intelligenz (GenAI) verwendeten Trainingsmodellen geht, stellt sich oft die Frage, ob ein großes Modell (LLM: Large Language Model) für alles geeignet ist – ganz im Sinne von “One size fits all”. Diese Einschätzung wird natürlich von den Tech-Unternehmen vertreten, die aktuell mit ihren Closed Source Models das große Geschäft machen, und auch für die Zukunft wittern. Die Argumentation ist, dass es nur eine Frage der Zeit ist, bis das jeweilige Large Language Model die noch fehlenden Features bereitstellt – bis hin zur großen Vision AGI: Artificial General Intelligence. Storytelling eben…

Small Language Models (SLM): Variantenvielfalt
In der Zwischenzeit wird immer klarer, dass kleine Modelle (SLM) viel ressourcenschonender, in speziellen Bereichen genauer, und auch wirtschaftlicher sein können. Siehe dazu Künstliche Intelligenz: Vorteile von Small Language Models (SLMs) und Muddu Sudhakar (2024): Small Language Models (SLMs): The Next Frontier for the Enterprise, ForbesLINK.

Komplexitätsfalle
Es wird deutlich, dass es nicht darum geht, noch mehr Möglichkeiten zu schaffen, sondern ein KI-System für eine Organisation passgenau zu etablieren und weiterzuentwickeln. Dabei sind erste Schritte schon zu erkennen: Beispielsweise werden AI-Router vorgeschlagen, die verschiedene Modelle kombinieren – ganz im Sinne eines sehr einfachen Konfigurators. Siehe dazu Künstliche Intelligenz: Mit einem AI Router verschiedene Modelle kombinieren.

Mit Hilfe eines KI-Konfigurators könnte man sich der Komplexitätsfalle entziehen. Ein Konfigurator in einem definierten Lösungsraum (Fixed Solution Space) ist eben das zentrale Element von Mass Customization and Personalization.

Die Lösung könnte also sein, massenhaft individualisierte KI-Modelle und KI-Agents dezentralisiert für die Allgemeinheit zu schaffen. Am besten natürlich alles auf Open Source Basis – Open Source AI – und für alle in Repositories frei verfügbar. Auch dazu gibt es schon erste Ansätze, die sehr interessant sind. Siehe dazu beispielsweise (Mass) Personalized AI Agents für dezentralisierte KI-Modelle.

Genau diese Überlegungen erinnern – wie oben schon angedeutet – an die Hybride Wettbewerbsstrategie Mass Customization and Personalization. Die Entgrenzung des definierten Lösungsraum (Fixed Solution Space) hat dann weiter zu Open Innovation (Chesbrough und Eric von Hippel) geführt.

NANDA – die Idee eines Open Agentic Web

Nanda Roadmap (Quelle: https://nanda.media.mit.edu/)

Mit KI Agenten (AI Agents) ist es möglich, in der Geschäftswelt vielfältige Prozesse zu optimieren, oder innovative Prozesse, Produkte und Dienstleistungen zu generieren, die bisher aus den verschiedensten Gründen nicht möglich waren. Dazu zählen oftmals nicht verfügbare Daten und die dazugehörenden Kosten.

Auf Basis dieser Entwicklungen können wir in Zukunft immer stärker von einer Agentenbasierten Wirtschaft sprechen – Agentic Economy (Siehe Abbildung). Dabei geht es um die Nutzung von KI-Agenten in Unternehmen oder in ganzen Branchen. Siehe dazu The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen oder auch Künstliche Intelligenz lässt Mass Customization in einem anderen Licht erscheinen.

Denken wir etwas weiter, so müssen in Zukunft auch immer stärker KI-Agenten miteinander kommunizieren, also von Agent zu Agent – A2A. Passiert das zwischen sehr vielen Agenten eines Wirtschaftssystems, bzw. einer ganzen Gesellschaft, entsteht so etwas wie eine Agentic Society.

Das Projekt NANDA hat sich in dem Zusammenhang das Ziel gesetzt, diese Entwicklung mit einem Open Agentic Web zu unterstützen:

“Imagine billions of specialized AI agents collaborating across a decentralized architecture. Each performs discrete functions while communicating seamlessly, navigating autonomously, socializing, learning, earning and transacting on our behalf” (Source).

Das vom MIT initiierte Projekt NANDA arbeitet in Europa u.a. mit der TU München und der ETH Zürich zusammen. Das Ziel ist, alles Open Source basiert zur Verfügung zu stellen..

Ich bin an dieser Stelle immer etwas vorsichtig, da beispielsweise OpenAI auch beim Start das Ziel hatte, KI als Open Source zur Verfügung zu stellen. In der Zwischenzeit wissen wir, dass OpenAI ein Closed Source Model, bzw. ein Open Weights Model ist, und kein Open Source Model. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.

KI-Modelle: Monitoring einer Entwicklungsumgebung

Using watsonx.governance to build a dashboard and track a multimodel
deployment environment (Thomas et al. 2025)

In verschiedenen Beiträgen hatte ich beschrieben, was eine Organisation machen kann, um KI-Modelle sinnvoll einzusetzen. An dieser Stelle möchte ich nur einige wenige Punkte beispielhaft dazu aufzählen.

Zunächst können LLM (Large Language Models) oder SLM (Small Language Models) eingesetzt werden – Closed Sourced , Open Weighted oder Open Source. Weiterhin können KI-Modelle mit Hilfe eines AI-Routers sinnvoll kombiniert, bzw. mit Hilfe von InstructLab mit eigenen Daten trainiert werden. Hinzu kommen noch die KI-Agenten – aus meiner Sicht natürlich auch Open Source AI.

Das sind nur einige Beispiele dafür, dass eine Organisation aufpassen muss, dass die vielen Aktivitäten sinnvoll und wirtschaftlich bleiben. Doch: Wie können Sie das ganze KI-System verfolgen und verbessern? In der Abbildung sehen Sie ein Dashboard, dass den Stand eines KI-Frameworks abbildet. Die Autoren haben dafür IBM watsonx Governance genutzt.

“Our dashboard gives us a quick view of our environment. There are LLMs from OpenAI, IBM, Meta, and other models that are in a review state. In our example, we have five noncompliant models that need our attention. Other widgets define use cases, risk tiers, hosting locations (on premises or at a hyper scaler), departmental use (great idea for chargebacks), position in the approval lifecycle, and more” (Thomas et al. 2025).

Die Entwicklungen im Bereich der Künstlichen Intelligenz sind vielversprechend und in ihrer Dynamik teilweise auch etwas unübersichtlich. Das geeignete KI-Framework zu finden, es zu entwickeln, zu tracken und zu verbessern wird in Zukunft eine wichtige Aufgabe sein.

Künstliche Intelligenz: Mit einem AI Router verschiedene Modelle kombinieren

An AI router that understands the capabilities of models in its library directs
a given inference request to the best model able to perform the task at hand (Thomas et al. 2025)

Wenn es um die bei der Anwendung von Künstlicher Intelligenz (GenAI) verwendeten Trainingsmodelle geht, stellt sich oft die Frage, ob ein großes Modell (LLM: Large Language Model) für alles geeignet ist – ganz im Sinne von “One size fits all”. Siehe dazu diesen Blogbeitrag zu den Vorteilen und Nachteilen dieser Vorgehensweise.

Eine andere Herangehensweise ist, mehrere spezialisierte kleinere Trainingsmodelle (SLM: Small Language Models) zu verwenden, die verschiedene Vorteile bieten. Siehe dazu Künstliche Intelligenz: Vorteile von Small Language Models (SLMs).

Neben den genannten Extremen gibt es noch Modelle, die dazwischen anzusiedeln sind, und daher als “midsized” bezeichnet werden können.

Diese drei Möglichkeiten sind beispielhaft in der Abbildung unter “Sample of model ecosystem” zusammengefasst. Erfolgt also eine neue Anfrage über den “New data point” an den AI Router, so kann der vorher trainierte AI Router das geeignete Trainingsmodell (Small, Midsized, Large) zuweisen.

Die Autoren (Thomas et al. 2025) konnten in verschiedenen Tests zeigen, dass ein guter Mix an geeigneten Modellen, zusammen mit einem gut trainierten AI Router bessere und wirtschaftlichere Ergebnisse erzielt.

Die Vorteile liegen auf der Hand: Sie sparen Geld, reduzieren die Latenz und helfen der Umwelt. Diese Punkte sind gerade für Kleine und Mittlere Unternehmen (KMU) interessant.

GPM (2025): Künstliche Intelligenz im Projektkontext – Studie

Es ist schon eine Binsenweisheit, dass Künstliche Intelligenz (GenAI) alle Bereiche der Gesellschaft mehr oder weniger berühren wird. Das ist natürlich auch im Projektmanagement so. Dabei ist es immer gut, wenn man sich auf verlässliche Quellen, und nicht auf Berater-Weisheiten verlässt.

Eine dieser Quellen ist die Gesellschaft für Projektmanagement e.V., die immer wieder Studien zu verschiedenen Themen veröffentlicht. In der Studie GPM (2025): Gehalt und Karriere im Projektmanagement. Sonderthema: Die Anwendung Künstlicher Intelligenz im Projektmanagement findet sich auf Seite 13 folgende Zusammenfassung:

Künstliche Intelligenz im Projektkontext
Künstliche Intelligenz (KI) wird im Bereich Projektmanagement in der Mehrheit der Unternehmen eingesetzt, allerdings in noch geringem Maße.
(1) KI-basierte Tools werden insgesamt eher selten genutzt, wenn sie zum Einsatz kommen, dann sind es hauptsächlich ChatGPT, Jira, MS Pilot oder eigenentwickelte Tools.
(2) Es zeichnet sich kein eindeutiger Projektmanagement-Bereich ab, in dem KI bevorzugt zum Einsatz kommt. Am deutlichsten noch in der Projektplanung und in der Projektinitiierung, am seltensten im Projektportfolio- und im Programmmanagement.
(3) Der Nutzen der KI wird tendenziell eher positiv gesehen, insbesondere als Unterstützung der alltäglichen Arbeit, zur Erleichterung der Arbeit im Projektmanagement und zur Erhöhung der Produktivität.
(4) Der Beitrag von KI zu einem höheren Projekterfolg wird von der Mehrheit der Befragten nicht gesehen – allerdings nur von einer knappen Mehrheit.
(5) Es besteht eine grundlegende Skepsis gegenüber KI, was verschiedene Leistungsparameter im Vergleich zum Menschen betrifft. Alle hierzu gestellten Fragen wie Fehleranfälligkeit, Genauigkeit, Konsistenz der Information oder Konsistenz der Services wurden mehrheitlich zu Gunsten des Menschen bewertet.
(6) Die überwiegende Mehrheit der befragten Projektmanagerinnen und Projektmanager teilt diverse Ängste gegenüber der KI nicht, wie z. B. diese werde Jobs vernichten oder dem Menschen überlegen sein.”
Quelle: GPM (2025). Anmerkung: Im Originaltext wurden Aufzählungszeichen verwendet. Um besser auf einzelnen Punkte einzugehen, habe ich diese nummeriert, was somit keine Art von Priorisierung darstellt.

An dieser Stelle möchte ich nur zwei der hier genannten Ergebnisse kommentieren:

Punkt (1): Es wird deutlich, dass hauptsächlich Closed Source Modelle verwendet werden. Möglicherweise ohne zu reflektieren, was mit den eigenen Daten bei der Nutzung passiert – gerade wenn auch noch eigene, projektspezifische Daten hochgeladen werden. Besser wäre es, ein Open Source basiertes KI-System und später Open Source basierte KI-Agenten zu nutzen. Dazu habe ich schon verschiedene Blogbeiträge geschrieben. Siehe dazu beispielhaft Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Punkt (6): Es geht bei der Nutzung von KI nicht immer um die “Vernichtung” (Was für ein schreckliches Wort) von Jobs, sondern darum, dass viele verschiedene Aufgaben (Tasks) in Zukunft von KI autonom bearbeitet werden können. Siehe dazu auch The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen.

Creative Commons: Mit CC Signals Content für Künstliche Intelligenz freigeben – oder auch nicht

Screenshot: https://creativecommons.org/ai-and-the-commons/cc-signals/

In dem Blogbeitrag Was unterscheidet Künstliche Intelligenz von Suchmaschinen? hatte ich dargestellt, wie sich Suchmaschinen von Künstlicher Intelligenz unterscheiden. Content-Anbieter können dabei nur bedingt auf Datenschutz, Urheberrecht, EU AI Act usw. vertrauen. In der folgenden Veröffentlichung sind die verschiedenen Punkte noch einmal strukturiert zusammengefasst, inkl. einer möglichen Lösung für die skizzierten Probleme:

Creative Commons (2025): From Human Content to Machine Data. Introducing CC Signals | PDF

Creative Commons (CC) kennen dabei viele von uns als eine Möglichkeit, anderen unter bestimmten Bedingungen das Recht zur Nutzung des eigenen Contents einzuräumen. Creative Commons erläutert, dass KI-Modelle die üblichen gesellschaftlichen Vereinbarungen mehr oder weniger ignoriert, und somit den “social contract” aufkündigt. Diesen Hinweis finde ich bemerkenswert, da hier das Vorgehen der KI-Tech-Unternehmen mit den möglichen gesellschaftlichen Auswirkungen verknüpft wird.

Mit CC Signals hat Creative Commons ein erstes Framework veröffentlich, das es ermöglichen soll, Content mit Berechtigungsstufen für KI-Systeme zu versehen.

“CC signals are a proposed framework to help content stewards express how they want their works used in AI training—emphasizing reciprocity, recognition, and sustainability in machine reuse. They aim to preserve open knowledge by encouraging responsible AI behavior without limiting innovation” (ebd.)

Machen Sie bei der Weiterentwicklung dieses Ansatzes mit:

“Head over to the CC signals GitHub repository to provide feedback and respond to our discussion questions: https://github.com/creativecommons/cc-signals.”

Wolpers, S. (2020): The Remote Agile Guide

Zielgruppe für Wolpers, S. (2020): The Remote Agile Guide sind Scrum Master, Product Owner und Agile Coaches, die mit einem oder mehreren verteilten Team(s) zusammenarbeiten. Dabei wird der Download als “free” bezeichnet, obwohl man sich einschreiben muss – “Subscribe Now”.- und somit mit seinen Daten bezahlt. Ich weiß durchaus, dass diese Vorgehensweise üblich ist, dennoch mag ich es nicht.

Insgesamt bietet der Guide eine gute Basis, sich über die verteilte digitale Zusammenarbeit Gedanken zu machen, und konkrete Möglichkeit für die eigene Vorgehensweise abzuleiten. Der Guide, auf den ich mich beziehe, stammt aus dem Jahr 2020. Dazu möchte ich noch einige Anmerkungen machen:

Zunächst wird mir der technische Aspekt der Zusammenarbeit zu stark betont (MS Teams, Zoom, Trello, Jira, etc.). Die Neurowissenschaften haben dazu beispielsweise bei der Nutzung von Zoom in der Zwischenzeit wichtige Hinweise gegeben: „Zoom scheint im Vergleich zu persönlichen Gesprächen ein dürftiges soziales Kommunikationssystem zu sein.“ Sieh Persönliche Gespräche und Zoom im Vergleich: Das sagt die Neurowissenschaft dazu. Weiterhin erwähnt auch schon das Agile Manifest aus dem Jahr 2001, dass der persönliche Austausch bei komplexen Problemlösungsprozesse wichtig ist, da es dabei um die wichtige implizite Dimension des Wissens geht. Diese ist mit Technologie nur bedingt zu erschließen.

Weiterhin werden in dem Guide zu wenige Open Source Alternativen genannt, die die remote Arbeit in verteilten Teams unterstützen können. Gerade wenn es um die heute wichtige Digitale Souveränität geht, ist das wichtig. Siehe dazu beispielhaft Souveränitätsscore: Zoom und BigBlueButton im Vergleich.

Nicht zuletzt geht es heute auch darum, in verteilten Teams im agilen Prozess der Zusammenarbeit Künstliche Intelligenz zu nutzen. Aus meiner Sicht ist auch hier die Nutzung von Open Source AI zeitgemäß.

Diese Anmerkungen sind als Ergänzungen zu verstehen. Möglicherweise ergibt sich daraus ja noch ein weiterer, aktualisierter Guide.