Organisationen und Privatpersonen befassen sich mit Künstlicher Intelligenz (GenAI) und sind fasziniert von den Möglichkeiten. Dabei setzen fast alle Organisationen auf die Formel
GESCHÄFTSMODELL +AI
Gut zu erkennen ist das beispielsweise in dem Beitrag Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung. Man geht von dem üblichen Softwareentwicklungsprozess aus und überlegt, wie Künstliche Intelligenz in den einzelnen Schritten (einzelnen Tasks) genutzt werden kann. Ähnlich ist es im Projektmanagement, z.B. nach DIN 69901 mit den vorgeschlagenen Minimum-Prozessen usw. usw. In dem Zusammenhang habe ich folgenden Text gefunden:
“(…) if you’re content to sit on your +AI mindset, things aren’t going to go well for your business (or you personally) because you will lack the agility and capability that come with the next generation of AI” (Thomas et al. 2025).
In Zukunft bietet Künstliche Intelligenz, und hier meine ich speziell auch Agentic AI (KI-Agenten), ganz neue, andere Möglichkeiten. Wir sollten daher mittel- und langfristig von einem anderen Ansatz (Mindset) ausgehen:
AI+
Dieser Blick sollte sich von den bestehenden Geschäftsmodellen lösen, und von den (neuen) Möglichkeiten der KI ausgehen. Das ist dann nicht mehr evolutionär, sondern eher disruptiv und wird ganze Bereiche verändern.
Dass das auch die Medienbranche/Kreativbranche betrifft, sollte jedem klar sein, der in diesem Umfeld arbeitet. Es ist daher gut, dass der Gesamtverband Kommunikationsagenturen (GWA) in einem KI-Whitepaper 2025 viele Perspektiven zu dem Thema beschrieben hat. Darin findet sich auch der folgende Hinweis:
“Die Kreativbranche sollte sich aktiv für Open- Source-KI einsetzen und dabei Unterstützung von allen erhalten, die von kreativer Arbeit profitieren. Wir alle, auch Marken und Produktanbieter, profitieren von offenen Systemen, da diese ihre eigenen visuellen Konzepte und Produkte in Form von „Custom-Modellen“ integrieren können, wie es bereits mit „LoRA Models“ in Stable Diffusion und Flux möglich ist” (GWA KI-Whitepaper 2025).
In den fast 100 Seiten des Whitepapers wird der Gedanke leider nicht weiter erläutert. Es wäre gut gewesen, auf die inzwischen vorliegende Definition zu Open Source AI und auf das Das Kontinuum zwischen Closed Source AI und Open Source AI hinzuweisen, denn hier gibt es für die Branche noch sehr viele neue Möglichkeiten, die sich vom Mainstream der KI-Anwendungen unterscheiden.
Vor einiger Zeit wurde ich wegen einem Experteninterview zum Thema Künstliche Intelligenz im Projektmanagement angefragt. Das Interview sollte Bestandteil einer Masterarbeit zum Thema sein. Nachdem ich mir die Anfrage genauer angesehen hatte, habe ich dem Interview zugestimmt.
Im Vorfeld musste ich (natürlich) eine Datenschutzerklärung ausfüllen und bestätigen, dass das Interview aufgenommen und transkribiert wird.
Am Montag, den 26.05.2025, fand dann das Interview online statt. In ca. 60 Minuten habe ich Fragen zum Thema beantwortet, und meine Einschätzung zu zukünftigen Entwicklungen gegeben. Ein Schwerpunkt der Befragung war die erforderliche Kompetenzentwicklung bei der Nutzung von Künstlicher Intelligenz.
Da mir im Rahmen meiner wissenschaftlichen Arbeiten auch immer wieder geholfen wurde, ist es für mich selbstverständlich, Interview-Anfragen, soweit es zeitlich geht, anzunehmen.
Die aktuelle Diskussion um Künstliche Intelligenz wird einerseits technisch geführt, andererseits geht es dabei auch um Menschliche Kompetenzen. Alleine diese Gegenüberstellung von “Intelligenz” hier und “Kompetenz” dort wirft schon Fragen auf:
(1) Ist der Begriff “Künstliche Intelligenz” schon ein Kategorienfehler?
Zunächst soll es um den etablierten Begriff “Künstliche Intelligenz” gehen, der durchaus kritisch hinterfragt werden kann. Genau das hat Beispielsweise der Meister der Systemtheorie, Niklas Luhmann, getan:
“Der Soziologe Niklas Luhmann beschreibt dies treffend als Kategorienfehler(Luhmann & Schorr, 1982) – ein grundlegender Unterschied zwischen maschineller Informationsverarbeitung und menschlichen Qualitäten. Maschinen können zwar Daten präzise und schnell verarbeiten, doch echte Kreativität, Sinnverständnis und emotionale Reflexion bleiben ihnen verschlossen” (Ehlers 2025, in weiter bilden 1/2025).
Jetzt kann man natürlich anmerken, dass sich diese Argumentation auf die damaligen IT-Systeme bezog, die heutigen KI-Systeme allerdings doch anders sind. Diese Perspektive ist durchaus berechtigt, doch ist an der Argumentation Luhmanns immer noch etwas dran, wenn wir die heutigen KI-Systeme betrachten.
(2) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlicher Intelligenz etwa auch ein Kategorienfehler?
Interessant ist hier, dass es den Hinweis auf einen Kategorienfehler auch aus der Intelligenzforschung gibt. Siehe dazu ausführlicher OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Wenn wir also mit Intelligenz das meinen, was ein Intelligenztest misst, sieht es für den Menschen schon jetzt ziemlich schlecht aus.
Wenn wir allerdings Intelligenz entgrenzen und eher den Ansatz von Howard Gardner sehen, der von Multiplen Intelligenzen ausgeht, wird es schon etwas spannender, denn nach Howard Gardner ist Intelligenz u.a. ein biopsychologisches Potenzial:
„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner 2002:46-47).
Das AIComp-Kompetenzmodell, bei dem nicht die Abgrenzung zwischen den Möglichkeiten der Künstlichen Intelligenz und den Menschlichen Kompetenzen steht, sondern die “produktive Kooperationskultur” (ebd.). Eine Kooperationskultur zwischen Intelligenz und Kompetenz?
Wenn das alles nicht schon verwirrend genug ist, schreiben mehrere Autoren in dem Gesamtzusammenhang auch noch von Menschlichen Qualitäten oder Skills (Future Skills). Letzteres unterstellt eine eher amerikanische Perspektive auf Kompetenzen.
“Frühere Kompetenzdefinitionen beziehen sich auf die im anglo-amerikanischen Raum gebräuchliche Unterscheidung individueller Leistunsgsdispositionen in Knowledge, Skills, Abilities and Other Characteristics (KSAO), wobei modernere Definitionen auch eher die Selbstorganisationsdisposition in den Vordergrund stellen” (Freund 2011).
Sollten wir daher lieber von Künstlichen Kompetenzen und Menschlichen Kompetenzen auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk sprechen, und diese dann vergleichen?
Souveränitätsscore für KI-Systeme – Ausschnitt (Quelle: https://digital-sovereignty.net/score/score-ai)
In der Zwischenzeit sind sehr viele KI-Modelle (AI Model) verfügbar, sodass es manchmal zu etwas unscharfen Beschreibungen kommt. Eine erste Unterscheidung ist, Closed Source AI, Open Weights AI und Open Source AI nicht zu verwechseln. In dem Beitrag AI Kontinuum wird das erläutert.
“OpenAI” wurde beispielsweise als Muttergesellschaft von ChatGPT 2015 als gemeinnützige Organisation gegründet, seit 2019 ist “OpenAI” gewinnorientiert und wird von Microsoft dominiert. Durch geschicktes Marketing wird oftmals suggeriert, dass von kommerziellen Anbietern bereitgestellte Modelle “Open Source AI” sind.
Wenn Sie sich also für AI Modelle interessieren, können Sie dieses Modell gegenüber den in der Definition genannten Kriterien prüfen.
Weiterhin können Sie den Souveränitätsscore für KI Systeme von Prof. Wehner nutzen (Abbildung). Schauen Sie sich auf der Website auch noch weiter um – es lohnt sich.
AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.
Der Blick auf Innovation ist immer noch sehr eng (narrow) und geprägt von dem Ansatz Schumpeters aus dem Jahr 1934. Dabei geht es bei Innovationen darum, vorwiegend technische Ideen zu kommerzialisieren, also für den Markt nutzbar zu machen. Die Gesellschaft war und ist dabei Empfänger der neuen Produkte und Dienstleistungen.
Eine etwas breitere (broader) Sicht auf Innovation erweitert den ursprünglichen Ansatz, indem nicht rein technologische, sondern auch Konzepte (Business Model Innovation), soziale Innovationen usw. hinzukommen.
In der Zwischenzeit geht man bei der Betrachtung von Innovation noch einen Schritt weiter und stellt den gesellschaftlichen Zweck (purposive) in den Mittelpunkt. Im Zusammenspiel zwischen Wissenschaft, Technologie und Innovationen soll es dadurch zu gesellschaftlichen Transformationen kommen.
“Within narrow understandings of innovation, in which innovation is defined as the commercialisation of research, emphasis is placed on the roles of science, academia, industry, and national governments in supporting scientific and technical knowledge. Society is frequently viewed as passively adopting innovations introduced by science and large corporations (Joly, 2019). Conversely, according to broad-based understandings, innovation encompasses the entire process of conceiving and actualising a novel concept or idea; it is not limited to technological advancements (Godin & Lane 2013). (…) Moreover, according to purposive understandings, innovation should be transformative in nature and result in sustainable change” (Nordling, N. 2024).
Wir sollten dazu kommen, Technologie – heute ist es die Künstliche Intelligenz – für die Gesellschaft einzusetzen, und nicht vorwiegend zum wirtschaftlichen Vorteil von einigen wenigen Tech-Konzernen, die die sozialen Folgen den Gesellschaften überlassen.
Dabei kommt es zu einer Friktion bei den beiden Geschwindigkeiten: Technik (KI) verändert sich in Sekunden, Gesellschaften – und mit ihnen das gesamte gesellschaftliche System – eher langsam. Wenn wir die Menschen mitnehmen wollen, sollte der Staat – und hier meine ich eher die Europäische Union – den Rahmen setzen, denn die Tech-Giganten werden sich nicht zurückhalten. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften
Es ist schon erstaunlich, wie unreflektiert viele Privatpersonen, Organisationen oder auch Öffentliche Verwaltungen Künstliche Intelligenz (AI / GenAI) von den bekannten Tech-Unternehmen nutzen. Natürlich sind diese Closed Source AI Models, oder auch Open Weights Models, sehr innovativ und treiben durch immer mehr neue Funktionen die Anwender vor sich her. Viele kommen dabei gar nicht richtig zum Nachdenken. Möglicherweise ist das ja auch so gewollt….
Hinzu kommt noch, dass es immer mehr länderspezifische KI-Modelle gibt, die den sprachlichen Kontext, und damit die sprachlichen Besonderheiten besser abbilden. Die wichtigsten LLM (Closed Source AI) sind mit englischsprachigen Daten trainiert und übersetzen dann in die jeweilige Sprache. Das klappt zwar recht gut, doch fehlt es gerade bei Innovationen, oder kulturellen regionalen Besonderheiten, an der genauen Passung.
Die spanische Verwaltung hat nun die Initiative ALIA gestartet, die 100% öffentlich finanziert ist, und eine KI-Ressource für alle Spanisch sprechenden Menschen sein soll. Dazu gehören auch frei verfügbare AI Modelle (LLM) (…)
“(…) to generate ethical and trustworthy AI standards, with open-source and transparent models, guaranteeing the protection of fundamental rights, the protection of intellectual property rights and the protection of personal data, and developing a framework of best practices in this field (Vasquez in OSOR 2025).
“ALIA es una iniciativa pionera en la Unión Europea que busca proporcionar una infraestructura pública de recursos de IA, como modelos de lenguaje abiertos y transparentes, para fomentar el impulso del castellano y lenguas cooficiales -catalán y valenciano, euskera y gallego- en el desarrollo y despliegue de la IA en el mundo” (ALIA Website)
Es freut mich zu sehen, wie die einzelnen europäischen Regionen oder Länder Initiativen starten, die die europäischen, oder auch regionalen Besonderheiten berücksichtigen – und das alles auf Open Source Basis. Siehe dazu auch
Die Grafik illustriert den Zusammenhang noch einmal anhand der zwei Dimensionen Degree of Openness und Completeness. Man sieht hier deutlich, dass der Firmenname OpenAI dazu führen kann, z.B. ChatGPT von OpenAI als Open Source AI zu sehen, obwohl es komplett intransparent ist und somit in die Kategorie Closed Source AI gehört. Die Open Weights Models liegen irgendwo zwischen den beiden Polen und machen es nicht einfacher, wirkliche Open Source AI zu bestimmen.
Eine erste Entscheidungshilfe kann die Definition zu Open Source AI sein, die seit 2024 vorliegt. Anhand der (recht wenigen) Kriterien kann man schon eine erste Bewertung der Modelle vornehmen.
In der Zwischenzeit hat sich auch die Wissenschaft dem Problem angenommen und erste Frameworks veröffentlicht. Ein erstes Beispiel dafür ist hier zu finden:
White et al. (2024): The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence | Quelle).
In der Zwischenzeit hat sich viel bei den technischen Möglichkeiten bei der Herstellung von Produkten und Dienstleistungen getan, sodass Mass Customization in einem neuen Licht gesehen werden kann. Unter anderem sind die Kosten zur Herstellung von Produkten und Dienstleistungen drastisch gesunken (Additive Manufacturing – 3D-Druck, Maker-Bewegung, Robotics etc.). Weiterhin bietet Künstliche Intelligenz mit Large Language Models (LLM) und KI-Agenten ganz neue Möglichkeiten, Mass Customization umzusetzen. Frank Piller hat das in einem Interview an einem Beispiel sehr gut dargestellt:
“An algorithm reading your Instagram profile might know better than you do about your dream shirt or dress. I see opportunity to use the data out there for what I call smart customization” Piller, Frank T. and Euchner, James, Mass Customization in the Age of AI (June 07, 2024). Research-Technology Management, volume 67, issue 4, 2024 [10.1080/08956308.2024.2350919], Available at SSRN: https://ssrn.com/abstract=4887846.
Frank Piller geht dabei immer noch von der Perspektive eines Unternehmens aus, das die neuen KI-Technologien nutzt, um mass customized products herzustellen. Ich stelle mir dabei allerdings die Frage, ob es nicht für jeden Einzelnen in Zukunft möglich sein wird, mit Hilfe von KI-Agenten viele der alltäglichen Probleme selbst, und/oder zusammen mit anderen in Communities, zu lösen.
Benötigen wir in Zukunft also für alle benötigten Produkte und Dienstleistungen noch Unternehmen?
Immerhin hat ein Unternehmen dann seine Berechtigung, wenn es geringere Transaktionskosten hat. Diese Marktberechtigung gerät durch die neuen technischen Möglichkeiten ins Wanken. Die Technologien, mit denen Unternehmen immer geringere Transaktionskosten generieren, und der User immer mehr selbst machen soll/kann, führt zu einer Art Reflexiven Innovation. Diese schlägt auf die Unternehmen zurück. Siehe dazu beispielsweise aus meinen Veröffentlichungen:
Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe. 4th International Conference for Entrepreneurship, Innovation, and Regional Development (ICEIRD 2011), 05.-07. May, Ohrid, Macedonia.
Immerhin stellen wir alle in unserem Alltag fest, dass die die von den Unternehmen angebotenen Produkte und Dienstleistungen oft nicht den eigenen Anforderungen entsprechen.
Auch bei dem Thema Smart City wird oft der Begriff “Intelligenz” verwendet. Dabei denkt man meistens an die noch vorherrschende Meinung, dass sich Intelligenz in einem Intelligenz-Quotienten (IQ), also in einer Zahl, darstellen lässt.
Die Entgrenzungstendenzen bei dem Thema Intelligenz in den letzten Jahrzehnten zeigen allerdings, dass der Intelligenz-Quotient gerade bei komplexen Problemlösungen nicht mehr ausreicht – somit keine Passung mehr zur Wirklichkeit hat. Begriffe wie “Soziale Intelligenz”, “Multiple Intelligenzen” oder auch “Emotionale Intelligenz” werden in diesem Zusammenhang genannt. Am Beispiel einer Smart City, oder später einer AI City, wird das wie folgt beschrieben:
“For a smart city, having only “IQ” (intelligence quotient) is not enough; “EQ” (emotional quotient) is equally essential. Without either, the abundant data generated and accumulated in urban life may either remain dormant and isolated or be used solely for data management without truly serving the people. In the concept of an AI-driven city, emotional intelligence refers to utilizing technological means to better perceive the emotions of citizens in the era of the “Big Wisdom Cloud.” This involves actively expressing urban sentiment, self-driving and motivating the emotions of citizen communities, empathizing with the vulnerable in the city, and establishing a comprehensive sentiment feedback mechanism” (Wu 2025).
Es wird in Zukunft immer wichtiger werden, ein besseres Verständnis von Intelligenz zu entwickeln, das besser zu den heutigen Entwicklungen passt. Die angesprochene Entgrenzung des Konstrukts “Intelligenz” ist dabei ein Ansatz, die Perspektive auf Intelligenz als biopsychologisches Potential eine weitere:
„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner 2002:46-47).