Künstliche Intelligenz: 99% der Unternehmensdaten sind (noch) nicht in den Trainingsdaten der LLMs zu finden

Wenn es um allgemein verfügbare Daten aus dem Internet geht, können die bekannten Closed Source KI-Modelle erstaunliche Ergebnisse liefern. Dabei bestehen die genutzten Trainingsdaten der LLMs (Large Language Models) oft aus den im Internet verfügbaren Daten – immer öfter allerdings auch aus Daten, die eigentlich dem Urheberrecht unterliegen, und somit nicht genutzt werden dürften.

Wenn es um die speziellen Daten einer Branche oder eines Unternehmens geht, sind deren Daten nicht in diesen Trainingsdaten enthalten und können somit bei den Ergebnissen auch nicht berücksichtigt werden. Nun könnte man meinen, dass das kein Problem darstellen sollte, immerhin ist es ja möglich ist, die eigenen Daten für die KI-Nutzung zur Verfügung zu stellen – einfach hochladen. Doch was passiert dann mit diesen Daten?

Immer mehr Unternehmen, Organisationen und Verwaltungen sind bei diesem Punkt vorsichtig, da sie nicht wissen, was mit ihren Daten bei der KI-Nutzung durch Closed Source oder auch Closed Weighted Modellen passiert. Diese Modelle sind immer noch intransparent und daher wie eine Black Box zu bewerten. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI oder Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Wollen Sie wirklich IHRE Daten solchen Modellen zur Verfügung stellen, um DEREN Wettbewerbsfähigkeit zu verbessern?

“So here’s the deal: you’ve got data. That data you have access to isn’t part of these LLMs at all. Why? Because it’s your corporate data. We can assure you that many LLM providers want it. In fact, the reason 99% of corporate data isn’t scraped and sucked into an LLM is because you didn’t post it on the internet. (…) Are you planning to give it away and let others create disproportionate amounts of value from your data, essentially making your data THEIR competitive advantage OR are you going to make your data YOUR competitive advantage?” (Thomas et al. 2025).

Doch was ist die Alternative? Nutzen Sie IHRE Daten zusammen mit Open Source AI auf ihren eigenen Servern. Der Vorteil liegt klar auf der Hand: Alle Daten bleiben bei Ihnen.

Siehe dazu auch

LocalAI: KI-Modelle und eigene Daten kombinieren

LocalAI: Aktuell können wir aus 713 Modellen auswählen

Ollama: AI Agenten mit verschiedenen Open Source Modellen entwickeln

Digitale Souveränität: Wo befinden sich deine Daten?

Test Criteria Catalogue for AI Systems in Finance

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Der Finanzbereich mit seinen unglaublichen Mengen an Daten (historische Daten und Echtzeitdaten) ist prädestiniert für den Einsatz Künstlicher Intelligenz (KI, oder englisch AI: Artificial Intelligence). Die Nutzung von LLM (Large Language Models) ,oder in Zukunft Small Language Models (SLM) und KI-Agenten, kann für eine Gesellschaft positiv, oder eher negativ genutzt werden. Dabei können Open Source AI Models, Open Weights Models und Closed AI Models unterschieden werden.

Es ist aus meiner Sicht gut, dass die Europäische Union mit dem EUAI-Act weltweit erste Rahmenbedingungen für die Nutzung Künstlicher Intelligenz festgelegt hat. Im Vergleich zu dem US-amerikanischen vorgehen (KI-Unternehmen können alles machen, um Profite zu generieren) und dem chinesischen Vorgehen (KI für die Unterstützung der Partei), ist der Europäische Weg eine gute Mischung. Natürlich muss dabei immer abgewogen werden, welcher Freiraum für Innovationen bleiben sollte.

Um nun herauszufinden, wie KI-Ssteme z.B. für den Finanzbereich bewertet und letztendlich ausgewählt werden sollten, hat das Federal Office for Information Security (Deutsch: BSI) einen entsprechenden Kriterienkatalog veröffentlicht:

Publication Notes
Given the international relevance of trustworthy AI in the financial sector and the widespread applicability ofthe EUAIAct across memberstates and beyond,this publication was prepared in English to ensure broader accessibility and facilitate collaboration with international stakeholders. English serves as the standard language in technical, regulatory, and academic discourse on AI, making it the most appropriate choice for addressing a diverse audience, including researchers, industry professionals, and policymakers across Europe and globally” (Federal Office for Information Security 2025).

Es stellt sich dabei auch die Frage, ob diese Kriterien nur für den Finanzbereich geeignet sind, oder ob alle – oder einige – der Kriterien auch für andere gesellschaftlichen Bereiche wichtig sein könnten.

Siehe dazu auch Sou.veränitätsscore für KI-Systeme.

Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Image by AIAC Interactive Agency from Pixabay

Das Bild zeigt ein Glas mit einer Flüssigkeit. Es ist allerdings nicht genau zu erkennen, um welchen Inhalt es sich handelt. Es könnte also sein, dass die Flüssigkeit gut für Ihre Gesundheit ist, oder auch nicht. Vertrauen Sie dieser Situation? Vertrauen Sie demjenigen, der das Glas so hingestellt hat?

Würden Sie aus diesem Glas trinken?

So ähnlich ist die Situation bei Künstlicher Intelligenz. Die Tech-Unternehmen veröffentlichen eine KI-Anwendung nach der anderen. Privatpersonen, Unternehmen, ja ganze Verwaltungen nutzen diese KI-Apps als Black Box, ohne z.B. zu wissen, wie die Daten in den Large Language Models (LLM) zusammengetragen wurden – um nur einen Punkt zu nennen.

Der Vergleich von dem Glas mit Künstlicher Intelligenz hinkt zwar etwas, doch erscheint mir die Analogie durchaus bemerkenswert, da der erste Schritt zur Anwendung von Künstlicher Intelligenz Vertrauen sein sollte.

Step 1: It All Starts with Trust
“Think about it: the glass is opaque, you can’t even see inside it! The water inside that glass could pure spring water, but it could also be cloudy and murky puddle water, or even contaminated water! If you couldn’t see inside that glass, would you still drink what’s inside it after adding tons of high-quality sugar and lemon to it? Probably not, so why would you do this with one of your company’s most previous assets—your data?” (Thomas et al. 2025).

Vertrauen Sie der Art von Künstlicher Intelligenz, wie sie von den etablierten Tech-Giganten angeboten wird? Solche Closed Source Modelle sind nicht wirklich transparent, und wollen es auch weiterhin nicht sein. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

Vertrauen Sie besser wirklichen Open Source AI – Anwendungen: Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

All Our Ideas: Künstliche Intelligenz, Online-Umfragen und Crowdsourcing kombinieren

Quelle: https://all-our-ideas.citizens.is/domain/1/

Aktuell wird alles mit Künstlicher Intelligenz (AI: Artificial Intelligence) in Verbindung gebracht. Die Neukombination von bestehenden Ansätzen kann dabei zu interessanten Innovationen führen.

Die Website ALL Our Ideas verbindet beispielsweise Online-Umfragen mit Crowdsourcing und Künstlicher Intelligenz.

“All Our Ideas is an innovative tool that you can use for large-scale online engagements to produce a rank-ordered list of public input. This “Wiki Survey” tool combines the best of survey research with crowdsourcing and artificial intelligence to enable rapid feedback” (ebd.).

Ein kurzes Tutorial ist gleich auf der Website zu finden. Darin wird erläutert, wie Sie die Möglichkeiten selbst nutzen können. Starten Sie einfach mit einer eigenen Online-Umfrage.

Die Idee und das Konzept finde ich gut, da auch der Code frei verfügbar ist: Open Source Code. Damit kann alles auf dem eigenen Server installiert werden. Bei der Integration von KI-Modellen schlage ich natürlich vor, Open Source KI (Open Source AI) zu nutzen.

Warum wird GESCHÄFTSMODELL + AI nicht ausreichen?

Organisationen und Privatpersonen befassen sich mit Künstlicher Intelligenz (GenAI) und sind fasziniert von den Möglichkeiten. Dabei setzen fast alle Organisationen auf die Formel

GESCHÄFTSMODELL +AI

Gut zu erkennen ist das beispielsweise in dem Beitrag Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung. Man geht von dem üblichen Softwareentwicklungsprozess aus und überlegt, wie Künstliche Intelligenz in den einzelnen Schritten (einzelnen Tasks) genutzt werden kann. Ähnlich ist es im Projektmanagement, z.B. nach DIN 69901 mit den vorgeschlagenen Minimum-Prozessen usw. usw. In dem Zusammenhang habe ich folgenden Text gefunden:

“(…) if you’re content to sit on your +AI mindset, things aren’t going to go well for your business (or you personally) because you will lack the agility and capability that come with the next generation of AI” (Thomas et al. 2025).

In Zukunft bietet Künstliche Intelligenz, und hier meine ich speziell auch Agentic AI (KI-Agenten), ganz neue, andere Möglichkeiten. Wir sollten daher mittel- und langfristig von einem anderen Ansatz (Mindset) ausgehen:

AI+

Dieser Blick sollte sich von den bestehenden Geschäftsmodellen lösen, und von den (neuen) Möglichkeiten der KI ausgehen. Das ist dann nicht mehr evolutionär, sondern eher disruptiv und wird ganze Bereiche verändern.

Mein Vorschlag ist es hier, nicht auf Closed Source AI oder Open Weighted AI, sondern auf Open Source AI zu setzen – auch bei Agentic AI. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

GWA Whitepaper (2025): Künstliche Intelligenz (KI) in der Kommunikationsbranche

Image by Alexa from Pixabay

Wie in dem Beitrag Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung zu erahnen, wird Künstliche Intelligenz (KI) alle Prozesse in Organisationen beeinflussen.

Dass das auch die Medienbranche/Kreativbranche betrifft, sollte jedem klar sein, der in diesem Umfeld arbeitet. Es ist daher gut, dass der Gesamtverband Kommunikationsagenturen (GWA) in einem KI-Whitepaper 2025 viele Perspektiven zu dem Thema beschrieben hat. Darin findet sich auch der folgende Hinweis:

“Die Kreativbranche sollte sich aktiv für Open- Source-KI einsetzen und dabei Unterstützung von allen erhalten, die von kreativer Arbeit profitieren. Wir alle, auch Marken und Produktanbieter, profitieren von offenen Systemen, da diese ihre eigenen visuellen Konzepte und Produkte in Form von „Custom-Modellen“ integrieren können, wie es bereits mit „LoRA Models“ in Stable Diffusion und Flux möglich ist” (GWA KI-Whitepaper 2025).

In den fast 100 Seiten des Whitepapers wird der Gedanke leider nicht weiter erläutert. Es wäre gut gewesen, auf die inzwischen vorliegende Definition zu Open Source AI und auf das Das Kontinuum zwischen Closed Source AI und Open Source AI hinzuweisen, denn hier gibt es für die Branche noch sehr viele neue Möglichkeiten, die sich vom Mainstream der KI-Anwendungen unterscheiden.

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Die aktuelle Diskussion um Künstliche Intelligenz wird einerseits technisch geführt, andererseits geht es dabei auch um Menschliche Kompetenzen. Alleine diese Gegenüberstellung von “Intelligenz” hier und “Kompetenz” dort wirft schon Fragen auf:

(1) Ist der Begriff “Künstliche Intelligenz” schon ein Kategorienfehler?

Zunächst soll es um den etablierten Begriff “Künstliche Intelligenz” gehen, der durchaus kritisch hinterfragt werden kann. Genau das hat Beispielsweise der Meister der Systemtheorie, Niklas Luhmann, getan:

“Der Soziologe Niklas Luhmann beschreibt dies treffend als Kategorienfehler (Luhmann & Schorr, 1982) – ein grundlegender Unterschied zwischen maschineller Informationsverarbeitung und menschlichen Qualitäten. Maschinen können zwar Daten präzise und schnell verarbeiten, doch echte Kreativität, Sinnverständnis und emotionale Reflexion bleiben ihnen verschlossen” (Ehlers 2025, in weiter bilden 1/2025).

Jetzt kann man natürlich anmerken, dass sich diese Argumentation auf die damaligen IT-Systeme bezog, die heutigen KI-Systeme allerdings doch anders sind. Diese Perspektive ist durchaus berechtigt, doch ist an der Argumentation Luhmanns immer noch etwas dran, wenn wir die heutigen KI-Systeme betrachten.

(2) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlicher Intelligenz etwa auch ein Kategorienfehler?

Interessant ist hier, dass es den Hinweis auf einen Kategorienfehler auch aus der Intelligenzforschung gibt. Siehe dazu ausführlicher OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Wenn wir also mit Intelligenz das meinen, was ein Intelligenztest misst, sieht es für den Menschen schon jetzt ziemlich schlecht aus.

Wenn wir allerdings Intelligenz entgrenzen und eher den Ansatz von Howard Gardner sehen, der von Multiplen Intelligenzen ausgeht, wird es schon etwas spannender, denn nach Howard Gardner ist Intelligenz u.a. ein biopsychologisches Potenzial:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner  2002:46-47).

Insofern wäre dann der Vergliche zwischen Künstlicher Intelligenz und Multiplen Intelligenzen ein Kategorienfehler. Siehe dazu auch Künstliche Intelligenz – ein Kategorienfehler? Darin wird auch auf die sozialen und emotionalen Dimensionen bei Menschen hingewiesen.

(3) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlichen Kompetenzen ein Kategorienfehler?

Wenn wir Künstliche Intelligenz mit Menschlichen Kompetenzen vergleichen, vergleichen wir auch indirekt die beiden Konstrukte “Intelligenz” und “Kompetenz. In dem Beitrag Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen? finden Sie dazu ausführlichere Anmerkungen.

Das AIComp-Kompetenzmodell, bei dem nicht die Abgrenzung zwischen den Möglichkeiten der Künstlichen Intelligenz und den Menschlichen Kompetenzen steht, sondern die “produktive Kooperationskultur” (ebd.). Eine Kooperationskultur zwischen Intelligenz und Kompetenz?

Wenn das alles nicht schon verwirrend genug ist, schreiben mehrere Autoren in dem Gesamtzusammenhang auch noch von Menschlichen Qualitäten oder Skills (Future Skills). Letzteres unterstellt eine eher amerikanische Perspektive auf Kompetenzen.

“Frühere Kompetenzdefinitionen beziehen sich auf die im anglo-amerikanischen Raum gebräuchliche Unterscheidung individueller Leistunsgsdispositionen in Knowledge, Skills, Abilities and Other Characteristics (KSAO), wobei modernere Definitionen auch eher die Selbstorganisationsdisposition in den Vordergrund stellen” (Freund 2011).

Sollten wir daher lieber von Künstlichen Kompetenzen und Menschlichen Kompetenzen auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk sprechen, und diese dann vergleichen?

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung

High-level software development life cycle (McKinsey (2024): The gen AI skills revolution: Rethinking your talent strategy)

Wie in dem Beitrag von McKinsey (2024) ausführlich erläutert wird, beeinflusst Künstliche Intelligenz (GenAI) alle Schritte/Phasen der Softwareentwicklung. Drüber hinaus werden in Zukunft immer mehr KI-Agenten einzelne Tasks eigenständig übernehmen, oder sogar über Multi-Agenten-Systeme ganze Entwicklungsschritte.

Die Softwareentwicklung hat dazu beigetragen, dass Anwendungen der Künstlichen Intelligenz heute überhaupt möglich sind. Es kann allerdings sein, dass Künstliche Intelligenz viele Softwareentwickler und deren Unternehmen überflüssig macht.

Möglicherweise ist in Zukunft auch jeder Einzelne Mensch in der Lage, sich mit Künstlicher Intelligenz kleine erste Programme schreiben zu lassen – ohne dass Programmierkenntnisse erforderlich sind. Ganz im Sinne von Low Code, No Code und Open Source.

So eine Entwicklung kann als Reflexive Innovation bezeichnet werden: “Die Revolution frisst ihre eigenen Kinder” (Quelle). Siehe dazu ausführlicher Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.

Perspektiven auf Innovation: Von “eng” zu “erweitert” bis gesellschaftlich “zielgerichtet”

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Der Blick auf Innovation ist immer noch sehr eng (narrow) und geprägt von dem Ansatz Schumpeters aus dem Jahr 1934. Dabei geht es bei Innovationen darum, vorwiegend technische Ideen zu kommerzialisieren, also für den Markt nutzbar zu machen. Die Gesellschaft war und ist dabei Empfänger der neuen Produkte und Dienstleistungen.

Eine etwas breitere (broader) Sicht auf Innovation erweitert den ursprünglichen Ansatz, indem nicht rein technologische, sondern auch Konzepte (Business Model Innovation), soziale Innovationen usw. hinzukommen.

In der Zwischenzeit geht man bei der Betrachtung von Innovation noch einen Schritt weiter und stellt den gesellschaftlichen Zweck (purposive) in den Mittelpunkt. Im Zusammenspiel zwischen Wissenschaft, Technologie und Innovationen soll es dadurch zu gesellschaftlichen Transformationen kommen.

“Within narrow understandings of innovation, in which innovation is defined as the commercialisation of research, emphasis is placed on the roles of science, academia, industry, and national governments in supporting scientific and technical knowledge. Society is frequently viewed as passively adopting innovations introduced by science and large corporations (Joly, 2019). Conversely, according to broad-based understandings, innovation encompasses the entire process of conceiving and actualising a novel concept or idea; it is not limited to technological advancements (Godin & Lane 2013). (…) Moreover, according to purposive understandings, innovation should be transformative in nature and result in sustainable change” (Nordling, N. 2024).

Es geht heute also darum, mit Innovationen Probleme in der Gesellschaft, zum Wohle (eigene Bemerkung) der Menschen und seiner Umwelt zu lösen. Siehe dazu auch Worin unterscheiden sich Industry 5.0 und Society 5.0?

Wir sollten dazu kommen, Technologie – heute ist es die Künstliche Intelligenz – für die Gesellschaft einzusetzen, und nicht vorwiegend zum wirtschaftlichen Vorteil von einigen wenigen Tech-Konzernen, die die sozialen Folgen den Gesellschaften überlassen.

Dabei kommt es zu einer Friktion bei den beiden Geschwindigkeiten: Technik (KI) verändert sich in Sekunden, Gesellschaften – und mit ihnen das gesamte gesellschaftliche System – eher langsam. Wenn wir die Menschen mitnehmen wollen, sollte der Staat – und hier meine ich eher die Europäische Union – den Rahmen setzen, denn die Tech-Giganten werden sich nicht zurückhalten. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Das Kontinuum zwischen Closed Source AI und Open Source AI

In dem Beitrag AI: Was ist der Unterschied zwischen Open Source und Open Weights Models? hatte ich schon einmal darauf hingewiesen, dass es zwischen den Polen Closed Source AI und Open Source AI ein Kontinuum weiterer Möglichkeiten gibt.

Die Grafik illustriert den Zusammenhang noch einmal anhand der zwei Dimensionen Degree of Openness und Completeness. Man sieht hier deutlich, dass der Firmenname OpenAI dazu führen kann, z.B. ChatGPT von OpenAI als Open Source AI zu sehen, obwohl es komplett intransparent ist und somit in die Kategorie Closed Source AI gehört. Die Open Weights Models liegen irgendwo zwischen den beiden Polen und machen es nicht einfacher, wirkliche Open Source AI zu bestimmen.

Eine erste Entscheidungshilfe kann die Definition zu Open Source AI sein, die seit 2024 vorliegt. Anhand der (recht wenigen) Kriterien kann man schon eine erste Bewertung der Modelle vornehmen.

In der Zwischenzeit hat sich auch die Wissenschaft dem Problem angenommen und erste Frameworks veröffentlicht. Ein erstes Beispiel dafür ist hier zu finden:

White et al. (2024): The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence | Quelle).