Unternehmen sind oftmals in einem oder mehreren Netzwerken aktiv,. Solche Kooperationen setzen dabei auf den klassischen Datenaustausch. Modernere Versionen der Kooperationen im KI-Zeitalter, speisen ihre Daten in KI-Modelle ein. Dabei kommt es darauf an, die eigene Datenhoheit zu behalten.
„Um ihre Datenhoheit zu bewahren, setzen Unternehmen auf föderierte, dezentrale Trainingsansätze. Die Daten werden hier nicht zu einem zentralen Server gesendet, sondern lokal in eine Kopie des KI-Modells eingespeist. Statt der Daten werden dann nur abstrakte Parameter zwischen den Partnern ausgetauscht. Jeder Partner kann der KI Daten zur Verfügung stellen, ohne diese den anderen Unternehmen preisgeben zu müssen“ (Fraunhofer, Forschung kompakt, 01.04.2026).
Das Fraunhofer-Institut für Software- und Systemtechnik ISST in Dortmund hat gemeinsam mit dem Industriepartner Fujitsu Research sogar eine Lösung für das Unlearning für dezentrale, föderierte KI-Kollaborationen entwickelt.
Dabei geht es um die Frage, wie mit Daten umgegangen wird, wenn die KI-Kooperation verlässt – spannend. Wie das alles funktioniert, zeigt das Fraunhofer Institut auf der Hannover Messe 2026.
„Many have claimed that training large language models requires copyrighted data, making truly open AI development impossible. Today, Pleias is proving otherwise with the release of Common Corpus (part of the AI Alliance Open Trusted Data Initiative)—the largest fully open multilingual dataset for training LLMs, containing over 2 trillion tokens of permissibly licensed content with provenance information (2,003,039,184,047 tokens)“ (Source).
In der Zwischenzeit wurde Common Corpus schon mehr als 1 Millionen Mal heruntergeladen. Der starke Anstieg der Downloads zeigt eine relative Verschiebung auf dem KI-Markt, denn immer mehr Marktteilnehmer suchen nach Open Data, die sie frei nutzen können.
„Open-Source-Datensätze wie das Common Corpus bieten hier eine Lösung. Sie ermöglichen es Forschern und Unternehmen, auf eine breite Palette von Daten zuzugreifen, ohne sich über komplexe Lizenzfragen oder potenzielle Urheberrechtsverletzungen Gedanken machen zu müssen“ ( Common Corpus übertrifft eine Million Downloads und hebt Bedeutung von Open Data für KI hervor, Mindverse vom 12.03.2026).
Langsam aber sicher wollen immer mehr KI-Nutzer Künstliche Intelligenz gesellschaftlich verantwortungsvoll nutzen – ganz im Sinne einer Digitalen Souveränität.
Es ist an der Zeit, die Entwicklungen bei Artificial Intelligence (Künstlicher Intelligenz) auch einmal etwas kritischer zu beleuchten. Zwei Forscher aus den Bereichen der Sprach- und Sozialwissenschaften haben das in ihrem Buch getan:
Bender, E. M.; Hanna, A. (2025): The AI CON. How To fight Big Tech´s Hype And Create The Future We Want | Link.
Um das Buch mit seinen Ansichten besser verstehen zu können lohnt es sich, kurz auf in die Anfänge von Artificial Intelligence zurückzuschauen. Den Begriff „Artificial Intelligence“ prägte McCarthy für den Dartmouth Workshop im Jahr 1956. Darüber hinaus hat Minsky im gleichen Jahr sein einflussreiches Paper zu Heuristic Aspects of the Artificial Intelligence Problem veröffentlicht. Seit dieser Zeit hat die Entwicklung von Artificial Intelligence immer dynamischer zugenommen.
Die Dynamik ist seit 70 Jahren auch geprägt von militärischen Anforderungen und von Investoren, die in Artificial Intelligence eine sehr lukrative Story sehen, die uns erzählt, dass Maschinen (Artificial Intelligence) im Vergleich zu Menschen in allen Bereichen besser sind, bzw. sein werden. Denn: Wenn etwas heute noch nicht klappen sollte, dann wird es mit besseren Maschinen bestimmt in der Zukunft funktionieren – so zumindest die Story. Man muss eben daran glauben…
Dieses Narrativ hilft natürlich die enormen Investitionen zu schützen, und weiterhin viel Geld zu verdienen. Doch stellen sich immer mehr Personen – und ganze Gesellschaften – in der Zwischenzeit die Frage, ob diese Erzählung stimmt, und ob diese Entwicklungen gut für die Menschen sind. Manche argumentieren, dass es sich bei dem allseits propagierten AI-Hype ehr um eine AI-Hybris handelt:
Die Hybris (altgriechisch für Übermut‘, ‚Anmaßung‘) bezeichnet Selbstüberschätzung oder Hochmut. Man verbindet mit Hybris häufig den Realitätsverlust einer Person und die Überschätzung der eigenen Fähigkeiten, Leistungen oder Kompetenzen, vor allem von Personen in Machtpositionen. (Quelle: vgl. Wikipedia).
Wenn Sie sich diese ganzen Punkte noch einmal vergegenwärtigen, kommen Sie möglicherweise auch zu dem Schluss, dass man gegen das etablierte Narrativ etwas unternehmen sollte/muss. Genau das haben die beiden Autoren mit ihrem Buch gemacht.
Um es noch einmal deutlich zu machen: Es geht nicht darum, Artificial Intelligence zu „verteufeln“, sondern darum, die Möglichkeiten von Artificial Intelligence im Rahmen von Werten und Grundrechten für Menschen zu nutzen.
Seit mehreren Jahren gehen wir auch positiv kritisch mit den Möglichkeiten und den Risiken von Artificial Intelligence um – ganz im Sinne einer Digitalen Souveränität.
Mit Explainable AI (XAI) sollen KI-Systeme transparent, nachvollziehbar und überprüfbar gemacht werden. in dem Zusammenhang kommt dem Reasoning eine besondere Rolle zu:
„Unter Reasoning versteht man den Prozess, bei dem ein KI-System seine internen Schlussfolgerungen sichtbar macht, etwa in Form logisch strukturierter Argumentationsketten oder textuell formulierter Teilschritte (sogenannter Chains-of-Thought)“ (Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen).
XAI und Reasoning ermöglichen es gerade Kleinen und Mittleren Unternehmen die jeweiligen Prozessschritte zumindest teilweise nachzuvollziehen.
„Transparenz allein genügt nicht, wenn die Systeme nicht kontrolliert, erweiterbar und datensouverän betrieben werden können“ (ebd.).
Gerade KMU sollten darauf achten, wenn sie Künstliche Intelligenz in ihre Prozesse einbinden wollen. XAI, Reasoning, Open Data und Open Source AI bieten hier geeignete Möglichkeiten, einen unternehmensspezifischen Mix zu finden.
Open Data and Open Source AI – a perfect match – ganz im Sinne einer Digitalen Souveränität.
Typischer Stage-Gate Ideenverfeinerungs- und Auswahlprozess (CEN/TS 16555-2014)
Für den kreativen Prozess, bzw. den Problemlösungsprozess, sind grundsätzlich zwei Denkstile erforderlich (Hornung/Patzak 2011):
Divergentes Denken (divergent: „auseinandergehend, ausschweifend, verzweigend“): die Gedanken schweifen lassen, in die Breite gehendes Denken, den Gedanken freien Lauf lassen, eine Ausweitung des Suchraumes.
Konvergentes Denken (konvergent: „zusammenlaufend, zusammenführend“): die Gedanken auf einen Punkt bringen, einem Ziel zuführen, eine Einengung des Suchraumes, vorsehen von Randbedingungen und Beschränkungen.
Divergentes und Konvergentes Denken sind im Ideenverfeinerungs- und Auswahlprozess gefragt (Abbildung).
Die jeweiligen Schritte können heute gut mit Künstlicher Intelligenz unterstützt werden. Es stellen sich dabei folgend Fragen:
Welche Daten sollen verwendet werden? Sollen relativ wahllos Daten aus den Netz genutzt werden? Das kann zu rechtlichen Problemen führen. Oder sollen frei verfügbare (Open Data) Daten und eigene Daten aus der Organisation genutzt werden?
Natürlich kann der Prozess auch weiter geöffnet werden, wobei sich zwei Ansätze anbieten: Einmal ist es der Open Innovation Ansatz von Henry Chesbrough, der von offeneren Innovationsprozessen in Unternehmen ausgeht und somit auf das jeweilige Business Model zielt.
Quelle: Bahnsen/Schnabel (2012(; (c) Dr. Robert Freund
Ein wichtiges Element, worin sich Künstliche Intelligenz und Menschliche Intelligenz unterscheiden, soll das Bewusstsein sein (Penrose 2025). Schauen wir uns zunächst einmal an, was das menschliche Bewusstsein ausmacht. In einem Artikel von Bahnsen und Schnabel (2012) wird u.a. der Entwicklungspsychologe Tomasello wie folgt zitiert:
„Das menschliche Selbstbewusstsein existiert nicht für sich allein, behauptet Michael Tomasello, Leiter der Abteilung Entwicklungspsychologie. Es ist wesentlich ein Produkt der Interaktion mit anderen“ (ebd.).
Es geht hier um die Interaktion mit und zwischen Menschen – unter weiter:
„Ihr Bewusstsein entsteht durch spezielle und hoch entwickelte Formen sozialer Fähigkeiten bei der Interaktion mit anderen – etwas was Tomasello „kulturelle Intelligenz“ nennt“ (ebd.).
Die vernetzten Interaktionsformen bei Menschen weisen auf eine Dynamik bei dem Bewusstsein hin, die in der Abbildung beispielhaft in Bezug zu Wachheit zu erkennen ist. Da diese Argumente sehr stark auf Menschen bezogen sind, ergibt sich in der Zwischenzeit die Frage, ob auch Künstliche Intelligenz so eine Art von Bewusstsein haben kann.
Nobelpreisträger Sir Roger Penrose hat hier eine deutliche und klare Meinung. Da Künstliche Intelligenz nach seiner Auffassung kein Bewusstsein haben wird, sollten wir nicht von Künstlicher Intelligenz, sondern eher von Künstlicher Cleverness sprechen. Sie dazu Künstliche Cleverness statt Künstliche Intelligenz?
Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World. Available at: https://www.youtube.com/watch?v=biUfMZ2dts8
AI will not have conscious – Künstliche Intelligenz wird kein Bewusstsein haben.
In seiner Argumentation verwendet Penrose Gödels Theorem, was als Penrose-Lucas Argument (englisch) durchaus auf Kritik in der Wissenschaftswelt gestoßen ist. Was erwartbar war – so ist eben spannende, lebendige Wissenschaft.
Über die Mistral 3 Modell-Familie, Mistral Le Chat und Mistral Forge habe ich hier schon ausführlich geschrieben. Mistral ist für die Digitale Souveränität in Europa wichtig, da alle KI-Anwendungen europäisch (französisch), DSGVO-konform und Open Source sind. Ganz im Sinne einer Digitalen Souveränität.
Was im Vergleich zu den bekannten proprietären KI-Anwendungen noch fehlte, war das Coding mit Mistral. Dazu wurde nun Mistral Vibe veröffentlicht:
„Agentic coding that meets you where you work. Write, test, and deploy autonomously with full codebase context“ (ebd.).
Da ich kein Experte für das Coding mit Künstlicher Intelligenz bin, habe ich einen Beitrag gesucht, der die Möglichkeiten von Mistral Vibe aus der Coding-Perspektive beschreibt. In dem Artikel Mistral Vibe 2.0: Der terminalbasierte KI-Codierungsagent von Oluseye Jeremiah, veröffentlicht am 02. Februar 2026 auf datacam werden die vielen Vorteile von Mistral Vibe beschrieben.
„Mistral Vibe 2.0 ist ein Terminal-basierter KI-Codierungsagent, der direkt über die Befehlszeile läuft. Anstatt in einem Browser oder als IDE-Plugin zu laufen, arbeitet es direkt im Entwickler-Workflow mit Zugriff auf Dateien und Repositorys.“
Es ist spannend zu sehen, wie sich Mistral, als europäische Alternative zu den bekannten KI-Anwendungen der etablierten amerikanischen Konzerne auf dem Markt behauptet. Erstaunlich ist allerdings auch, dass darüber gar nicht so viel geschrieben wird. Honi soit qui mal y pense.
Generative Künstliche Intelligenz (GenKI) ist gerade bei Kleinen und Mittleren Unternehmen (KMU) ein spezielles Thema, da KMU oftmals undermanaged und underfinanced sind. KMU müssen daher beim Einsatz von Künstlicher Intelligenz darauf achten, dass nicht unnötig Ressourcen verschwendet werden. Dazu gehört auch, von Anfang an einen angemessenen Weg zur Nutzung Künstlicher Intelligenz einzuschlagen.
Damit meine ich nicht zu entscheiden, ob man ChatGPT, Gemini, Grok, Anthropic usw. einsetzen möchte, denn diese KI-Modelle (LLM: Large Language Models) sind eher proprietäre LLM, also herstellergebundene KI-Modelle mit Vor- und Nachteilen.
Die Abbildung zeigt dazu eine einfache Gegenüberstellung von Open Source LLM und proprietärer LLM. Es wird deutlich, dass die Einstiegshürden bei Open Source LLM zwar höher sind, doch die Open Source LLM bei Kosten, Datenschutz und Anpassung besser abschneiden. Was noch beobachtet werden muss, ist das jeweilige Leistungsniveau, das sich bei den Open Source LLM in den letzten Jahren stark verbessert hat.
Vor zwei Jahren dominierten proprietäre Modelle den Markt. Inzwischen hat sich viel getan. Beispiele sind Meta LLaMA 3, Mistral & Mixtral, Falcon, Gemma, OpenHermes und Ökosystem-Tools (Plattformen wie HuggingFace).
Kurz gesagt: Open-Source LLMs sind nicht mehr nur Forschungsprojekte, sondern in vielen Szenarien produktionsreif.
Quelle: vgl. Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen. EIN KURZLEHRBUCH | PDF
Gerade für Kleine und Mittlere Unternehmen (KMU) ist es an der Zeit, auf Basis von Open Source AI ihre eigene Digitale Souveränität aufzubauen. Mit dem genannte Handbuch können Sie sich ausführlicher darüber informieren und anfangen, entsprechende Kompetenzen aufzubauen.
Die vielfältigen Abhängigkeiten Europas, u.a. bei Energie und Digitalisierung sind in der Zwischenzeit allen leidvoll bewusst geworden. In den letzten Jahren wird daher immer mehr versucht, auf unabhängige Lösungen zu setzen.
Das bedeutet bei der Energie natürlich, erneuerbare Energie auszubauen. Bei der Digitalisierung geht es um eine weitgehende Digitale Souveränität. In vielen europäischen Verwaltungen werden auch schon erste erfolgreiche Schritte sichtbar.
Vielen Verwaltungen wird langsam aber sicher auch klar, wie viel Geld sie an Rahmenverträgen, Lizenzen und Software an Big-Tech gezahlt zahlen müssen. Es sind in Deutschland 13,6 Milliarden Euro pro Jahr (Quelle: Golem 04.07.2025).
In der Zwischenzeit gibt es viele Open Source Anwendungen die als Alternativen zur Verfügung stehen. Das dänische Digitalministerium ersetzt beispielsweise Microsoft Office durch Libre Office, Schleswig-Holstein setzt in der Verwaltung auf Nextcloud usw. usw.
Einen Schritt weiter geht die Österreichische Verwaltung, die in Zukunft verstärkt Künstliche Intelligenz einsetzen will. Dabei hat man sich im Sinne der genannten Überlegungen für ein europäisches (französisches) KI-Modell entschieden: DSGVO-konform und Open Source.
„Gerade beim Einsatz von KI im Staat ist digitale Souveränität entscheidend. Deshalb arbeiten wir an einer gemeinsamen Infrastruktur, die unsere Daten schützt und gleichzeitig Innovation ermöglicht.“ Deshalb laufen auf den GPUs im Bundesrechenzentrum auch bevorzugt europäische Modelle – also etwa Mistral AI aus Frankreich. Dies soll volle Souveränität über die Daten garantieren“ (Zellinger, P. (2026): Es wird ernst: Künstliche Intelligenz zieht in die österreichische Verwaltung ein, in Der Standard vom 10.03.2026.
In dem Beitrag wird auch erwähnt, dass für nicht so sicherheitsrelevante Bereiche auch andere KI-Modelle genutzt werden können. Doch was ist in Öffentlichen Verwaltungen nicht sicherheitsrelevant?
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
In meinen Konferenz-Paper der letzten Jahrzehnte habe ich natürlich immer darauf geachtet, die jeweilige Quelle anzugeben. Damit ist aus wissenschaftlicher Sicht gewährleistet, dass deutlich wird, was von einem anderen Autor, und was von mir stammt.
Mit der gleichen Vorgehensweise erstellen wir auch unsere Blogbeiträge. Da wir dafür keinen KI-generierten Content nutzen, kann der Leser darauf vertrauen. Das ist besonders wichtig, daVertrauen die Basis für die Arbeit mit Künstlicher Intelligenzist – it all starts with trust.
Sollte also jemand Künstliche Intelligenz für seine Blogbeiträge, oder sogar für seine wissenschaftlichen Veröffentlichungen nutzen, steht er vor mehreren Herausforderungen, denn das jeweils verwendete KI-Modell zeigt nicht immer auf, welche Quelle es verwendet hat.
Texte, die originalgetreu von anderen übernommen wurden, werden zwar bei einigen KI-Modellen gekennzeichnet, doch andere Texte sind möglicherweise von der KI selbst zusammengestellt worden. Earp et al. (2025) haben das in einem veröffentlichten Paper als Herkunftsproblem (provenance problem) bezeichnet:
„Suppose the LLM trained on, but does not mention, Smith’s text. And suppose we have never read it or even heard of Smith or her work. So, we don’t cite the paper either. Still, our essay now inherits — via nebulous, machine-mediated means — a distinctive insight that Smith developed but for which she receives no credit“
Source: Earp, B.D., Yuan, H., Koplin, J. et al. LLM use in scholarly writing poses a provenance problem. Nat Mach Intell 7, 1889–1890 (2025). https://doi.org/10.1038/s42256-025-01159-8.
Es handelt sich dabei also nicht um Plagiate, sondern um eine subtilere Art der Verschleierung der Herkunft.
Im wissenschaftlichen Kontext wird das thematisiert, doch wie sieht es mit der privaten Nutzung der allseits eingesetzten KI-Modelle wie ChatGPT, Gemini, Anthropix, Grok etc. aus, die man als Black Box bezeichnen kann?
Da deren Trainingsdaten nicht transparent sind, ist das Herkunftsproblem natürlich auch hier vorhanden, doch die einzelnen Nutzer reflektieren über die Ergebnisse nicht so, wie es Wissenschaftler tun, die auf Qualität achten.
Dadurch werden alle möglichen und unmöglichen KI-Resultate weitergegeben und sind dann wiederum Bestandteil der nächsten Ergebnisse. In dem gesamten System entsteht so eine Unschärfe, die auch zu Manipulationen genutzt werden kann.
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.