In mehreren Blogbeiträge habe ich verschiedene Aspekte aus einem Kurzlehrbuch thematisiert, das als Download zur Verfügung steht: Es freut mich besonders, dass darin herausgestellt wird, dass Open Source AI gerade für Kleine und Mittlere Unternehmen (KMU) geeignet ist, Digitale Souveränität im Unternehmen zu erzielen. Am Ende des Kurzlehrbuchs fassen die Autoren die fünf wichtigsten Punkte noch einmal zusammen:
Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen | PDF.
(1) Die Arbeitswelt verändert sich – wir müssen uns mit verändern.
(2) Generative KI kann schon bei kleinen Aufgaben große Wirkung entfalten.
(3) Die Entscheidung für KI ist individuell – ebenso die Wahl der passenden Anwendung.
(4) KI-Nutzung erfordert rechtliche Orientierung – insbesondere im Hinblick auf den EU AI Act.
(5) Menschen müssen Teil der Lösung sein – sowohl bei KI als auch bei Cybersicherheit
AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.
Die Nutzung von KI-Modellen ist im privaten und unternehmerischen Umfeld angekommen. Dabei ist es für Kleine und Mittlere Unternehmen (KMU) entscheidend, ob sie sich in die Abhängigkeit der proprietären KI-Modelle begeben, oder mehr Wert auf die eigene Datenhoheit legen. Gerade KMU können es sich nicht leisten, hier knappe Ressourcen zu verschwenden.
Wenn es um Digitale Souveränität geht, und darum, leistungsfähige KI-Modelle mit eigenen oder anderen Daten zu verknüpfen, bietet das MCP-Protocol in der Zwischenzeit sehr spannende Möglichkeiten.
„MCP (Model Context Protocol) is an open standard from Anthropic designed to establish seamless interoperability between LLM applications and external tools, APIs, or data sources“ (Source: Langflow 1.4: Organize Workflows + Connect with MCP).
Wie das beispielsweise mit Langflow möglich ist, habe ich in verschiedenen Blogbeiträgen erläutert. Im Zusammenhang mit Open Source AI bietet das MCP einen Rahmen für ein eigenes, innovatives KI-System, bei dem Sie die Datenhoheit haben.
„Open-Source-Sprachmodelle sind die natürliche Ergänzung zu MCP. Während MCP den sicheren Rahmen vorgibt, liefern Open-Source-Modelle die Freiheit, diesen Rahmen nach eigenen Bedürfnissen zu gestalten“ (Hennekeuser, D. (2026): Model Context Protocol (MCP) und Open-Source-Sprachmodelle: Die Eröffnung neuer souveräner Wege. In Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen).
„Many have claimed that training large language models requires copyrighted data, making truly open AI development impossible. Today, Pleias is proving otherwise with the release of Common Corpus (part of the AI Alliance Open Trusted Data Initiative)—the largest fully open multilingual dataset for training LLMs, containing over 2 trillion tokens of permissibly licensed content with provenance information (2,003,039,184,047 tokens)“ (Source).
In der Zwischenzeit wurde Common Corpus schon mehr als 1 Millionen Mal heruntergeladen. Der starke Anstieg der Downloads zeigt eine relative Verschiebung auf dem KI-Markt, denn immer mehr Marktteilnehmer suchen nach Open Data, die sie frei nutzen können.
„Open-Source-Datensätze wie das Common Corpus bieten hier eine Lösung. Sie ermöglichen es Forschern und Unternehmen, auf eine breite Palette von Daten zuzugreifen, ohne sich über komplexe Lizenzfragen oder potenzielle Urheberrechtsverletzungen Gedanken machen zu müssen“ ( Common Corpus übertrifft eine Million Downloads und hebt Bedeutung von Open Data für KI hervor, Mindverse vom 12.03.2026).
Langsam aber sicher wollen immer mehr KI-Nutzer Künstliche Intelligenz gesellschaftlich verantwortungsvoll nutzen – ganz im Sinne einer Digitalen Souveränität.
Es ist an der Zeit, die Entwicklungen bei Artificial Intelligence (Künstlicher Intelligenz) auch einmal etwas kritischer zu beleuchten. Zwei Forscher aus den Bereichen der Sprach- und Sozialwissenschaften haben das in ihrem Buch getan:
Bender, E. M.; Hanna, A. (2025): The AI CON. How To fight Big Tech´s Hype And Create The Future We Want | Link.
Um das Buch mit seinen Ansichten besser verstehen zu können lohnt es sich, kurz auf in die Anfänge von Artificial Intelligence zurückzuschauen. Den Begriff „Artificial Intelligence“ prägte McCarthy für den Dartmouth Workshop im Jahr 1956. Darüber hinaus hat Minsky im gleichen Jahr sein einflussreiches Paper zu Heuristic Aspects of the Artificial Intelligence Problem veröffentlicht. Seit dieser Zeit hat die Entwicklung von Artificial Intelligence immer dynamischer zugenommen.
Die Dynamik ist seit 70 Jahren auch geprägt von militärischen Anforderungen und von Investoren, die in Artificial Intelligence eine sehr lukrative Story sehen, die uns erzählt, dass Maschinen (Artificial Intelligence) im Vergleich zu Menschen in allen Bereichen besser sind, bzw. sein werden. Denn: Wenn etwas heute noch nicht klappen sollte, dann wird es mit besseren Maschinen bestimmt in der Zukunft funktionieren – so zumindest die Story. Man muss eben daran glauben…
Dieses Narrativ hilft natürlich die enormen Investitionen zu schützen, und weiterhin viel Geld zu verdienen. Doch stellen sich immer mehr Personen – und ganze Gesellschaften – in der Zwischenzeit die Frage, ob diese Erzählung stimmt, und ob diese Entwicklungen gut für die Menschen sind. Manche argumentieren, dass es sich bei dem allseits propagierten AI-Hype ehr um eine AI-Hybris handelt:
Die Hybris (altgriechisch für Übermut‘, ‚Anmaßung‘) bezeichnet Selbstüberschätzung oder Hochmut. Man verbindet mit Hybris häufig den Realitätsverlust einer Person und die Überschätzung der eigenen Fähigkeiten, Leistungen oder Kompetenzen, vor allem von Personen in Machtpositionen. (Quelle: vgl. Wikipedia).
Wenn Sie sich diese ganzen Punkte noch einmal vergegenwärtigen, kommen Sie möglicherweise auch zu dem Schluss, dass man gegen das etablierte Narrativ etwas unternehmen sollte/muss. Genau das haben die beiden Autoren mit ihrem Buch gemacht.
Um es noch einmal deutlich zu machen: Es geht nicht darum, Artificial Intelligence zu „verteufeln“, sondern darum, die Möglichkeiten von Artificial Intelligence im Rahmen von Werten und Grundrechten für Menschen zu nutzen.
Seit mehreren Jahren gehen wir auch positiv kritisch mit den Möglichkeiten und den Risiken von Artificial Intelligence um – ganz im Sinne einer Digitalen Souveränität.
Die beiden Kriege in der Ukraine und im Iran haben wieder einmal deutlich gemacht, wie Abhängig wir in Europa von der Lieferung fossiler Energie sind. Dabei haben wir gerade in den letzten 5-10 Jahren deutliche Fortschritte bei der Energiesicherheit gemacht. Beispielsweise hatten erneuerbare Energien in Deutschland Anfang 2026 einen 60%- Anteil an der Bruttostromerzeugung (Bundesministerium für Wirtschaft und Energie).
Im europäischen Raum mit seinen vernetzten Energiestrukturen kommt es nun immer stärker darauf an, die unterschiedlichen Netze sicher zu steuern, ohne auch hier wieder in eine technologische Abhängigkeit zu geraten. Das Fraunhofer Institut entwickelt hierzu die SCADA Plattform und setzt dabei bewusst auf Open Source.
Um Anomalien europaweit frühzeitig erkennen und beheben zu können, entwickeln die Forschenden eine Open-Source-Plattform zur Datenerfassung, Fernüberwachung und Steuerung von Energienetzen. Experten sprechen von einer SCADA Plattform, kurz für »Supervisory Control and Data Acquisition Platform«. (…) Die Open-Source Software ist quasi der Werkzeugkasten, mit dem das KI-Modell trainiert und später betrieben wird. Quelle: Auf zu sicherer Energie, Fraunhofer-Magazin 1 | 2026 (PDF).
Es ist bezeichnend, dass auch in der Energieversorgung auf Open Source Lösungen gesetzt wird, und dass diese dann Basis für die Anwendung Künstlicher Intelligenz sein wird. Ich würde mir wünschen, dass auch Open Source KI verwendet wird, da diese offen und transparent sind, und unsere Daten schützen. Ganz im Sinne einer Digitalen Souveränität.
Ollama ist eine Open Source Software, mit der man kleine und größere Sprachmodelle (Small Language Models und Large Language Models testen kann.
(1) Zunächst natürlich auf Ollama selbst nach einem entsprechenden Login.
(2) Da Ollama Open Source ist, kann es auch auf dem eigenen Server installiert werden. Wie Sie wissen, haben wir das auch schon ausprobiert. Informationen dazu finden Sie in unseren verschiedenen Blogbeiträgen dazu.
(3) Es ist möglich, Ollama auf dem eigenen Desktop zu installieren und geeignete Modelle zu testen. In den Settings ist der Login bei Ollama zu hinterlegen.
Die Abbildung zeigt den Screenshot mit der Startseite auf meinem Desktop. Wie gewohnt kann ein geeigneter Prompt eingegeben werden.
Spannend ist, dass wir bei jedem neuen Chat aus verschiedenen installierten Modellen auswählen können. Bei dem Beispiel haben wir MISTRAL ausgewählt. Über das „+“-Zeichen können sogar Dateien mit hochgeladen werden.
Auch an der Stelle wird wieder deutlich, wie wichtig es ist, Künstliche Intelligenz mit transparenten Open Source Modellen auf der eigenen Infrastruktur zu betreiben. Ganz im Sinne einer Digitalen Souveränität.
Es war anschließend interessant zu sehen, wie schnell die Antwort über Ollama und MISTRAL erstellt wurde. Auch die Qualität der Antwort war gut. Hier der entsprechende Screenshot:
Wie die proprietären KI-Modelle wie ChatGPT, Gemini, Anthropic, Grok, Claude etc. funktionieren, ist oft nicht transparent, wodurch sich letztendlich auch kein wirkliches Vertrauen in diese Systeme aufbauen kann – it all starts with trust.
Es ist daher nur konsequent, wenn immer mehr Einzelpersonen, Unternehmen und Öffentliche Verwaltungen auf offene und transparente KI-Modelle setzen. In dem Zusammenhang gibt es auch ein Forschungsfeld, das sich mit den damit einhergehenden Fragestellungen befasst.
„Explainable AI (XAI) – Forschungs- und Anwendungsfeld der Künstlichen Intelligenz, das Methoden entwickelt, um Entscheidungen, Vorhersagen oder generierte Inhalte von KI-Systemen transparent, nachvollziehbar und überprüfbar zu machen. Ziel ist es, Vertrauen zu schaffen und Fehlentscheidungen zu vermeiden.“ (Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen).
Es stellt sich dabei natürlich gleich die Frage, was das z.B. für Kleine und Mittlere Unternehmen (KMU) in der Praxis bedeuten kann. „Gerade in geschäftskritischen Anwendungen ist Vertrauen in die Funktionsweise von KI-Systemen unerlässlich“ (ebd.). Solche Anwendungen sind ganz besonders Innovationsprozesse. Da sich gerade der deutsche Mittelstand innovativ ausrichtet, ja ausrichten muss, kommt Explainable AI (XAI) ein große Bedeutung zu.
Das Fraunhofer Institut hat dazu eine eXplainable Artificial Intelligence (XAI)-Toolbox entwickelt: „Das heißt, die Toolbox kann z. B. zur Datenanalyse, zum Debugging und zur Erklärung der Vorhersage eines beliebigen Black-Box-Modells eingesetzt werden“ (ebd.).
Die vielfältigen Abhängigkeiten Europas, u.a. bei Energie und Digitalisierung sind in der Zwischenzeit allen leidvoll bewusst geworden. In den letzten Jahren wird daher immer mehr versucht, auf unabhängige Lösungen zu setzen.
Das bedeutet bei der Energie natürlich, erneuerbare Energie auszubauen. Bei der Digitalisierung geht es um eine weitgehende Digitale Souveränität. In vielen europäischen Verwaltungen werden auch schon erste erfolgreiche Schritte sichtbar.
Vielen Verwaltungen wird langsam aber sicher auch klar, wie viel Geld sie an Rahmenverträgen, Lizenzen und Software an Big-Tech gezahlt zahlen müssen. Es sind in Deutschland 13,6 Milliarden Euro pro Jahr (Quelle: Golem 04.07.2025).
In der Zwischenzeit gibt es viele Open Source Anwendungen die als Alternativen zur Verfügung stehen. Das dänische Digitalministerium ersetzt beispielsweise Microsoft Office durch Libre Office, Schleswig-Holstein setzt in der Verwaltung auf Nextcloud usw. usw.
Einen Schritt weiter geht die Österreichische Verwaltung, die in Zukunft verstärkt Künstliche Intelligenz einsetzen will. Dabei hat man sich im Sinne der genannten Überlegungen für ein europäisches (französisches) KI-Modell entschieden: DSGVO-konform und Open Source.
„Gerade beim Einsatz von KI im Staat ist digitale Souveränität entscheidend. Deshalb arbeiten wir an einer gemeinsamen Infrastruktur, die unsere Daten schützt und gleichzeitig Innovation ermöglicht.“ Deshalb laufen auf den GPUs im Bundesrechenzentrum auch bevorzugt europäische Modelle – also etwa Mistral AI aus Frankreich. Dies soll volle Souveränität über die Daten garantieren“ (Zellinger, P. (2026): Es wird ernst: Künstliche Intelligenz zieht in die österreichische Verwaltung ein, in Der Standard vom 10.03.2026.
In dem Beitrag wird auch erwähnt, dass für nicht so sicherheitsrelevante Bereiche auch andere KI-Modelle genutzt werden können. Doch was ist in Öffentlichen Verwaltungen nicht sicherheitsrelevant?
Auf die neue Mistral 3 KI-Modell-Familie hatte ich schon im Dezember 2025 in einem Blogbeitrag hingewiesen. Das französische Start-Up wurde 2023 gegründet: „(…) the company’s mission of democratizing artificial intelligence through open-source, efficient, and innovative AI models, products, and solutions“ (Quelle: Website).
Dieses Demokratisieren von Künstlicher Intelligenz durch Open Source, als europäischer und DSGVO-konformer Ansatz, ist genau der Weg, den ich schon in verschiedenen Beiträgen vertreten habe. Es ist daher interessant, auch den in 2024 veröffentlichten Bot Le Chat im Vergleich beispielsweise zu ChatGPT zu testen.
Die Abbildung weiter oben zeigt die Landingpage für Le Chat mit einem einfachen Feld für die Eingabe eines Prompts. Man kann die Leistungsfähigkeit des Bots testen, ohne sich anmelden zu müssen. Ich habe mich also zunächst nicht angemeldet und einfach einmal eine Frage eingegeben, die mich aktuell beschäftigt: Es geht um die Unterschiede zwischen den Auffassungen von Henry Chesbrough und Eric von Hippel zu Open Innovation.
Ausschnitt aus der Antwort zum eingegebenen Prompt
Die Abbildung zeigt einen Ausschnitt aus der umfangreichen Antwort auf meine Frage, inkl. der generierten Gegenüberstellung der beiden Ansichten auf Open Innovation. Die Antwort kam sehr schnell und war qualitativ gut – auch im Vergleich zu ChatGPT.
Mistral Le Chat ist ein europäisches Produkt, das auch der DSGVO unterliegt und darüber hinaus neben französisch- und englischsprachigen, auch mit deutschsprachigen Daten trainiert wurde. Es ist spannend, sich mit den Mistral-KI-Modellen und mit Le Chat intensiver zu befassen.
Wir haben den kostenpflichtigen ChatGPT-Account in der Zwischenzeit gekündigt, und werden mehr auf Modell-Familien wie Mistral 3 und MistralLe Chat setzen. Wir sind gespannt, wie sich die Open Source Alternativen in Zukunft weiterentwickeln – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch
Wir haben uns alle mehr oder weniger daran gewöhnt, die verschiedenen Apps von Google zu nutzen. Ob es der Browser Chrome ist, Google Drive, etc. oder auch Google Maps . Wie ich schon in mehreren Beiträgen geschrieben habe, kommt es bei den scheinbar kostenlosen Apps (wir zahlen mit unseren Daten) von Google, Microsoft und Co. nach einer Phase der Gewöhnung zu einem Lock-in. Diese Pfadabhängigkeit wird dann genutzt, um die bisherigen Gewohnheiten einzuschränken oder kostenpflichtig zu stellen.
Google Maps sieht die Zeit gekommen, bisher verfügbare Informationen auf den gewohnten Karten zu reduzieren, wenn man sich nicht mit dem Google Konto angemeldet hat. Der Hintergrund wird in dem Artikel Google Maps ohne Anmeldung nur noch eingeschränkt nutzbar (Pakolski 2026, auf Golem.de) ausführlicher dargestellt.
„Google schränkt den vollen Funktionsumfang von Google Maps weiter ein, wenn Anwender sich nicht mit einem Google-Konto anmelden. Wird Google Maps etwa im Browser ohne Anmeldung genutzt, fehlen alle Rezensionen und Bilder zu Restaurants, Geschäften oder Touristenattraktionen“ (ebd.).
Was kann man machen? Sich ärgern, und sich in Zukunft immer mit dem Google Konto anmelden? Das ist der bequeme Weg, den man mit seinen Daten „bezahlt“. Alles andere bedeutet einen Aufwand (Switching Costs), ja. Genau das ist das Kalkül von Google (und anderen).
Es gibt allerdings auch die Möglichkeit, sich von solchen Anwendungen nach und nach zu emanzipieren, und digital souveräner zu werden. Bei dem Beispiel Google Maps gibt es die Open Source Alternative OpenStreetMap (OSM). Folgende Informationen sind bei OSM-About zu finden:
OpenStreetMap stellt Kartendaten für tausende von Webseiten, Apps und andere Geräte zur Verfügung.
OpenStreetMap legt Wert auf lokales Wissen. Autoren benutzen Luftbilder, GPS-Geräte und Feldkarten zur Verifizierung, sodass OSM korrekt und aktuell ist.
Ja, OpenStreetMap ist gewöhnungsbedürftig, doch sollte jeder abwägen, ob er aus Bequemlichkeit kurzfristig eine digitale Abhängigkeit, oder eher mittelfristig eine Digitale Souveränität möchte.