Österreichische Verwaltung setzt bei Künstlicher Intelligenz auf Mistral

Image by jorono from Pixabay

Die vielfältigen Abhängigkeiten Europas, u.a. bei Energie und Digitalisierung sind in der Zwischenzeit allen leidvoll bewusst geworden. In den letzten Jahren wird daher immer mehr versucht, auf unabhängige Lösungen zu setzen.

Das bedeutet bei der Energie natürlich, erneuerbare Energie auszubauen. Bei der Digitalisierung geht es um eine weitgehende Digitale Souveränität. In vielen europäischen Verwaltungen werden auch schon erste erfolgreiche Schritte sichtbar.

Vielen Verwaltungen wird langsam aber sicher auch klar, wie viel Geld sie an Rahmenverträgen, Lizenzen und Software an Big-Tech gezahlt zahlen müssen. Es sind in Deutschland 13,6 Milliarden Euro pro Jahr (Quelle: Golem 04.07.2025).

In der Zwischenzeit gibt es viele Open Source Anwendungen die als Alternativen zur Verfügung stehen. Das dänische Digitalministerium ersetzt beispielsweise Microsoft Office durch Libre Office, Schleswig-Holstein setzt in der Verwaltung auf Nextcloud usw. usw.

Einen Schritt weiter geht die Österreichische Verwaltung, die in Zukunft verstärkt Künstliche Intelligenz einsetzen will. Dabei hat man sich im Sinne der genannten Überlegungen für ein europäisches (französisches) KI-Modell entschieden: DSGVO-konform und Open Source.

Gerade beim Einsatz von KI im Staat ist digitale Souveränität entscheidend. Deshalb arbeiten wir an einer gemeinsamen Infrastruktur, die unsere Daten schützt und gleichzeitig Innovation ermöglicht.“ Deshalb laufen auf den GPUs im Bundesrechenzentrum auch bevorzugt europäische Modelle – also etwa Mistral AI aus Frankreich. Dies soll volle Souveränität über die Daten garantieren“ (Zellinger, P. (2026): Es wird ernst: Künstliche Intelligenz zieht in die österreichische Verwaltung ein, in Der Standard vom 10.03.2026.

In dem Beitrag wird auch erwähnt, dass für nicht so sicherheitsrelevante Bereiche auch andere KI-Modelle genutzt werden können. Doch was ist in Öffentlichen Verwaltungen nicht sicherheitsrelevant?

Siehe dazu auch

Digitale Souveränität: Mistral 3 KI-Modell-Familie veröffentlicht

Mistral Le Chat: Eine europäische Alternative zu ChatGPT

Mistral Le Chat: Ersten persönlichen Agenten zu User Innovation angelegt

Mistral Le Chat: Eine europäische Alternative zu ChatGPT

https://chat.mistral.ai/chat

Auf die neue Mistral 3 KI-Modell-Familie hatte ich schon im Dezember 2025 in einem Blogbeitrag hingewiesen. Das französische Start-Up wurde 2023 gegründet: „(…) the company’s mission of democratizing artificial intelligence through open-source, efficient, and innovative AI models, products, and solutions“ (Quelle: Website).

Dieses Demokratisieren von Künstlicher Intelligenz durch Open Source, als europäischer und DSGVO-konformer Ansatz, ist genau der Weg, den ich schon in verschiedenen Beiträgen vertreten habe. Es ist daher interessant, auch den in 2024 veröffentlichten Bot Le Chat im Vergleich beispielsweise zu ChatGPT zu testen.

Die Abbildung weiter oben zeigt die Landingpage für Le Chat mit einem einfachen Feld für die Eingabe eines Prompts. Man kann die Leistungsfähigkeit des Bots testen, ohne sich anmelden zu müssen. Ich habe mich also zunächst nicht angemeldet und einfach einmal eine Frage eingegeben, die mich aktuell beschäftigt: Es geht um die Unterschiede zwischen den Auffassungen von Henry Chesbrough und Eric von Hippel zu Open Innovation.

Ausschnitt aus der Antwort zum eingegebenen Prompt

Die Abbildung zeigt einen Ausschnitt aus der umfangreichen Antwort auf meine Frage, inkl. der generierten Gegenüberstellung der beiden Ansichten auf Open Innovation. Die Antwort kam sehr schnell und war qualitativ gut – auch im Vergleich zu ChatGPT.

Mistral Le Chat ist ein europäisches Produkt, das auch der DSGVO unterliegt und darüber hinaus neben französisch- und englischsprachigen, auch mit deutschsprachigen Daten trainiert wurde. Es ist spannend, sich mit den Mistral-KI-Modellen und mit Le Chat intensiver zu befassen.

Wir haben den kostenpflichtigen ChatGPT-Account in der Zwischenzeit gekündigt, und werden mehr auf Modell-Familien wie Mistral 3 und Mistral Le Chat setzen. Wir sind gespannt, wie sich die Open Source Alternativen in Zukunft weiterentwickeln – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch

Weitere Open Source AI-Modelle ausprobieren.

Das Kontinuum zwischen Closed Source AI und Open Source AI.

Open Source AI: Warum sollte Künstliche Intelligenz demokratisiert werden?

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Google Maps schränkt Funktionsumfang ein – Wechsel zu OpenStreetMap?

Screenshot: OpenStreetMap – Route: Frankfurt-München

Wir haben uns alle mehr oder weniger daran gewöhnt, die verschiedenen Apps von Google zu nutzen. Ob es der Browser Chrome ist, Google Drive, etc. oder auch Google Maps . Wie ich schon in mehreren Beiträgen geschrieben habe, kommt es bei den scheinbar kostenlosen Apps (wir zahlen mit unseren Daten) von Google, Microsoft und Co. nach einer Phase der Gewöhnung zu einem Lock-in. Diese Pfadabhängigkeit wird dann genutzt, um die bisherigen Gewohnheiten einzuschränken oder kostenpflichtig zu stellen.

Google Maps sieht die Zeit gekommen, bisher verfügbare Informationen auf den gewohnten Karten zu reduzieren, wenn man sich nicht mit dem Google Konto angemeldet hat. Der Hintergrund wird in dem Artikel Google Maps ohne Anmeldung nur noch eingeschränkt nutzbar (Pakolski 2026, auf Golem.de) ausführlicher dargestellt.

„Google schränkt den vollen Funktionsumfang von Google Maps weiter ein, wenn Anwender sich nicht mit einem Google-Konto anmelden. Wird Google Maps etwa im Browser ohne Anmeldung genutzt, fehlen alle Rezensionen und Bilder zu Restaurants, Geschäften oder Touristenattraktionen“ (ebd.).

Was kann man machen? Sich ärgern, und sich in Zukunft immer mit dem Google Konto anmelden? Das ist der bequeme Weg, den man mit seinen Daten „bezahlt“. Alles andere bedeutet einen Aufwand (Switching Costs), ja. Genau das ist das Kalkül von Google (und anderen).

Es gibt allerdings auch die Möglichkeit, sich von solchen Anwendungen nach und nach zu emanzipieren, und digital souveräner zu werden. Bei dem Beispiel Google Maps gibt es die Open Source Alternative OpenStreetMap (OSM). Folgende Informationen sind bei OSM-About zu finden:

OpenStreetMap stellt Kartendaten für tausende von Webseiten, Apps und andere Geräte zur Verfügung.

OpenStreetMap legt Wert auf lokales Wissen. Autoren benutzen Luftbilder, GPS-Geräte und Feldkarten zur Verifizierung, sodass OSM korrekt und aktuell ist.

Ja, OpenStreetMap ist gewöhnungsbedürftig, doch sollte jeder abwägen, ob er aus Bequemlichkeit kurzfristig eine digitale Abhängigkeit, oder eher mittelfristig eine Digitale Souveränität möchte.

Siehe dazu auch Digitale Souveränität: Welche Open Source Alternativen gibt es?

Künstliche Intelligenz: Pfadentstehung und Pfadbrechung

Pfadentstehung und Pfadbrechung (Ortmann 2009)

Bei Innovationen wird oft die Theorie der Pfadabhängigkeit thematisiert. Dabei ist am Anfang, in der Phase I der Entscheidungsselektivität, die Variationsbreite noch groß. Mit der Zeit wechselt die Situation (Critical Juncture) in die Phase II der positiven Rückkopplungen. Hier ist der Handlungsspielraum noch immer groß, doch die verfügbaren Varianten reduzieren sich. Eine gewisse Gewohnheit stellt sich ein, und es kommt zu einem Lock-in in der Phase III der Pfadabhängigkeit.

Diese Phasen können wir aktuell bei der Nutzung von KI-Modellen gut nachvollziehen, wobei ich vermute, dass viele durch die Nutzung der bekannten proprietären KI-Modelle wie ChatGPT, Gemini, Anthropic, Grok usw. in der Phase der Pfadabhängigkeit sind.

Es wundert daher nicht, dass Anbieter wie ChatGPT nun langsam aber sicher anfangen, diese Situation zu monetarisieren, und z.B. Werbung schalten. Diese Situation ist für viele Nutzer ärgerlich, doch stellen sich bei einem gewünschten Wechsel zu anderen KI-Modellen nun Switching Cost ein, die zu einer Hürde werden. Ein De-locking ist möglich, doch mit Aufwand verbunden.

Pfadabhängigkeit heißt ja: Prozesse sind nicht durch unsere Entscheidungen und Pläne zu determinieren, sondern nehmen ihren erst Schritt für Schritt näher bestimmten Verlauf in einem spezifischen Wechsel von Kontingenz und Notwendigkeit – in Folge von lauter intendierten und nicht-intendierten Effekten, schließlich in Folge von Selbstverstärkungseffekten, vor denen sich die Entscheidungsgewalt der Entscheider vollends blamiert (Ortmann 2009:11).

In der aktuellen Situation kann es dazu kommen, dass wir aus Bequemlichkeit nicht aus der Pfadabhängigkeit herauskommen. Vielen Nutzern ist diese Situation nicht bewusst. Sie glauben immer noch, dass sie es sind, die die KI-Systeme mit ihren Eingaben (Prompts) steuern…. Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich.

Open Source AI: SERA – Open Coding Agents at low cost

Source: https://allenai.org/blog/open-coding-agents

Das Ai2 Institut hat immer wieder interessante KI-Modelle auf Open Source Basis veröffentlicht. Unter anderem sind das die OLMO 3 – Familien oder auch MOLMO mit Schwerpunkt auf Videos. Mit der SERA ist es nun möglich, Open Coding Agents zu stellen, und das zu geringen Kosten.

„Today we’re releasing not just a collection of strong open coding models, but a training method that makes building your own coding agent for any codebase – for example, your personal codebase or an internal codebase at your organization – remarkably accessible for tasks including code generation, code review, debugging, maintenance, and code explanation. (…) The challenge: specializing agents to your data“ (Source: https://allenai.org/blog/open-coding-agents).

Die Modellfamilie (8B bis 32B) steht selbstverständlich auf Huggingface zur Verfügung, und kann auf eigenen Servern genutzt werden. Ganz im Sinne von Open Source AI und Digitalen Souveränität.

Künstliche Intelligenz: Es ist so bequem, unmündig zu sein

Image by Alexa from Pixabay

Der Wahlspruch der Aufklärung lautet: „Habe Mut, Dich Deines eigenen Verstandes zu bedienen!“ Die Aufklärung stellt somit die eigene Wissenskonstruktion in den Mittelpunkt. Was würde also passieren, wenn sich jeder seines eigenen Verstandes bedienen, und sich nicht mehr so abhängig machen würde? 

Immerhin ist es den meisten Menschen in Europa heute viel problemloser als früher möglich, seinen eigenen Verstand zu nutzen, doch die meisten machen es einfach nicht. Warum nur? Eine Antwort darauf finden wir schon bei Immanuel Kant, der am Ende des 18. Jahrhunderts folgende Erkenntnis formulierte:

Immanuel Kant schrieb schon 1784 in seiner Streitschrift: „Beantwortung der Frage: Was ist Aufklärung?“: „Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Faulheit und Feigheit sind die Ursachen, warum ein so großer Teil erwachsener Menschen, nachdem sie die Natur längst von fremder Leitung freigesprochen hat, dennoch gerne zeitlebens unmündig bleiben, und warum es anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein!“ (Fuchs, J.; Stolorz, C. (2001): Produktionsfaktor Intelligenz. Wiesbaden).

In Bezug auf aktuelle geopolitische, gesellschaftliche oder technologische Entwicklungen sehen wir heute, wie falsch es war, dass wir uns in Europa in alle möglichen und unmöglichen Abhängigkeiten begeben haben – es war eben alles so bequem. Dafür haben wir bewusst eine Unmündigkeit in Kauf genommen, die uns jetzt und in Zukunft teuer zu stehen kommt.

Auch bei der oftmals unreflektierten Nutzung der marktführenden KI-Modelle sehen wir wieder eine Entwicklung, die zur Unmündigkeit führt – ist ja alles so bequem. Siehe dazu beispielhaft: Digitale Souveränität: Europa, USA und China im Vergleich.

Alternativ zu den marktführenden KI-Modellen könnte man sich mit den Möglichkeiten von Open Source KI-Modellen befassen, was natürlich unbequemer sein kann, doch andererseits zu mündigen (aufgeklärten) Bürgern führt. In diesem Sinne: Sapere aude!

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Organisationale Daten-Souveränität bedeutet nicht unbedingt Digitale Souveränität

Image by Tumisu from Pixabay

Digitale Souveränität wird oftmals mit Daten-Souveränität in Organisationen verwechselt. Es ist daher wichtig zu verstehen, was Organisationale Daten-Souveränität ausmachen kann. Dazu habe ich folgenden Vorschlag in einem Paper gefunden:

„We define organizational data sovereignty as the self-determined and deliberate exercise of control over an organization’s data assets, which includes the recognition of their value, the proactive management of data activities (collection, storage, sharing, analysis, and interpretation), and the ability to assimilate and apply these data to drive value creation through interorganizational collaboration“ (Moschko et al. 2024).

In dem Paper geht es den Autoren um Organisationale Daten-Souveränität in Bezug auf Open Value Creation (OVC) in offenen Innovationsprozessen (Open Innovation).

Die hier angesprochene eigene (organisationale) Kontrolle der Daten würde durch den Einsatz von proprietären (Closed Models) KI-Anwendungen konterkariert, da man bei deren Nutzung nicht wirklich weiß, was mit den eigenen Daten passiert. Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

In dem Blogbeitrag Digitale Souveränität, oder doch nur Souveränitäts-Washing? finden Sie eine Definition von Digitaler Souveränität. Dabei werden Sie feststellen, dass Digitale Souveränität in diesem Sinne nur möglich ist, wenn Open Source AI – Modelle verwendet werden.

Digitale Souveränität, oder doch nur Souveränitäts-Washing?

Nachdem viele europäische und nationale Institutionen erkannt haben, wie abhängig wir in der Europäischen Union von US-amerikanischen und chinesischen Tech-Konzernen geworden sind, gibt es einen starken Trend zur Digitalen Souveränität

Das Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS GmbH) stellt dazu fest, dass der Begriff der Digitalen Souveränität oftmals irreführend verwendet wird, und es sich oftmals eher ein Souveränitäts-Washing handelt.

In einem Whitepaper wurden dazu verschiedene Beispiele genannt, die das illustrieren. Weiterhin wurde auch noch einmal klargestellt, was unter Digitale Souveränität zu verstehen ist.

„Ein Höchstmaß an Digitaler Souveränität bietet eine digitale Lösung dann, wenn sie:

rechtssicher/DSGVO-konform betrieben werden kann (bspw. ohne Zugriff durch ausländische Behörden auf Daten),

Wechselfähigkeit ermöglicht (d. h. kein Vendor-Lock-in besteht),

Kontrolle sichert (auch bei Ausfall, Sperrung oder Wechsel von Dienstleistern),

Transparenz bietet (z. B. durch einsehbaren Quellcode)

und anpassbar und gestaltbar ist (z. B. durch Weiterentwicklung in der Community oder durch Dienstleister).“

Quelle: Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) GmbH (2025): Souveränitäts-Washing bei Cloud-Diensten erkennen. Warum Digitale Souveränität mehr ist als ein Standortversprechen | Whitepaper (PDF).

Anhand dieser Kriterien kann nun jeder Einzelne, jedes Unternehmen und jede Öffentliche Verwaltung prüfen, ob es sich bei einem Angebot um Digitale Souveränität oder doch eher um Souveränitäts-Washing handelt. Ähnliche Entwicklungen gibt es ja auch beim Green-Washing.

Künstliche Intelligenz, Agiles Manifest, Scrum und Kanban

Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:

Agiles Manifest: Individuen und Interaktionen mehr als Prozesse und Werkzeuge
In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden
Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

KANBAN basiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt.
Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.

In einem anderen Blogbeitrag hatte ich dazu schon einmal darauf hingewiesen, dass man sich mit proprietärer Künstlicher Intelligenz (KI) auch die Denkwelt der Eigentümer einkauft.

Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.

Es liegt an uns, ob wir uns von den Tech-Giganten weiter in eine immer stärker werdende Abhängigkeit treiben lassen, oder andere Wege gehen – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.