Österreichische Verwaltung setzt bei Künstlicher Intelligenz auf Mistral

Image by jorono from Pixabay

Die vielfältigen Abhängigkeiten Europas, u.a. bei Energie und Digitalisierung sind in der Zwischenzeit allen leidvoll bewusst geworden. In den letzten Jahren wird daher immer mehr versucht, auf unabhängige Lösungen zu setzen.

Das bedeutet bei der Energie natürlich, erneuerbare Energie auszubauen. Bei der Digitalisierung geht es um eine weitgehende Digitale Souveränität. In vielen europäischen Verwaltungen werden auch schon erste erfolgreiche Schritte sichtbar.

Vielen Verwaltungen wird langsam aber sicher auch klar, wie viel Geld sie an Rahmenverträgen, Lizenzen und Software an Big-Tech gezahlt zahlen müssen. Es sind in Deutschland 13,6 Milliarden Euro pro Jahr (Quelle: Golem 04.07.2025).

In der Zwischenzeit gibt es viele Open Source Anwendungen die als Alternativen zur Verfügung stehen. Das dänische Digitalministerium ersetzt beispielsweise Microsoft Office durch Libre Office, Schleswig-Holstein setzt in der Verwaltung auf Nextcloud usw. usw.

Einen Schritt weiter geht die Österreichische Verwaltung, die in Zukunft verstärkt Künstliche Intelligenz einsetzen will. Dabei hat man sich im Sinne der genannten Überlegungen für ein europäisches (französisches) KI-Modell entschieden: DSGVO-konform und Open Source.

Gerade beim Einsatz von KI im Staat ist digitale Souveränität entscheidend. Deshalb arbeiten wir an einer gemeinsamen Infrastruktur, die unsere Daten schützt und gleichzeitig Innovation ermöglicht.“ Deshalb laufen auf den GPUs im Bundesrechenzentrum auch bevorzugt europäische Modelle – also etwa Mistral AI aus Frankreich. Dies soll volle Souveränität über die Daten garantieren“ (Zellinger, P. (2026): Es wird ernst: Künstliche Intelligenz zieht in die österreichische Verwaltung ein, in Der Standard vom 10.03.2026.

In dem Beitrag wird auch erwähnt, dass für nicht so sicherheitsrelevante Bereiche auch andere KI-Modelle genutzt werden können. Doch was ist in Öffentlichen Verwaltungen nicht sicherheitsrelevant?

Siehe dazu auch

Digitale Souveränität: Mistral 3 KI-Modell-Familie veröffentlicht

Mistral Le Chat: Eine europäische Alternative zu ChatGPT

Mistral Le Chat: Ersten persönlichen Agenten zu User Innovation angelegt

Wenn alle die selben KI-Workflows nutzen entsteht eine wissenschaftliche Monokultur

AI monoculture feedback loop (Traberg et al. 2026)

In allen möglichen Kontexten soll und wird Künstliche Intelligenz genutzt. Dabei dominieren in unserem Kulturkreis die von den amerikanischen Konzernen entwickelten GenAI-Modelle. Diese werden in allen privaten und organisatorischen Prozessen integriert. Ein Großteil der Personen und Organisationen nutzen dabei die gleichen KI-Workflows.

Das hat beispielsweise im wissenschaftlichen Kontext einen unschönen Effekt: Dadurch, dass alle Wissenschaftler mehr oder weniger stark die selben GenAI-Modelle für ihre Arbeiten nutzen, kommt es zu einer Art „wissenschaftlicher Monokultur„.

Traberg, C.S., Roozenbeek, J. & van der Linden, S. AI is turning research into a scientific monoculture. Commun Psychol 4, 37 (2026). https://doi.org/10.1038/s44271-026-00428-5

In der Abbildung ist der Kreislauf mit seinen einzelnen Schritten dargestellt. Es wird deutlich, dass es sich hier um eine Art Generator handelt, also ein sich selbst verstärkender Wirkungskreislauf.

Auch hier wird deutlich, dass es gut ist, verschiedene KI-Modelle für wissenschaftliche Arbeiten zu nutzen, und die jeweiligen Ergebnisse zu bewerten.

Es stellt sich natürlich auch gleich die Frage, ob diese „wissenschaftliche Monokultur“ auch bei Innovationsprozessen vorkommt. Auch hier nutzen viele Personen und Unternehmen oftmals die gleichen KI-Modelle.

Künstliche Intelligenz und das Herkunftsproblem – provenance problem

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

In meinen Konferenz-Paper der letzten Jahrzehnte habe ich natürlich immer darauf geachtet, die jeweilige Quelle anzugeben. Damit ist aus wissenschaftlicher Sicht gewährleistet, dass deutlich wird, was von einem anderen Autor, und was von mir stammt.

Mit der gleichen Vorgehensweise erstellen wir auch unsere Blogbeiträge. Da wir dafür keinen KI-generierten Content nutzen, kann der Leser darauf vertrauen. Das ist besonders wichtig, da Vertrauen die Basis für die Arbeit mit Künstlicher Intelligenz ist it all starts with trust.

Sollte also jemand Künstliche Intelligenz für seine Blogbeiträge, oder sogar für seine wissenschaftlichen Veröffentlichungen nutzen, steht er vor mehreren Herausforderungen, denn das jeweils verwendete KI-Modell zeigt nicht immer auf, welche Quelle es verwendet hat.

Texte, die originalgetreu von anderen übernommen wurden, werden zwar bei einigen KI-Modellen gekennzeichnet, doch andere Texte sind möglicherweise von der KI selbst zusammengestellt worden. Earp et al. (2025) haben das in einem veröffentlichten Paper als Herkunftsproblem (provenance problem) bezeichnet:

„Suppose the LLM trained on, but does not mention, Smith’s text. And suppose we have never read it or even heard of Smith or her work. So, we don’t cite the paper either. Still, our essay now inherits — via nebulous, machine-mediated means — a distinctive insight that Smith developed but for which she receives no credit“

Source: Earp, B.D., Yuan, H., Koplin, J. et al. LLM use in scholarly writing poses a provenance problem. Nat Mach Intell 7, 1889–1890 (2025). https://doi.org/10.1038/s42256-025-01159-8.

Es handelt sich dabei also nicht um Plagiate, sondern um eine subtilere Art der Verschleierung der Herkunft.

Im wissenschaftlichen Kontext wird das thematisiert, doch wie sieht es mit der privaten Nutzung der allseits eingesetzten KI-Modelle wie ChatGPT, Gemini, Anthropix, Grok etc. aus, die man als Black Box bezeichnen kann?

Da deren Trainingsdaten nicht transparent sind, ist das Herkunftsproblem natürlich auch hier vorhanden, doch die einzelnen Nutzer reflektieren über die Ergebnisse nicht so, wie es Wissenschaftler tun, die auf Qualität achten.

Dadurch werden alle möglichen und unmöglichen KI-Resultate weitergegeben und sind dann wiederum Bestandteil der nächsten Ergebnisse. In dem gesamten System entsteht so eine Unschärfe, die auch zu Manipulationen genutzt werden kann.

Lernen ist die Barriere für das Skalieren von Künstlicher Intelligenz

Wenn es um Künstliche Intelligenz geht, wird oft über die KI-Modelle, die technische und organisatorische Infrastruktur, oder auch über Regulation oder Talent (Kompetenzen) gesprochen.

Diese Punkte sollen helfen, KI-Systeme zu skalieren und dadurch besser und profitabler zu machen. Wenn es um die Skalierung von KI-Systemen geht, hat sich allerdings ein ganz anderer Bereich als Barriere entpuppt: Das Lernen.

The core barrier to scaling is not infrastructure, regulation, or talent. It is learning. Most GenAI systems do not retain feedback, adapt to context, or improve over time“ (MIT NANDA 2025).

Die hier angesprochene Kritik richtet sich also darauf, dass die meisten GenAI Systeme kein Feedback speichern, sich nicht dem Kontext anpassen und sich nicht im Laufe der Zeit verbessern.

Natürlich gibt es GenAI-Systeme, die ein Feedback anbieten, doch geben nicht alle Nutzer ihr Feedback zu den Antworten, obwohl es manchmal ganz einfach mit „Daumen hoch“ oder „Daumen runter“ möglich ist.

Die Anpassung an den Kontext ist da schon für GenAI schwieriger, das es für das spezielle Erfahrungswissen (Expertise) viel mehr benötigt, als das, was GenAI aktuell anbietet. An diesen Stellen kommt der Mensch ins Spiel. Siehe dazu Rent a Human: KI-Agenten bieten Arbeit für Menschen an.

Natürlich verbessern sich die GenAI Systeme über die Zeit. Das machen sie, aufgrund ihrer vorliegenden Daten auch selbständig, selbstorganisiert, autopoietisch. GenAI-Systeme verbessern sich allerdings nur so lange selbst, bis ihr System infrage gestellt wird – dann ist Schluss. Allerdings sind die Daten, auf denen die Verbesserung basiert nicht so vollständig. Das wiederum bedeutet möglicherweise, dass auch die Verbesserung nicht optimal ist.

Wenn also Lernen der Flaschenhals beim Skalieren von GenAI ist, sollte sich jeder mit Lernen befassen. Ich bezweifle allerdings, dass diejenigen, die sich mit KI-Systemen und deren Nutzung in Organisationen befassen, etwas von Lernen verstehen. Siehe dazu auch

Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht.

Künstliche Intelligenz und Lernen.

Das Netzwerk vom Lernen.

Lernen des Entscheidens statt Lernen von Wissen?

Office.EU: Eine Alternative zu Microsoft 365 und Google Workplace

Website: https://office.eu/

Dass es erforderlich ist, sich als Privatperson, Unternehmen, gemeinnützige Organisation oder staatliche Verwaltung digital unabhängiger von amerikanischen (oder auch chinesischen) Anbietern zu machen, ist so langsam aber sicher allen klar geworden.

Der erste Schritt ist, sich von Microsoft Office 365 oder auch Google Workplace unabhängiger zu machen. Dafür gibt es in der Zwischenzeit viele Möglichkeiten, die beispielsweise auf Nextcloud Hub basieren. Wie Sie als Leser unseres Blogs wissen, haben wir diesen Schritt schon vor vielen Jahren eingeleitet, und Nextcloud auf unseren eigenen Servern installiert. Bitte schauen Sie sich dazu meine Blogbeiträge zu Nextcloud an.

Parallel dazu bieten auch andere Anbieter Nextcloud Hub als Service an – beispielsweise auch ein Unternehmen aus Den Haag, das Office.EU als europäische Plattform anbietet:

„Office EU is a complete cloud-based office suite (like Microsoft 365 or Google Workspace) that is 100% European-owned and runs entirely on European infrastructure. Office EU includes all the essential productivity apps for documents, spreadsheets, presentations, file storage, email, calendars, and video meetings“ (Website).

Der nächste Schritt ist dann, Künstliche Intelligenz in Nextcloud zu integrieren. Wir haben auf unserer Installation gezeigt, dass LocalAI in Nextcloud integriert, und Open Source basierte KI-Modelle eingebunden werden können – wichtige Schritte in Richtung Digitale Souveränität.

Kann der Mensch überhaupt kommunizieren?

Image by StockSnap from Pixabay

Die Frage in meiner Blogüberschrift erscheint auf den ersten Blick etwas seltsam. Immerhin kommunizieren wir als Menschen doch permanent, oder? Schauen wir uns Kommunikation noch etwas genauer an, so ist die Frage gar nicht so leicht zu beantworten.

Bei Kommunikation geht es um den“ Austausch oder die Übertragung von Informationen“(Wikipedia). Dabei gibt es viele Facetten. die vom einfachen Sender-Empfänger-Modell, über die verschiedenen Ebenen von menschlicher und digitaler Kommunikation, bis hin zur Einordnung von Kommunikation in komplexen sozialen Systemen reichen.

Bei der Systembetrachtung gibt es Ansichten (z.B. von Luhmann), die der allgemeinen Auffassung von Kommunikation widersprechen. Die Systemtheorie von Niklas Luhmann geht zunächst einmal von der Kommunikation (nicht von Handlungen) aus und davon, dass „die Strukturen der Kommunikation in weitgehend allen sozialen Systemen vergleichbare Formen aufweisen“ (ebd.). Kommunikation ist also, so Luhmann, kein Ergebnis menschlichen Handelns, sondern ein Produkt sozialer Systeme (vgl. Dewe 2010).

Das gipfelt in der Aussage: „Der Mensch kann nicht kommunizieren, nur die Kommunikation kann kommunizieren“ (Krieger / Nassehi 1993:56).

Soziale Systeme tauschen also Informationen selbstreferentiell aus – sie kommunizieren, ohne dass der Mensch dafür erforderlich ist.

Der Mensch ist nach Luhmann konsequenterweise kein Bestandteil der sozialen Systeme, sondern Bestandteil der Umwelt. Die System-Umwelt-Kopplung macht die Kommunikation möglich. Wie am Anfang schon angedeutet, sind die Zusammenhänge nicht so einfach zu verstehen. Siehe dazu auch Künstliche Intelligenz: System – Umwelt – Mensch.

4.444 Blogbeiträge seit Juli 2006

Vor fast 20 Jahren haben wir den Blog mit WordPress (Open Source) gestartet – ohne Webebanner oder versteckter Werbung. Das ist auch heute noch so.

Von Anfang an haben wir Wert auf Qualität der Beiträge gelegt, indem wir beispielsweise Originaltexte mit Quellen angegeben, und dadurch von unserer Meinung abgegrenzt haben.

In der Zwischenzeit werden wir alle von KI generierten Inhalten überschwemmt. Da ist es aus unserer Sicht gut, mehr auf Qualität, als auf Quantität zu setzen. Ganz im Sinne von unserer Marke:

Macht es heute noch Sinn, den Begriff „Verbraucher“ zu verwenden?

Image by gonghuimin468 from Pixabay

Die verwendete Sprache, und hier speziell die verwendeten Begriffe, lassen oft Rückschlusse auf die dazugehörende Denkweise (Mindset) zu. Beispielsweise ist die Metapher „Unternehmen als Maschine“ oder „Menschen sind Zahnräder“ sinnbildlich für eine sehr mechanistische Denkweise, die heute in vielen Bereichen nicht mehr angemessen erscheint.

Der Begriff „Verbraucher“ hat eine ähnliche Wirkung. In vielen Meldungen, Statistiken usw. wird immer noch der Begriff verwendet, gerade so, als ob alle Produkte und Dienstleistungen verzehrt werden, also einer Abnutzung unterliegen.

Verbrauch ist in der Wirtschaftstheorie der Verzehr von Gütern und Dienstleistungen zur direkten oder indirekten Bedürfnisbefriedigung. Ein Synonym für Verbrauch ist Konsum“ (Quelle: Wikipedia) Bei einem Acker ist das so, da hier die Fläche begrenzt, und nicht so einfach erweiterbar ist. Es leuchtet daher ein, dass versucht wird, das „maximale aus dem Boden herauszuholen“.

Bei digitalen Produkten ist das etwas anders. Auf das eben beschriebene Beispiel angewendet bedeutet das: „Der digitale Acker ist ein Zauberhut, aus dem sich ein Kaninchen nach dem anderen ziehen lässt, ohne dass er jemals leer würde. Die »Verbraucher« von Informationsgütern »verbrauchen« ja eben gerade nichts“ (Grassmuck 2004, Bundeszentrale für politische Bildung (bpb), 2., korrigierte Auflage).

In einer immer stärker digitalisierten Welt, werden digitale Produkte und Dienstleistungen durch deren Nutzung nicht „verbraucht“, sondern ganz im Gegenteil: Durch die Nutzung von Daten und Informationen entstehen wieder viele neue Daten, die dann oftmals von Unternehmen wertschöpfend genutzt werden. Daten sind für diese Unternehmen das neue Öl.

Im Zusammenhang mit digitalen Produkten (Daten, Informationen, Wissen) sollten wir daher nicht mehr von „Verbraucher“ sprechen, da der Begriff einfach nicht mehr passt.

MCP 2026: International Conference on Customization and Personalization

https://mcp-ce.org/

Die nächste internationale Konferenz MCP 2026 zu Customization and Personalization findet vom 16.-19.09.2026 in Balatonfüred, Ungarn statt. Die MCP Community of Europe trifft sich zum Austausch der verschiedenen Perspektiven auf das Thema. Seit 2004 ist das die 12. Konferenz, die durchgehend alle 2 Jahre durchgeführt wird.

12th International Conference on Customization and Personalization

7th Doctoral Students Workshop

4th Professionals Panels & MEA KULMA Innovation Festival

Conference Abstract Submission Deadline: March 31, 2026.

Sprechen Sie mich gerne an, wenn Sie Fragen zur Konferenz haben. Wir werden auch dabei sein.

Von Mass Personalization zu Open User Innovation

Image by Denise Husted from Pixabay

Auf den verschiedenen Konferenzen, an denen ich teilgenommen habe, ging es über viele Jahre um Mass Customization and Personalization. Auslöser der Entwicklung war die Veröffentlichung B. Joseph Pine II (1992): Mass Customization. The New Frontier in Business Competition, in der die damals neue hybride Wettbewerbsstrategie vorgestellt wurde.

In der Zwischenzeit gibt es beim Fraunhofer Institut in Stuttgart das Leistungszentrum Mass Personalization. Dort ist man der Auffassung, dass es sich bei Mass Personalization um einen Megatrend handelt

„Mass Personalization ist ein eigenständiges radikal nutzerzentriertes und dennoch nachhaltiges und ressourceneffizientes Konzept, das als Toolbox oder plattformtechnologische Anwendung in der Produktion von morgen fungieren kann“ (Krieg/Groß/Bauernhansl (2024) (Hrsg.): Einstieg in die Mass Personalization. Perspektiven für Entscheider).

Mass Customization ist hier zeitpunktbezogen, und Mass Personalization eher Zeitdauer bezogen zu interpretieren. Beides, Mass Customization und Mass Personalization, sind allerdings immer noch aus der Perspektive des Unternehmens gedacht.

Wenn sich ein Unternehmen auf jeden einzelnen Nutzer so intensiv einstellen will, benötigt es viele Problem- und möglicherweise auch erste Lösungsinformationen vom Nutzer. Bei komplexen Problemen sind diese Informationen nur sehr schwer zu beschreiben (Kontext, Implizites Wissen, Expertise), und schwer vom Nutzer zum Unternehmen übertragbar (Sticky Information, Träges Wissen).

Der Nutzer weiß oft am besten, was er für sein Problem benötigt. Es fehlt oft noch der Schritt zur ersten Umsetzung von eigenen Lösungen. Dieser war in der Vergangenheit sehr aufwendig (Zeit, Geld), sodass die Umsetzung oft von Unternehmen übernommen wurde.

In der Zwischenzeit gibt es durch die Möglichkeiten der Künstlichen Intelligenz, des 3D-Drucks (Additive Manufacturing), oder auch der Robotik und der Open Source Community viele Möglichkeiten, das Produkt selbst zu entwickeln und im Idealfall selbst oder in einer Community herzustellen. Siehe Eric von Hippel (2016): Free Innovation (Open Access).

Titel (Ausschnitt) https://direct.mit.edu/books/book/5344/Free-Innovation

Eric von Hippel hat dazu schon sehr viele Studien veröffentlich, aus denen hervorgeht, dass der Anteil dieser Open User Innovation in den letzten Jahrzehnten stark angewachsen ist. Diese Innovationen findet man nicht in den offiziellen Statistiken zu Innovationen, denn Innovationen werden dort von Unternehmen entwickelt und auf den Markt gebracht. Was versteht nun von Hippel unter Open User Innovation?

„An innovation is ´open´ in our terminology when all information related to the innovation is a public good—nonrivalrous and nonexcludable”(Baldwin and von Hippel 2011:1400).

”… involves contributors who share the work of generating a design and also reveal the outputs from their individual and collective design efforts openly for anyone to use“ (Baldwin and von Hippel 2011:1403).

Wir wissen alle, dass die Unternehmen nur die Innovationen auf den Markt bringen, die eine entsprechende Rendite versprechen – alles andere bleibt liegen… Doch genau darin liegt die Chance von Open User Innovation: Jeder einzelne kann nicht nur kreativ, sondern auch innovativ sein (Ideen umsetzen) und seine Innovationen anderen (auch kostenlos) zur Verfügung stellen.

Sie meinen das gibt es nicht? Dann schauen Sie sich einmal die vielen Plattformen zu Open Source Software, oder die Plattform Patient Innovation an – Sie werden staunen.

Wenn Sie sich zu diesen Themen informieren wollen: Die MCP Community of Europe trifft sich auf der Konferenz zu Mass Customization and Personalization – MCP 2026 – vom 16.-19.09.2026 in Balatonfüred, Ungarn. Wir sind dabei.