Eigener Screenshot von unserer Nextcloud mit der App “Collective”
Unsere Nextcloud (Open Source) ist ein zentrales Element auf dem Weg zur Digitalen Souveränität. Dazu gehören nicht nur Möglichkeiten, LocalAI oder auch KI-Agenten zu nutzen, sondern auch Anwendungen (Apps), die wir im Tagesgeschäft benötigen.
Zum Beispiel haben wir die App Collective installiert und aktiviert. In der Abbildung ist ein Screenshot von einer angelegten Startseite zum Thema “Agentic AI Company” zu sehen.
Zu diesem Bereich kann ich nun verschiedene Teilnehmer zuordnen/einladen. Dabei können alle die jeweiligen Seiten wie in einem Wiki kollaborativ bearbeiten. Diese Möglichkeit geht über die reine Bereitstellung eines gemeinsamen Ordners hinaus und unterstützt die gemeinsame Entwicklung von (expliziten) Wissen.
Wichtig dabei ist, dass alle Daten, die hier gemeinsam geteilt und bearbeitet werden, auf unserem Server bleiben.
Natürlich können auch andere Wiki-Apps (Open Source) in die Nextcloud eingebunden werden. Jeder kann somit seine Nextcloud so konfigurieren, wie er möchte.
Wenn aber der erste Schritt zur Nutzung von Künstlicher Intelligenz Vertrauen sein sollte (Thomas et al. 2025), sollte man sich als Privatperson, als Organisation, bzw. als Verwaltung nach Alternativen umsehen.
Wie Sie als Leser unseres Blogs wissen, tendieren wir zu (wirklichen) Open Source AI Modellen, doch in dem Buch von Thomas et al. (2025) ist mir auch der Hinweis auf das von IBM veröffentlichte KI-Modell Granite aufgefallen. Die quelloffene Modell-Familie kann über Hugging Face, Watsonx.ai oder auch Ollama genutzt werden.
Das hat mich neugierig gemacht, da wir ja in unserer LocalAI Modelle dieser Art einbinden und testen können. Weiterhin haben wir ja auch Ollama auf unserem Server installiert, um mit Langflow KI-Agenten zu erstellen und zu testen.
Im Fokus der Granite-Modellreihe stehen Unternehmensanwendungen, wobei die kompakte Struktur der Granite-Modelle zu einer erhöhten Effizienz beitragen soll. Unternehmen können das jeweilige Modell auch anpassen, da alles über eine Apache 2.0-Lizenz zur Verfügung gestellt wird.
Wie Sie der Abbildung entnehmen können, haben wir Granite 3.0 -1b-a400m in unsere lokale KI (LocalAI) eingebunden. Das geht relativ einfach: Wir wählen aus den aktuell mehr als 1.000 Modellen das gewünschte Modell zunächst aus. Anschließend brauchen wir nur auf “Installieren” zu klicken, und das Modell steht in der Auswahl “Select a model” zur Verfügung.
Im unteren Fenster (Send a message) habe ich testweise “Stakeholder for the project Website” eingegeben. Dieser Text erscheint dann blau hinterlegt, und nach einer kurzen Zeit kommen dann schon die Ergebnisse, die in der Abbildung grün hinterlegt sind. Wie Sie am Balken am rechten Rand der Grafik sehen können, gibt es noch mehrere Stakeholder, die man sieht, wenn man nach unten scrollt.
Ich bin zwar gegenüber Granite etwas skeptisch, da es von IBM propagiert wird, und möglicherweise eher zu den Open Weighted Models zählt, doch scheint es interessant zu sein, wie sich Granite im Vergleich zu anderen Modellen auf unserer LocalAI-Installation schlägt.
Bei allen Tests, die wir mit den hinterlegten Modellen durchführen, bleiben die generierten Daten alle auf unserem Server.
Wenn man also in Nextcloud eine Datei öffnen möchte, hat man die Optionen “Neue Tabelle” (wie Excel), “Neue Textdatei” (wie Word), “Neue Präsentation” (wie Power Point), “Neues Diagramm” und eben ein “Neues Whiteboard” zu erstellen. Es ist praktisch, dass diese Möglichkeit direkt integriert ist.
Das Whiteboard selbst basiert auf dem von mir schon 2022 vorgestellten tldraw, das mir damals schon wegen seiner Einfachheit und Kompaktheit gefallen hat. Jetzt ist es also in Nextcloud eingebunden worden. Es gibt zu dem Whiteboard eine Bibliothek, in der man alle selbst erstellten Vorlagen hinterlegen, oder auch im Netz verfügbare Vorlagen einbinden kann. Natürlich gibt es nicht so viele frei verfügbare Vorlagen wie bei Miro oder Mural, doch hat das in Nextcloud integrierte Whiteboard die Vorteile, dass es in einer umfangreichen Kollaborationsplattform integriert und Open Source basiert ist, und alle Daten auf dem eigenen Server laufen.
Es gibt neben den von anderen Whiteboards bekannten Funktionen, in der Zwischenzeit auch einen Botton, um den Nextcloud KI-Assistenten mit in das Whiteboard einzubinden. In der Abbildung habe ich den Botton rot hervorgehoben.
Das in dem Assistenten hinterlegte KI-Modell können wir selbst festlegen, da wir die Modelle in unserer LocalAI vorliegen haben. Somit laufen alle Anwendungen auf unseren Servern und alle Daten bleiben auch bei uns. Ganz im Sinne der Reduzierung der oftmals noch vorherrschenden Digitalen Abhängigkeit von den den etablierten Anwendungen meist amerikanischer Tech-Konzerne.
Weg von der Digitalen Abhängigkeit und hin zu einer Digitalen Souveränität.
Der nächste Schritt wäre, beliebig viele KI-Modelle in einem Framework zu entwickeln und zu koordinieren. Die PlattformLangChain bietet so eine professionelle, und somit auch anspruchswolle Möglichkeit.
“LangChain is an incredibly valuable tool for linking up chains of models and defining steps for how an output from a model should be handled before being sent to a different model (or often, the same model with a different prompt) for a new step in a workflow” (Thomas et al. 2025).
Wenn es etwas einfacher sein soll, bietet sich LangFlow an, bei dem mit einfachen Mitteln per Drag & Drop KI-Agenten in Zusammenspiel mit verschiedenen Modellen konfiguriert werden können.
Wir haben LangFlow auf unserem Server installiert (Open Source) und können nun KI-Agenten für verschiedene Anwendungen entwickeln und testen. Die Abbildung zeigt einen Screenshot der Startseite, wenn man einen einfachen Agenten entwickeln möchte. Auf der linken Seite können sehr viele Optionen ausgewählt werden, in dem grau hinterlegten Bereich werden diese dann per Drag & Drop zusammengestellt. Die farbigen Verbindungslinien zeigen, welche Optionen miteinander kombiniert werden können. Abschließend kann im anwählbaren Playground das Ergebnis beurteilt werden.
Dabei bietet LangfFlow auch die Möglichkeit, eigene Daten, oder auch externe Datenquellen einzubinden – alles per Drag & Drop. Weiterhin haben wir den Vorteil, dass alle generierten Daten auf unserem Server bleiben.
Eigener Screenshot: Videokonferenz mit Nextcloud Talk auf unserem Server
Heute hatte ich eine Videokonferenz mit Kollegen aus verschiedenen Ländern. Dabei haben wir statt Zoom oder MS Teams bewusst Nextcloud Talk genutzt, das Bestandteil der Nextcloud-Installation auf unseren Servern ist. Nextcloud ist Open Source und führt zu einer Digitalen Souveränität – auch bei Videokonferenzen. Die Daten bleiben dabei alle auf unseren Servern.
Inhaltlich ging es bei der Videokonferenz um die nächste MCP-Konferenz, die im September 2026 stattfinden soll – die Vorfreude ist bei mir schon jetzt vorhanden. Siehe dazu auch die Konferenz-Website oder unsere Übersichtsseite zu Konferenzen.
Die Abbildung zeigt einen Screenshot zu dem Zeitpunkt, an dem ich eine Videokonferenz (Anruf) in Nextcloud Talk gestartet habe. Den Link zu dem Raum habe ich dann an die Teilnehmer gesandt, die keine weitere Installationen benötigen, um teilzunehmen. Natürlich können auch Videokonferenzen terminiert, und dazu eingeladen werden. Wie dem Screenshot zu entnehmen ist, sind die aus anderen Videokonferenz-Tools bekannten Aktivitäten integriert – ich möchte diese daher hier nicht mehr ausführlich erläutern.
Nextcloud Talk ist dabei in eine komplette Kollaborationsplattform (inkl. Open Project, Deck als Board, Cloud als Datenspeicher, kollaboratives Arbeiten an Dateien, Whiteboard usw. usw.) integriert, die einen souveränen Arbeitsplatz unterstützt – alles Open Source, und die Daten bleiben auf dem eigenen Server.
Darüber hinaus haben wir auch LocalAI integriert, und die Möglichkeit geschaffen, KI-Agenten zu entwickeln und zu nutzen – alles Open Source, alle Daten bleiben auf unseren Servern.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
Es wird von Tag zu Tag deutlicher: Mit der zunehmenden Verbreitung von Künstlicher Intelligenz (AI: Artificial Intelligence) kommen die zentralen, großen KI-Modelle (Large Language Models) mit ihrem Mangel an Transparenz und ihrem “laxen” Umgang mit dem Urheberrecht oder auch mit dem Datenschutz, an Grenzen.
Einzelne Personen, Organisationen und auch Öffentliche Verwaltungen halten ihre Daten entsprechend zurück, wodurch Kooperation, Kollaboration und letztendlich auch Innovation behindert wird. Der Trend von den LLM (Large Language Models), zu Small Language Models (SLM), zu KI-Agenten, zusammen mit dem Wunsch vieler auch die eigenen Daten – und damit die eigene Expertise – für KI-Anwendungen zu nutzen, führt zu immer individuelleren, customized, personalized Modellen und letztendlich zu Personalized AI-Agents.
“Personal agents: Recent progress in foundation models is enabling personalized AI agents (assistants, co-pilots, etc.). These agents require secure access to private user data, and a comprehensive understanding of preferences. Scaling such a system to population levels requires orchestrating billions of agents. A decentralized framework is needed to achieve this without creating a surveillance state” (Singh et al. 2024).
Forscher am Massachusetts Institute of Technology (MIT) haben diese Entwicklungen systematisch analysiert und sind zu dem Schluss gekommen, dass es erforderlich ist, Künstliche Intelligenz zu dezentralisieren: Decentralized AI.
Mein Wunsch wäre es in dem Zusammenhang, dass alle Anwendungen (Apps, Tools etc.) einzelnen Personen und Organisationen als Open Source zur Verfügung stehen, ganz im Sinne von Mass Personalization – nur dass Mass Personalization für KI-Agenten nicht von Unternehmen ausgeht und auf den Konsumenten ausgerichtet ist! Das hätte eine sehr starke Dynamik von Innovationen zur Folge, die Bottom Up erfolgen und die Bedürfnisse der Menschen stärker berücksichtigen.
Wir alle nutzen mehr oder weniger intensiv Open Source Anwendungen. Gerade in der Diskussion um die Digitale Souveränität in Europa kommt dem Thema allerdings eine besondere Bedeutung zu – es geht um mehr Unabhängigkeit und dadurch um mehr Eigenverantwortung für Daten. Darüber hinaus gibt es auch eine dynamische Entwicklung bei der Kommerzialisierung von Open Source Anwendungen (COSS: Commercial Open Source Software). In dem aktuell vorliegenden Report
Sam Boysel, Linux Foundation; Matthiueu Lavergne, Serena; Matt Trifiro, Commercial Open Source Startup Alliance (COSSA) (2025): The State of Commercial. Open Source 2025. The Data-Backed Financial Case from 25 Years of Commercial Open Source | PDF
geht es darum aufzuzeigen, wie sich Commercial Open Source Software (COSS) auch bei wichtigen finanziellen Kennzahlen schlägt. Die Ergebnisse sind erstaunlich:
“This report sets out to settle that debate with data. Drawing from 25 years of venture capital activity and a matched dataset of over 800 VC-backed COSS startups, we benchmark the funding trajectories and liquidity outcomes of open source companies against their closed-source peers. The results are conclusive: not only is COSS financially viable, it consistently outperforms on key venture metrics especially in infrastructure software” (ebd.).
In der Zwischenzeit geht es in der Diskussion zu KI auch immer stärker um die Frage, wie KI Agenten im Projektmanagement genutzt werden können. Dazu gibt es den Beitrag KI-Agenten im Projektmanagement: So unterstützen digitale Rollen den Projektalltag von Jörg Meier, vom 15.07.2025 im GPM Blog. Darin werden erste gute Hinweise gegeben. Dennoch:
Ich hätte mir hier gewünscht, dass der Author auch auf die Problematik der Nutzung von Closed Sourced Modellen wie ChatGPT oder Gemini hinweist. Ausgewählte KI Modelle sollten möglichst “wirklich” Open Source AI (Definition aus 2024) sein. Es wäre m.E. auch die Aufgabe der GPM die Digitale Souveränität insgesamt stärker bewusst zu machen. Siehe dazu beispielsweise auch Digitale Souveränität: Souveränitätsscore für KI Systeme.
Mit KI Agenten (AI Agents) ist es möglich, in der Geschäftswelt vielfältige Prozesse zu optimieren, oder innovative Prozesse, Produkte und Dienstleistungen zu generieren, die bisher aus den verschiedensten Gründen nicht möglich waren. Dazu zählen oftmals nicht verfügbare Daten und die dazugehörenden Kosten.
Denken wir etwas weiter, so müssen in Zukunft auch immer stärker KI-Agenten miteinander kommunizieren, also von Agent zu Agent – A2A. Passiert das zwischen sehr vielen Agenten eines Wirtschaftssystems, bzw. einer ganzen Gesellschaft, entsteht so etwas wie eine Agentic Society.
Das Projekt NANDA hat sich in dem Zusammenhang das Ziel gesetzt, diese Entwicklung mit einem Open Agentic Web zu unterstützen:
“Imagine billions of specialized AI agents collaborating across a decentralized architecture. Each performs discrete functions while communicating seamlessly, navigating autonomously, socializing, learning, earning and transacting on our behalf” (Source).
Das vom MIT initiierte Projekt NANDA arbeitet in Europa u.a. mit der TU München und der ETH Zürich zusammen. Das Ziel ist, alles Open Source basiert zur Verfügung zu stellen..
Ich bin an dieser Stelle immer etwas vorsichtig, da beispielsweise OpenAI auch beim Start das Ziel hatte, KI als Open Source zur Verfügung zu stellen. In der Zwischenzeit wissen wir, dass OpenAI ein Closed Source Model, bzw. ein Open Weights Model ist, und kein Open Source Model. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.
In dem Blogbeitrag Digitale Souveränität: Europa, USA und China im Vergleich hatte ich schon einmal darauf hingewiesen, wie unterschiedlich die Ansätze zur Digitalen Souveränität in verschiedenen Regionen der Welt sind. Die verschiedenen Dimensionen waren hier “Right-based”, “Market-based”, “State-based” und “Centralization”, aus denen sich die gegensätzlichen Extreme “Hard Regulation” und “Soft Regulation” ergeben haben.
Der Digital Sovereignty Index Score (Abbildung) unterscheidet sich von dieser Betrachtungsweise. Im Unterschied zu der zu Beginn erwähnten Analyse, die eher die politische oder marktwirtschaftliche Perspektive hervorhebet, entsteht der Digital Sovereignty Index anders.
Hier wird analysiert, ob die wichtigsten 50 relevanten, selbst gehosteten Tools für digitale Kollaboration und Kommunikation verfügbar sind.
“We selected 50 of the most relevant self-hosted tools for digital collaboration and communication. These include platforms for file sharing, video conferencing, mail, notes, project management, and more.
We then measured their real-world usage by counting the number of identifiable server instances per country.
Die Digitale Souveränität wird in einem Score berechnet und für verschiedene Länder in einer anschaulichen Grafik dargestellt (Abbildung). Die Farben zeigen an, wie gut (grün) oder schlecht (rot) es in dem beschriebenen Sinn mit der Digitalen Souveränität in dem jeweiligen Land bestellt ist. Es ist gut zu erkennen, das die beiden Länder Finnland und Deutschland grün hervorgehoben sind.
Wie der Grafik weiterhin zu entnehmen ist, sind viele Länder, u.a. China noch weiß dargestellt. Die Limitierung der Analyse ist den Initiatoren des DSI Score durchaus bewusst, dennoch sehen sie diese Grafik als Startpunkt für eine bessere Übersicht zu dem Thema, zum dem jeder aufgefordert ist, mitzumachen.
Mich hat natürlich interessiert, wer hinter der Website steckt… – siehe da, es ist die Nextcloud GmbH mit dem Büro Stuttgart. Das wundert mich jetzt nicht wirklich, da Nextcloud schon immer auf die Digitale Souveränität bei Einzelpersonen, Organisationen und Öffentlichen Verwaltungen hingewiesen hat. Auch wir stellen nach und nach auf die Möglichkeiten von Nextcloud um, inkl. LocalAI und Open Source KI-Agenten. Siehe dazu auch