Screenshot von unserer Nextcloud: Beispielseite einer Zusammenarbeit über die Collective App
Die Collective App haben wir in unserer Nextcloud (Open Source) aktiviert. Dabei wird das entsprechende Symbol im oberen Bereich angezeigt. Das Aktivieren oder auch Deaktivieren von Apps je nach Bedarf, ist ein sehr komfortable uns einfache Möglichkeit, mit Nextcloud zu arbeiten.
In der Abbildung ist beispielhaft ein Ausschnitt aus einem Arbeitsbereich in der Collective App zu sehen, den ich für das Thema Agentic AI Company angelegt habe. Die Navigation ist klassisch auf der linken Seite zu finden. Die Inhalte werden dann je Seite angezeigt (hier für Kapitel 2.1) und können dann von allen bearbeitet werden, die ich dem Bereich zugeordnet habe, und die entsprechende Berechtigung haben.
In dem Kapitel 2.1 thematisiere ich beispielsweise die Vorteile und Nachteile von einer Cloud AI im Vergleich zu einer LocalAI. Hier sammeln wir gemeinsam Informationen, Dateien, Links, Quellen usw.. Das können externe Inhalte sein, oder auch direkt Inhalte, die in unserer Nextcloud gespeichert sind Alle Änderungen werden dokumentiert und können nachverfolgt werden. Weiterhin können wir überall den Nextcloud Assistenten aufrufen und nutzen.
Der Vorteil: Alle Dateien und alle Transaktionen bleiben alle auf unseren Servern. Das ist für uns ein wichtiges Kriterium auf dem Weg zu einer (wirklichen) Digitalen Souveränität.
Um digital souveräner zu werden, haben wir seit einiger Zeit Nextcloud auf einem eigenen Server installiert – aktuell in der Version 32. Das ist natürlich erst der erste Schritt, auf den nun weitere folgen – gerade wenn es um Künstliche Intelligenz geht.
Damit wir auch bei der Nutzung von Künstlicher Intelligenz digital souverän bleiben, haben wir zusätzlichLocalAIinstalliert. Dort ist es möglich, eine Vielzahl von Modellen zu testen und auszuwählen. In der folgenden Abbildung ist zu sehen, dass wir das KI-Modell llama-3.2-3B-instruct:q4_k_m für einen Chat ausgewählt haben. In der Zeile “Send a massage” wurde der Prompt “Nenne wichtige Schritte im Innovationsprozess” eingegeben. Der Text wird anschließend blau hinterlegt angezeigt. In dem grünen Feld ist ein Teil der Antwort des KI-Modells zu sehen.
LocalAI auf unserem Server: Ein Modell für den Chat ausgewählt
Im nächsten Schritt geht es darum, das gleiche KI-Modell im Nextcloud Assistant zu hinterlegen. Der folgende Screenshot zeigt das Feld (rot hervorgehoben). An dieser Stelle werden alle in unserer LocalAI hinterlegten Modelle zur Auswahl angezeigt, sodass wir durchaus variieren könnten. Ähnliche Einstellungen gibt es auch für andere Funktionen des Nextcloud Assistant.
Screenshot: Auswahl des Modells für den Nextcloud Assistenten in unserer Nextcloud – auf unserem Server
Abschließend wollen wir natürlich auch zeigen, wie die Nutzung des hinterlegten KI-Modells in dem schon angesprochenen Nextcloud Assistant aussieht. Die folgende Abbildung zeigt den Nextcloud Assistant in unserer Nextcloud mit seinen verschiedenen Möglichkeiten – eine davon ist Chat mit KI. Hier haben wir den gleichen Prompt eingegeben, den wir schon beim Test auf LocalAI verwendet hatten (Siehe oben).
Screenshot von dem Nextcloud Assistant mit der Funktion Chat mit KI und der Antwort auf den eigegebenen Prompt
Der Prompt ist auf der linken Seite zu erkennen, die Antwort des KI-Modells (llama-3.2-3B-instruct:q4_k_m) ist rechts daneben wieder auszugsweise zu sehen. Weitere “Unterhaltungen” können erstellt und bearbeitet werden.
Das Zusammenspiel der einzelnen Komponenten funktioniert gut. Obwohl wir noch keine speziellen KI-Server hinterlegt haben, sind die Antwortzeiten akzeptabel. Unser Ziel ist es, mit wenig Aufwand KI-Leistungen in Nextcloud zu integrieren. Dabei spielen auch kleine, spezielle KI-Modelle eine Rolle, die wenig Rechenkapazität benötigen.
Alles natürlich Open Source, wobei alle Daten auf unseren Servern bleiben.
Wir werden nun immer mehr kleine, mittlere und große KI-Modelle und Funktionen im Nextcloud Assistant testen. Es wird spanned sein zu sehen, wie dynamisch diese Entwicklungen von der Open Source Community weiterentwickelt werden.