CAIRNE: Non-Profit Organisation mit einer europäischen Perspektive auf Künstliche Intelligenz

Screenshot von der Website https://cairne.eu/

Die viele Informationen zu Künstlicher Intelligenz (KI, AI: Artificial Intelligence) sollen in den meisten Fällen eine bestimmte Blickrichtung auf das Thema herausstellen. In dem Blogbeitrag Digitale Souveränität: Europa, USA und China im Vergleich werden beispielsweise die drei großen Perspektiven auf die digitale Souveränität dargestellt.

In Europa scheint es einen – im Vergleich zu den USA und China – etwas anderen Ansatz zu geben, der einerseits die Rechte einzelner Bürger und auch von Organisationen berücksichtigt, und nicht so sehr technologiezentriert, sondern human-centred ist. Die europäische Non-Profit Organisationen CAIRNE (Confederation of Laboratories for Artificial Intelligence Research in Europe) möchte mit ihrer Arbeit folgende Punkte erreichen:

> “bring widespread and significant benefits to citizens, industry and society, in the form of alignment with shared values and of the global competitiveness of our economies;
> make major contributions to solving the grand challenges of our time, notably climate change, health and inequality;
> bring into existence AI systems that satisfy the seven trustworthiness criteria defined by the European Union;
> bring critical technology and infrastructure under European democratic control”
CAIRNE and euROBOTICS (2023): Moonshot in Artificial Intelligence: Trustworthy, Multicultural Generative AI Systems for Safe Physical Interaction with the Real World | PDF.

Den oben erwähnten Human-Centered-Ansatz wird nicht nur in Europa immer stärker favorisiert. Auch Japan hat in seiner Vision Society 5.0 auf diesen Schwerpunkt bei der Entwicklung von KI-Systemen hingewiesen:

“By comparison, Society 5.0 is A human-centered society that balances economic advancement with the resolution of social problems by a system that highly integrates cyberspace and physical space” (Japan Cabinet Office, 2016, zitiert in Nielsen & Brix 2023).

Ist die Verwendung von Persona das Gegenteil von Mass Customization?

Gerade im Agilen Projektmanagement werden Anforderungen häufig für Persona formuliert. Diese sind nach dem IREB (International Requirements Engineering Board) fiktive Charaktere, mit deren Hilfe Werte für die User geschaffen werden sollen. Dieses Vorgehen erinnert an eine Art Segmentierung aus dem traditionellen Marketing.

Mass Customization auf der anderen Seite ist eine hybride Wettbewerbsstrategie, die individuelle Produkte und Dienstleistungen für jeden Abnehmer – also massenhaft – anbietet, bei Preisen, die denen der massenhaft produzierten Standardprodukten ähneln. Dabei ist der Konfigurator ein wichtiges Element, das passende Produkt in einem Fixed Solution Space (Definierter Lösungsraum) zu erstellen. Die dahinterliegende Idee eines “Market of One” passt nicht so recht mit der Persona-Idee zusammen. Dazu habe ich folgendes gefunden:

“In many ways, a persona is the opposite of mass customization. It’s more traditional marketing thinking about how to deal with a larger number of segments. A “persona of one” is turning the persona idea to its opposite” Piller, Frank T. and Euchner, James, Mass Customization in the Age of AI (June 07, 2024). Research-Technology Management, volume 67, issue 4, 2024 [10.1080/08956308.2024.2350919], Available at SSRN: https://ssrn.com/abstract=4887846.

In Zeiten von Künstlicher Intelligenz wird es immer mehr Möglichkeiten geben, Produkte und Dienstleistungen massenhaft zu individualisieren und zu personalisieren. Ob die Verwendung von Persona in solchen eher agil durchzuführenden Projekten dann noch angemessen ist, scheint fraglich zu sein. Siehe dazu auch 

Society 5.0 und Mass Customization

Freund, R. (2009): Kundenindividuelle Massenproduktion (Mass Customization). RKW Kompetenzzentrum, Faktenblatt 5/2009.

Wir sind dabei: 20 Jahre MCP-CE vom 24.-27.09.2024

LocalAI: KI-Modelle und eigene Daten kombinieren

NEXTCLOUD ASSISTENT – Eigener Screenshot

Wenn Sie die bekannten Trainingsmodelle (LLM: Large Language Modells) bei ChatGPT (OpenAI), Gemini (Google) usw. nutzen, werden Sie sich irgendwann als Privatperson, oder auch als Organisation Fragen, was mit ihren eingegebenen Texten (Prompts) oder auch Dateien, Datenbanken usw. bei der Verarbeitung Ihrer Anfragen und Aufgaben passiert.

Antwort: Das weiß keiner so genau, da die KI-Modelle nicht offen und transparent sind.

Ein wirklich offenes und transparentes KI-Modell orientiert sich an den Vorgaben für solche Modelle, die in der Zwischenzeit veröffentlicht wurden. Siehe dazu beispielsweise Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Um die eigene Souveränität über unsere Daten zu erlangen, haben wir seit einiger Zeit angefangen, uns Stück für Stück von kommerziellen Anwendungen zu lösen. Angefangen haben wir mit NEXTCLOUD, das auf unserem eigenen Server läuft. NEXTCLOUD Hub 9 bietet die Möglichkeiten, die wir alle von Microsoft kennen.

Dazu kommt in der Zwischenzeit auch ein NEXTCLOUD-Assistent, mit dem wir auch KI-Modelle nutzen können, die auf unserem Serverlaufen. Dieses Konzept einer LOCALAI – also einer lokal angewendeten KI – ist deshalb sehr interessant, da wir nicht nur große LLM hinterlegen, sondern auch fast beliebig viele spezialisierte kleinere Trainingsmodelle (SML: Small Language Models) nutzen können. Siehe dazu Free Open Source Software (FOSS): Eigene LocalAI-Instanz mit ersten drei Modellen eingerichtet.

In dem Blogbeitrag LocalAI (Free Open Source Software): Chat mit KI über den Nextcloud-Assistenten haben wir dargestellt, wie im NEXTCLOUD Assistenten mit einer lokalen KI gearbeitet werden kann.

Wie in der Abbildung zu sehen, können wir mit dem NEXTCLOUD Assistenten auch Funktionen nutzen, und auch eigene Dateien hochladen. Dabei werden die Dateien auch mit Hilfe von dem jeweils lokal verknüpften lokalen KI-Modell bearbeitet. Alle Daten bleiben dabei auf unserem Server – ein unschätzbarer Vorteil.

Die Kombination von LOCALAI mit eigenen Daten auf dem eigenen Server macht dieses Konzept gerade für Kleine und Mittlere Unternehmen (KMU) interessant.

Locale KI-Anwendung: Erster Test mit dem Modell LLama 3.3 70B

Eigener Screenshot

Wie Sie wissen, haben wir auf unserem Server die Möglichkeit eingerichtet, KI-Modelle lokal auszuwählen und zu testen, bzw. zu nutzen – LokalKI oder LocalAI. Siehe dazu Free Open Source Software (FOSS): Eigene LocalAI-Instanz mit ersten drei Modellen eingerichtet.

Die verschiedenen Modelle können dazu vorab ausgewählt werden. Für diesen Test habe ich Llama 3.3 70B ausgewählt, was in der Abbildung zu erkennen ist. LLama 3.3 ist ein nur textbasiertes Modell, das den Vorteil hat, deutlich weniger Rechenaufwand zu benötigen, als z.B. LLama 3.1 405B.

Die Eingabetext wird unten in dem dunkelgrau hinterlegten Feld eingetragen und erscheint dann in dem blau hinterlegten Feld.

Eingabe: Welche Prozessschritte gehören zu einem Innovationsprozess?

Das Ergebnis (Grün hinterlegt) kann sich für den ersten kleinen Test sehen lassen. Die Prozessschritte sind genannt und erläutert.

Die Antwortzeit war relativ kurz, was bei der Modellgröße von 70B durchaus überrascht. Immerhin haben wir keine besondere Rechenleistung installiert.

Der Vorteil ist auch hier: Alle Daten der KI-Anwendung bleiben auf unserem Server .

LocalAI: Aktuell können wir aus 713 Modellen auswählen

Eigener Screenshot

Künstliche Intelligenz (KI) wirkt schon heute – und in Zukunft noch viel mehr – in alle Bereiche der Gesellschaft. Die Frage ist allerdings, wie Künstliche Intelligenz (AI: Artificial Intelligence) genutzt wird.

Ein Weg ist dabei, sich von den Vorgaben der eher geschlossenen KI-Systeme treiben zu lassen. Das hat durchaus Vorteile, allerdings auch Nachteile. Siehe dazu ausführlicher Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Wir versuchen daher einen alternativen Weg aufzuzeigen, und auch umzusetzen. Dabei setzen wir auf die lokale Verarbeitung der Daten und auf die Nutzung von Open Source AI.

Dazu haben wir LocalAI (LokalKI) auf unserem Server installiert. Wie der Abbildung zu entnehmen ist, stehen uns aktuell 713 frei verfügbare Modelle zur Verfügung, die unterschiedlich genutzt werden können:

Zunächst ist es möglich, einzelne Modelle auszuwählen und mit Eingaben (Texte) zu testen. Dabei können Sie schon erkennen, welche Modelle für welche Anwendungen geeignet sind. Denn: Es wird in Zukunft immer mehr darauf ankommen, die geeigneten (kleineren) Modelle für die jeweiligen Prozessschritte im Unternehmen, oder privat zu nutzen.

Weiterhin können wir jedes der Modelle auch in NEXTCLOD über den NEXTCLOUD-ASSISTENTEN und der Funktion CHAT MIT KI nutzen. Siehe dazu LocalAI (Free Open Source Software): Chat mit KI über den Nextcloud-Assistenten.

Der Vorteil liegt auf der Hand: Mit LocalAI bleiben alle Daten auf unserem Server. Ein nicht zu unterschätzender Punkt – heute, und viel stärker noch in Zukunft.

Free Open Source Software (FOSS): Eigene LocalAI-Instanz mit ersten drei Modellen eingerichtet

Quelle: Eigener Screenshot

In verschiedenen Blogbeiträgen hatte ich darauf hingewiesen, dass es für Organisationen in Zukunft immer wichtiger wird, die digitale Abhängigkeiten von kommerziellen IT-/AI-Anbietern zu reduzieren – auch bei der Anwendung von Künstlicher Intelligenz (AI: Artificial Intelligence), da die Trainingsdatenbanken der verschiedenen Anbieter

(1) nicht transparent sind,
(2) es zu Urheberrechtsverletzungen kommen kann,
(3) und nicht klar ist, was mit den eigenen eingegeben Daten, z.B. über Prompts oder hochgeladenen Dateien, passiert.

Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich. Nicht zuletzt werden die Kosten für die KI-Nutzung immer höher – beispielsweise bei Microsoft und der Nutzung des KI-Assistenten Copilot: KI treibt Microsoft-365-Preise in die Höhe (golem vom 17.01.2025).

Es ist natürlich leicht, darüber zu schreiben und die Dinge anzuprangern, schwieriger ist es, Lösungen aufzuzeigen, die die oben genannten Punkte (1-3) umgehen. Zunächst einmal ist die Basis von einer Lösung Free Open Source Software (FOSS). Eine FOSS-Alternative zu OpenAI, Claude usw. haben wir auf einem Server installiert und die ersten drei Modelle installiert. Was bedeutet das?

Wenn wir in einem Chat einen Prompt (Text, Datei..) eingeben, greift das System auf das ausgewählte Modell (LLM: Large Language Model) zu, wobei die Daten (Eingabe, Verarbeitung, Ausgabe) alle auf unserem Server bleiben.

Wie in der Abbildung zu sehen ist, haben wir neben Llama 3.2 auch Teuken 7B hinterlegt. Gerade Teuken 7B basiert auf einem europäischen Ansatz für eine Trainingsdatenbank (LLM) in 24 Sprachen der Europäischen Union. Siehe dazu Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Wir werden diese Modelle in der nächsten Zeit testen und unsere Erkenntnisse in Blogbeiträgen darstellen.

Buyl et al. (2024): Large Language Models Reflect the Ideology of their Creators

In dem Blogbeitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich gemacht, dass Europa, die USA und China unterschiedliche Ansätze bei dem Thema Digitale Souveränität haben. Diese grundsätzlichen Unterschiede zeigen sich auch in den vielen Large Language Models (Trainingsdatenbanken), die für KI-Anwendungen benötigt werden.

Es wundert daher nicht, dass in dem Paper Buyl et al. (2024): Large Language Models Reflect The Ideology of their Creators folgende Punkte hervorgehoben werden:

“The ideology of an LLM varies with the prompting language.”

In dem Paper geht es um die beiden Sprachen Englisch und Chinesisch für Prompts, bei denen sich bei den Ergebnissen Unterschiede gezeigt haben.

“An LLM’s ideology aligns with the region where it was created.”

Die Region spielt für die LLMs eine wichtige Rolle. China und die USA dominieren hier den Markt.

“Ideologies also vary between western LLMs.”

Doch auch bei den “westlichen LLMs” zeigen sich Unterschiede, die natürlich jeweils Einfluss auf die Ergebnisse haben, und somit auch manipulativ sein können.

Die Studie zeigt wieder einmal, dass es für einzelne Personen, Gruppen, Organisationen oder auch Gesellschaften in Europa wichtig ist, LLMs zu nutzen, die die europäischen Sprachen unterstützen, und deren Trainingsdaten frei zur Verfügung stehen. Das gibt es nicht? Doch das gibt es – siehe dazu

Open Source AI: Nun gibt es endlich eine Definition – und damit interessante Erkenntnisse zu OpenAI und Co.

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht.

Open Source: Nextcloud-Assistent und Künstliche Intelligenz (KI).

Vom Mindmap zu einem KI-Agenten für Wissensmanagement?

 „Wissensmanagement-Mindmap“ von Martin Harnisch, Sonja Kaiser, Dirk Liesch, Florian Schmuhl, Gabriele Vollmar, Sabine Wax, lizenziert unter CC BY 4.0

In einer Arbeitsgruppe der Gesellschaft für Wissensmanagement e.V. (GfWM) wurde 2024 ein umfangreiches Mindmap zu Wissensmanagement erstellt. In der Abbildung ist die Quelle und die Lizenz zur Nutzung genannt.

“Die Wissensmanagement-Mindmap soll einen systematischen Überblick über die wesentlichen Handlungsfelder, Modelle, Methoden und Tools im Bereich des Wissensmanagements geben” (ebd.).

Die Mindmap ist auf der Website der GfWM in verschiedenen Dateiformaten zu finden, die mit Angabe der Quelle genutzt werden können.

Einerseits ist es gut, einen Überblick zu den vielfältigen Themenbereichen des Wissensmanagements zu erhalten. Andererseits weisen die Autoren berechtigt darauf hin, dass dieses Mindmap keinen Anspruch auf Vollständigkeit hat. Wenn da allerdings noch viele weitere “Äste” hinzukommen, wirkt das Mindmap weniger hilfreich und “erschlägt” möglicherweise den Interessenten.

Insofern frage ich mich, ob es nicht besser wäre einen Einstig zu wählen, der sich aus den jeweiligen Situationen, Kontexten, Domänen ergibt. Solche “Ankerpunkte” konkretisieren den Umgang mit Wissen, und führen in einem Bottom-Up-Ansatz zur Entdeckung der vielfältigen Möglichkeiten des Wissensmanagements – speziell abgestimmt auf die einzelne Person, die Gruppe, die Organisation und/oder das Netzwerk.

Umgesetzt werden kann das heute mit KI- Agenten (AI Agents).

IPMA: Initial AI Survey 2024 Report

Initial AI Survey 2024 Report | Authors: Aco Momcilovic Dr. Reinhard Wagner & Dr. Rebeka D. Vlahov | Download the report here.

Es ist unausweichlich, dass sich die bekannten Projektmanagement-Standards des PMI (Project Management Institutes), PRINCE2 und auch IPMA (International Project Management Association) mit Künstlicher Intelligenz im Projektmanagement befassen. Die Gesellschaft für Projektmanagement e.V. orientiert sich an dem IPMA Standard, sodass die aktuelle IPMA-Veröffentlichung zum Thema interessant erscheint: Momcilovic, A.; Wagner, R.; Vlahov, R. D. (2024): Initial AI Survey 2024 Report | PDF. Darin sind die folgenden wichtigsten Erkenntnisse zusammengefasst:

(1) High Interest in AI Tools: Project managers are particularly interested in AI applications for risk management, task automation, and data analysis. These areas are seen as critical for improving project outcomes by reducing uncertainty, streamlining operations, and providing data-driven insights.

(2) Varying Levels of AI Knowledge: While there is significant enthusiasm for AI, there is also a clear knowledge gap. Many project managers feel they lack the understanding and skills needed to fully utilize AI in their work, which remains a major barrier to adoption.

(3) Barriers to Adoption: Key challenges include concerns about data privacy, the cost of AI tools, and uncertainty regarding the return on investment (ROI). Additionally, lack of leadership support and a general resistance to change were cited as obstacles to broader AI integration.

(4) Future Adoption: Despite these barriers, the survey shows an optimistic outlook on AI adoption. A majority of respondents indicated that they are likely to adopt AI tools within the next two years, provided they have access to adequate training, resources, and support

Diese Punkte sind nicht wirklich überraschend und bestätigen nur die generell zu beobachtbare Entwicklung der KI-Nutzung in Organisationen. Bemerkenswert finde ich, dass in dem Report auch hervorgehoben wird, dass ChatGPT und die bekannten KI-Assistenten genutzt werden. Generell halte ich das für bedenklich, da diese Anwendungen mit ihren Trainingsdatenbanken (Large Language Models) intransparent sind, und die Organisation nicht wirklich weiß, was mit den eingegebenen Daten passiert. Auf die mögliche Nutzung von Open Source AI wird in dem IPMA-Report nicht eingegangen – schade.

    Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

    Menschliches Verhalten operiert mit einem speed limit von 10 bits/s. Was bedeutet das?

    Jede Sekunde prasseln auf uns eine Unmenge an Daten ein. Zheng und Meister (2024) vom California Institute of Technology haben in ihrem Paper The Unbearable Slowness of Being: Why do we live at 10 bits/s? (PDF) dazu analysiert, dass der gesamte menschliche Körper eine Datenmenge von 109 bits/s absorbieren kann. Die Autoren nennen das “outer brain“.

    Dabei stellt sich natürlich gleich die Frage, ob ein Mensch diese Menge auch zeitgleich verarbeiten kann. Die Antwort: Das ist nicht der Fall. Um existieren/leben zu können, müssen wir viele der äußeren Reize / Daten ausblenden. Doch wie viele Daten benötigen wir Menschen bei unserem Verhalten (“inner brain“, ebd.) pro Sekunde? Auch hier geben die Autoren eine deutliche Antwort:

    “Human behaviors, including motor function, perception, and cognition, operate at a speed limit of 10 bits/s. At the same time, single neurons can transmit information at that same rate or faster. Furthermore, some portions of our brain, such as the peripheral sensory regions, clearly process information dramatically faster” (Zheng und Meister 2024).

    Die Evolution hat gezeigt, dass es für den Menschen von Vorteil ist, gegenüber der absorbierbaren Datenflut (outer brain) ein innerliches Regulativ (inner brain) zu haben. Wir haben in der Vergangenheit auch unsere gesamte Infrastruktur (Straßen, Brücken usw.) auf die 10 bits/s ausgerichtet. Was ist, wenn wir die Infrastruktur auf die neuen technologischen Möglichkeiten ausrichten? Ist der Mensch dann darin eher ein Störfaktor?

    Meines Erachtens sollten wir nicht immer versuchen, den Menschen an die neuen technologischen Möglichkeiten anzupassen, sondern die technologischen Möglichkeiten stärker an die menschlichen (inkl. Umwelt) Erfordernisse adaptieren. Aktuell geht die weltweite Entwicklung immer noch zu stark von der Technologie und den damit verbundenen “Märkten” aus. Eine mögliche Alternative sehe ich in der von Japan vor Jahren schon propagierten Society 5.0.