Open Source: Nextcloud-Assistent und Künstliche Intelligenz (KI)

Bei den verschiedenen kommerziellen Anwendungen ist es fast schon Standard, dass Assistenten eingeblendet und angewendet werden, um Künstliche Intelligenz in den jeweiligen Prozess oder Task zu nutzen. Dabei ist immer noch weitgehend unklar, welche Trainingsdaten bei den verschiedenen Trainingsdatenbanken (LLM: Large Language Models) genutzt werden, und was beispielsweise mit den jeweils eigenen Eingaben (Prompts) passiert. Nicht zuletzt werden sich die kommerziellen Anbieter die verschiedenen Angebote mittelfristig auch gut bezahlen lassen.

Es kann daher nützlich sein, Open Source AI zu nutzen.

Praktisch kann das mit NEXTCLOUD und dem darin enthaltenen Nextcloud-Assistenten umgesetzt werden. Jede Funktion (Abbildung) kann man mit einer Traingsdatenbank verbinden, die wirklich transparent und Open Source ist. Solche Trainingsdatenbanken stehen beispielsweise bei Hugging Face zur Verfügung. Darüber hinaus bleiben alle Daten auf dem eigenen Server – ein heute unschätzbarer Wert . Wir werden diesen Weg weitergehen und in Zukunft dazu noch verschiedene Blogbeiträge veröffentlichen. Siehe dazu auch

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.

Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht.

Vom Mindmap zu einem KI-Agenten für Wissensmanagement?

 „Wissensmanagement-Mindmap“ von Martin Harnisch, Sonja Kaiser, Dirk Liesch, Florian Schmuhl, Gabriele Vollmar, Sabine Wax, lizenziert unter CC BY 4.0

In einer Arbeitsgruppe der Gesellschaft für Wissensmanagement e.V. (GfWM) wurde 2024 ein umfangreiches Mindmap zu Wissensmanagement erstellt. In der Abbildung ist die Quelle und die Lizenz zur Nutzung genannt.

“Die Wissensmanagement-Mindmap soll einen systematischen Überblick über die wesentlichen Handlungsfelder, Modelle, Methoden und Tools im Bereich des Wissensmanagements geben” (ebd.).

Die Mindmap ist auf der Website der GfWM in verschiedenen Dateiformaten zu finden, die mit Angabe der Quelle genutzt werden können.

Einerseits ist es gut, einen Überblick zu den vielfältigen Themenbereichen des Wissensmanagements zu erhalten. Andererseits weisen die Autoren berechtigt darauf hin, dass dieses Mindmap keinen Anspruch auf Vollständigkeit hat. Wenn da allerdings noch viele weitere “Äste” hinzukommen, wirkt das Mindmap weniger hilfreich und “erschlägt” möglicherweise den Interessenten.

Insofern frage ich mich, ob es nicht besser wäre einen Einstig zu wählen, der sich aus den jeweiligen Situationen, Kontexten, Domänen ergibt. Solche “Ankerpunkte” konkretisieren den Umgang mit Wissen, und führen in einem Bottom-Up-Ansatz zur Entdeckung der vielfältigen Möglichkeiten des Wissensmanagements – speziell abgestimmt auf die einzelne Person, die Gruppe, die Organisation und/oder das Netzwerk.

Umgesetzt werden kann das heute mit KI- Agenten (AI Agents).

IPMA: Initial AI Survey 2024 Report

Initial AI Survey 2024 Report | Authors: Aco Momcilovic Dr. Reinhard Wagner & Dr. Rebeka D. Vlahov | Download the report here.

Es ist unausweichlich, dass sich die bekannten Projektmanagement-Standards des PMI (Project Management Institutes), PRINCE2 und auch IPMA (International Project Management Association) mit Künstlicher Intelligenz im Projektmanagement befassen. Die Gesellschaft für Projektmanagement e.V. orientiert sich an dem IPMA Standard, sodass die aktuelle IPMA-Veröffentlichung zum Thema interessant erscheint: Momcilovic, A.; Wagner, R.; Vlahov, R. D. (2024): Initial AI Survey 2024 Report | PDF. Darin sind die folgenden wichtigsten Erkenntnisse zusammengefasst:

(1) High Interest in AI Tools: Project managers are particularly interested in AI applications for risk management, task automation, and data analysis. These areas are seen as critical for improving project outcomes by reducing uncertainty, streamlining operations, and providing data-driven insights.

(2) Varying Levels of AI Knowledge: While there is significant enthusiasm for AI, there is also a clear knowledge gap. Many project managers feel they lack the understanding and skills needed to fully utilize AI in their work, which remains a major barrier to adoption.

(3) Barriers to Adoption: Key challenges include concerns about data privacy, the cost of AI tools, and uncertainty regarding the return on investment (ROI). Additionally, lack of leadership support and a general resistance to change were cited as obstacles to broader AI integration.

(4) Future Adoption: Despite these barriers, the survey shows an optimistic outlook on AI adoption. A majority of respondents indicated that they are likely to adopt AI tools within the next two years, provided they have access to adequate training, resources, and support

Diese Punkte sind nicht wirklich überraschend und bestätigen nur die generell zu beobachtbare Entwicklung der KI-Nutzung in Organisationen. Bemerkenswert finde ich, dass in dem Report auch hervorgehoben wird, dass ChatGPT und die bekannten KI-Assistenten genutzt werden. Generell halte ich das für bedenklich, da diese Anwendungen mit ihren Trainingsdatenbanken (Large Language Models) intransparent sind, und die Organisation nicht wirklich weiß, was mit den eingegebenen Daten passiert. Auf die mögliche Nutzung von Open Source AI wird in dem IPMA-Report nicht eingegangen – schade.

    Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

    AI as Engineering: Führt die Perspektive zu unlösbaren Problemen?

    AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

    Grundsätzlich gibt es verschiedene Perspektiven auf Künstliche Intelligenz (AI: Artificial Intelligence). Die aktuell dominierende Perspektive ist die, AI aus der Perspektive des Ingenieurwesens zu betrachten (Siehe Tabelle). Dabei wird davon ausgegangen, dass Intelligenz in AI-Systemen nachgebildet werden kann. Intelligenz wird dabei oftmals mit dem Intelligenz-Quotienten gleich gesetzt, der in Tests (Intelligenz-Tests) mit Hilfe einer Zahl, dem Intelligenz-Quotienten IQ dargestellt werden kann. Bei dieser Betrachtung auf Intelligenz erstaunt es daher nicht, dass die leistungsfähigsten AI-Systeme locker einen hohen IQ-Wert erreichen. Siehe dazu OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler?.

    Idea/DescriptionLable
    Intelligence can be recreated in artificial systems AI-as-engineeringAI-as-Engineering
    Cognition is, or can be understood as, a form of computation AI-as-psychology (a.k.a. computationalism)AI-as-Psychology (a.k.a. computationalism)
    Humans can be replaced by artificial systems AI-as-ideologyAI-as-Ideology
    The label ‘AI’ helps to sell technologies and gain fundingAI-as-Marketing
    Quelle: van Roij et al. (2024): Reclaiming AI as a Theoretical Tool for Cognitive Science

    Forscher haben nun in einem Paper dazu Stellung genommen und verschiedene Situationen mit ingenieurwissenschaftlichen Ansätzen überprüft. Das Ergebnis ist ernüchternd: AI-as-Engineering führt zu unlösbaren Problemen. Unlösbar in dem Sinne, dass die menschliche Intelligenz in vielen Facetten ingenieurwissenschaftlich nicht abgebildet werden kann.

    “This means that any factual AI systems created in the short-run are at best decoys. When we think these systems capture something deep about ourselves and our thinking, we induce distorted and impoverished images of ourselves and our cognition. In other words, AI in current practice is deteriorating our theoretical understanding of cognition rather than advancing and enhancing it. The situation could be remediated by releasing the grip of the currently dominant view on AI and by returning to the idea of AI as a theoretical tool for cognitive science. In reclaiming this older idea of AI, however, it is important not to repeat conceptual mistakes of the past (and present) that brought us to where we are today” (ebd.).

    AI kann natürlich viele Probleme lösen, die vorher so nicht, oder nur zu hohen Kosten lösbar waren. Das heißt allerdings noch lange nicht, dass die vielfältigen kognitiven und psychologischen Dispositionen von Menschen und ihre gesellschaftlichen Netzwerke genau so abgebildet werden können. Es ist verständlich, dass uns die Tech-Industrie das glauben machen will, doch sollten wir die Technologie stärker in den Dienst der Menschen stellen. Wenn wir das nicht machen, gehen die Profite an die großen Tech-Konzerne, wobei die gesellschaftlichen Auswirkungen bei den jeweiligen Ländern hängen bleiben. Eine Gesellschaft ist keine profitorientierte Organisation.

    Künstliche Intelligenz und Open Innovation

    AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

    Zunächst sollten Sie sich noch einmal klar machen, wie sich Closed Innovation und Open Innovation unterscheiden. Wie so oft, gibt es nicht nur die beiden Pole, sondern ein Innovations-Kontinuum (Roth 2008). Weiterhin finden Sie in dem Beitrag Künstliche Intelligenz im Innovationsprozess von Organisationen Hinweise dazu, welche Vorteile, bzw. Nachteile es geben kann, wenn für jeden Schritt im Innovationsprozess eines der bekannten KI-Modelle wie ChatGPT, Gemeni etc. genutzt wird.

    In diesem Beitrag geht es mir darum aufzuzeigen, wie Künstliche Intelligenz bei Open Innovation genutzt werden kann. Wie der folgenden Tabelle zu entnehmen ist, kann zwischen der Verbesserung von Open Innovation durch KI (OI-Enhancing AI), einer Ermöglichung von Open Innovation durch KI (OI-Enabling AI) und der Ersetzung von Open Innovation durch KI (OI-Peplacing AI) unterschiedenen werden. Die jeweils genannten Beispiele zeigen konkrete Einsatzfelder.

    DescriptionExamples
    OI-Enhancing AIAI that enhances established forms of open innovation by utilizing the advantages of AI complemented with human involvementInnovation search
    Partner search
    Idea evaluation
    Resource utilization
    OI-Enabling AIAI that enables new forms of open innovation, based upon AI’s potential to coordinate and/or generate innovationAI-enabled markets
    AI-enabled open business models
    Federated learning
    OI-Replacing AIAI that replaces or significantly reshapes established forms of open innovationAI ideation
    Synthetic data
    Multi-agent systems
    Quelle: Holgersson  et al. (2024)

    Alle drei Möglichkeiten – mit den jeweils genannten Beispielen – können von einem KI-Modell (z.B. ChatGPT oder Gemeni etc.) der eher kommerziell orientierten Anbieter abgedeckt werden. Dieses Vorgehen kann als One Sizes Fits All bezeichnet werden.

    Eine andere Vorgehensweise wäre, verschiedene spezialisierte Trainingsmodelle (Large Language Models) für die einzelnen Prozessschritte einzusetzen. Ein wesentlicher Vorteil wäre, dass solche LLM viel kleiner und weniger aufwendig wären. Das ist gerade für Kleine und Mittlere Unternehmen (KMU) von Bedeutung.

    Nicht zuletzt kann auch immer mehr leistungsfähige Open Source AI eingesetzt werden. Dabei beziehe ich mich auf die zuletzt veröffentlichte Definition zu Open Source AI. Eine Erkenntnis daraus ist: OpenAI ist kein Open Source AI. Die zuletzt veröffentlichten Modelle wie TEUKEN 7B oder auch Comon Corpus können hier beispielhaft für “wirkliche” Open source AI genannt werden.

    Weiterhin speilen in Zukunft AI Agenten – auch Open Source – eine immer wichtigere Rolle.

    Künstliche Intelligenz im Innovationsprozess von Organisationen

    Quelle: AdobeStock_650993865

    Innovationen sind für eine Gesellschaft, und hier speziell für marktorientierte Organisationen wichtig, um sich an ein verändertes Umfeld anzupassen (inkrementelle Innovationen), bzw. etwas ganz Neues auf den Markt zu bringen (disruptive Innovationen).

    Organisationen können solche Innovationen in einem eher geschlossenen Innovationsprozess (Closed Innovation) oder in einem eher offenen Innovationsprozess (Open Innovation) entwickeln.

    Darüber hinaus können die Innovationen von Menschen (People Driven) oder/und von Technologie (Data Driven) getrieben sein. Aktuell geht es in vielen Diskussionen darum, wie Künstliche Intelligenz (AI: Artificial Intelligence) und die damit verbundenen Trainingsdaten (LLM: Large Language Models) im Innovationsprozess genutzt werden können.

    Im einfachsten Fall würde sich eine Organisation den Innovationsprozess ansehen, und in jedem Prozessschritt ein Standard-KI-Modell wie ChatGpt, Gemini, Bart usw. nutzen. Die folgende Tabelle stellt das grob für einen einfachen Innovationsprozess nach Rogers (2003) dar:

    Opportunity identification and idea generationIdea evaluation and selectionConcept and solution developmentCommercialization launch phase
    e.g. identifying user needs, scouting promising technologies, generating ideas;e.g. idea assessment, evaluatione.g. prototyping, concept testinge.g. marketing, sales, pricing
    ChatGPT, Gemeni, etc.ChatGPT, Gemini, etc.ChatGPT, Gemini, etc.ChatGPT, Gemini, etc.
    Eigene Darstellung

    Dieser Ansatz könnte als One Size fits all interpretiert werden: Eine Standard-KI für alle Prozessschritte.

    Dafür sprechen verschiedene Vorteile:
    – Viele Mitarbeiter haben sich schon privat oder auch beruflich mit solchen Standard-KI-Modelle beschäftigt, wodurch eine relativ einfache Kompetenzentwicklung möglich ist.
    – Die kommerziellen Anbieter treiben AI-Innovationen schnell voran, wodurch es fast “täglich” zu neuen Anwendungsmöglichkeiten kommt.
    – Kommerzielle Anbieter vernetzen KI-Apps mit ihren anderen Systemen, wodurch es zu verbesserten integrierten Lösungen kommt.

    Es gibt allerdings auch erhebliche Nachteile:
    – Möglicherweise werden auch andere Organisationen/Wettbewerber so einen Ansatz wählen, sodass kaum ein grundlegendes Alleinstellungsmerkmal erzielt werden kann.
    – Kritisch ist auch heute noch, ob es sich bei den verwendeten Trainingsdaten (Large Language Models) nicht um Urheberrechtsverletzungen handelt. Etliche Klagen sind anhängig.
    – Weiterhin können die für Innovationen formulierte Prompts und Dateien durchaus auch als Trainingsdaten verwendet werden.
    – Die LLM sind nicht transparent und für alle zugänglich, also sie sind keine Open Source AI, auch wenn das von den kommerziell betriebenen KI-Modellen immer wieder suggeriert wird.
    – Organisationen sind anhängig von den Innovationsschritten der kommerziellen Anbieter.
    – Die Trainingsdatenbanken (Large Language Models) werden immer größer und damit natürlich auch teurer.
    – Nicht zuletzt ist unklar, wie sich die Kosten für die kommerzielle Nutzung der KI-Apps in Zukunft entwickeln werden – eine gerade für kleine und mittlere Unternehmen (KMU) nicht zu unterschätzende Komponente.

    Gerade kleine und mittlere Unternehmen (KMU) sollten die genannten Vorteile und Nachteile abwägen und überlegen, wie sie Künstliche Intelligenz in ihrem Innovationsprozess nutzen wollen.

    In unserem Blog werde ich in der nächsten Zeit weitere Möglichkeiten aufzeigen.

    Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

    Adobe: AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

    Die bekannten KI-Anwendungen (AI Apps) wie ChatGPT, Gemini usw. dominieren den Markt und setzen durch schnelle Neuerungen (Updates) Standards bei der Performance. Solche Angebote können als closed-source Large Language Models (LLMs) bezeichnet werden. Die Nutzung wird dabei durch wenig Transparenz bei den verwendeten Daten und durch immer mehr kostenpflichtige Angebote “erkauft”.

    Diese schnelle Abhängigkeit von der jeweiligen Funktionsweise der verwendeten KI-Apps führt bei einem Wechsel – beispielsweise zu Open Source AI – zu erhöhten Switching Costs. Diesen Effekt nutzen die kommerziellen Anbieter, um ihr Geschäftsmodell weiter zu etablieren und zu kommerzialisieren.

    Open Source AI (Definition) bedeutet u.a. die Transparenz bei den Trainingsdaten zu schaffen, und den Zugang für jeden zu ermöglichen. Meine Auffassung ist, dass Open Source AI in Zukunft für Privatpersonen, Organisationen und demokratische Gesellschaften besser ist. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich.

    Diese Ansicht wird auch von wissenschaftlichen Forschungen zu dem Thema gestützt. Eine aktuelle Veröffentlichung von Manchanda et al. (2024) beschreibt die Zusammenhänge wie folgt:

    Closed-source LLMs continue to lead in performance, leveraging proprietary datasets and significant computational investments to excel in tasks requiring advanced generative abilities, multi-step reasoning, and broad generalization. However, their success comes at the cost of limited transparency and restricted accessibility, which creates challenges for external validation and replication.

    The closed-source approach also consolidates resources and technological power within a few institutions. In so doing, it poses barriers to equitable AI development and raising concerns about reproducibility of outcomes and organizational accountability. By contrast, open-source LLMs emphasize accessibility and collaborative development. While these models often trail closed-source systems in absolute performance, they have made significant progress in narrowing the gap through methods such as Low-Rank Adaptation (LoRA) and quantization. These strategies enable efficient, competitive outcomes even in resource-constrained environments. By utilizing diverse datasets across languages and contexts, open-sourcemodels demonstrate their capacity to address realworld challenges with inclusivity. This democratic ethos has already empowered researchers and developers globally, and is likely to continue to do so” (Manchanda et al 2024).

    Siehe dazu ausführlicher

    Open Source AI Definition

    Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data

    Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht

    Künstliche Intelligenz: Von AI Agenten und Multi Agenten Systemen

    WEF (2024): Navigating the AI Frontier. A Primer on the Evolution and Impact of AI Agents

    Aktuell drehen sich die Diskussionen bei der Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) hauptsächlich noch um die genutzten LLM: Large Language Models (Trainingsdatenbanken), und darum, ob diese eher closed-source oder open-source sein sollten. Wie in der Abbildung zu sehen ist, zeichnet sich darüber hinaus schon ein weiterer großer Trend ab: AI Agenten.

    “Based on the definition of the International Organization for Standardization, an AI agent can be broadly defined as an entity that senses percepts (sound, text, image, pressure etc.) using sensors and responds (using effectors) to its environment. AI agents generally have the autonomy (defined as the ability to operate independently and make decisions without constant human intervention) and authority (defined as the granted permissions and access rights to perform specific actions within defined boundaries) to take actions to achieve a set of specified goals, thereby modifying their environment” (WEF 2024).

    Neben den Large Language Models (LLM) kommen somit bei AI Agenten u.a. auch noch Daten von Sensoren und möglicherweise menschliches Feedback hinzu. Daraus ergeben sich ganz neue Möglichkeiten bei komplexen Problemlösunmgsprozessen.

    Natürlich können AI Agenten Typen unterschieden werden, beispielsweise in deterministic und non-deterministic etc. Auch kann ein AI Agenten System aus ganz verschiedenen AI Agenten entstehen. Diese wenigen Hinweise zeigen schon auf, welche vielversprechenden neuen Möglichkeiten/Anwendungen sich ergeben können. Natürlich immer unter der Prämisse der Transparenz und Offenheit, um Missbrauch zu verhindern. Es liegt für mich daher auf der Hand. sich mit Open Source AI Agenten zu befassen.

    Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data

    Immer mehr Privatpersonen und Organisationen realisieren, dass die populären Trainingsdaten (LLM: Large Language Models) für ChatGPT von OpanAI, oder auch Gemini von Google usw., so ihre Tücken haben können, wenn es beispielsweise im andere oder um die eigenen Urheberrechte geht. In diesem Punkt unterscheiden wir uns in Europa durchaus von den US-amerikanischen und chinesischen Ansätzen. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich. Darüber hinaus liegen die Daten der bekannten (closed source) LLMs zu einem überwiegenden Teil in englischer oder chinesischer Sprache vor.

    Die Alternativen waren bisher entweder nicht leistungsstark genug, oder einfach nicht für die Allgemeinheit als Open Source Model verfügbar. Siehe dazu Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht. Das hat sich in der Zwischenzeit geändert. Beispielsweise wurde Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht, die gerade Daten für KI-Anwendungen enthält, die urheberrechtlich freigegeben wurden. Weiterhin gibt es das geförderte Projekt OpenGPT-X, das nun Teuken 7B-v0.4 veröffentlicht hat.

    Quelle: https://opengpt-x.de/en/models/teuken-7b/

    “Multilingual, open source models for Europe – instruction-tuned and trained in all 24 EU languages…. Training on >50% non English Data. (…) This led to the creation of a custom multilingual tokenizer” (ebd.).

    Neben der freien Verfügbarkeit (Open Source AI) (via Hugging Face) ist somit ein großer Pluspunkt, dass eine große Menge an Daten, nicht englischsprachig sind. Das unterscheidet dieses Large Language Model (LLM) sehr deutlich von den vielen englisch oder chinesisch dominierten (Closed Source) Large Language Models.

    Insgesamt halte ich das alles für eine tolle Entwicklung, die ich in der Geschwindigkeit nicht erwartet hatte!

    Hybride Intelligenz: Zusammenspiel von Mensch, Maschine und Künstlicher Intelligenz

    Wenn es um zu lösende Probleme in einem beruflichen Umfeld geht, so gibt es dabei sehr viele einzelne Aufgaben, die im Zusammenspiel von Menschen, Maschinen und Künstlicher Intelligenz gelöst werden können. Welche “Konfiguration” dabei angemessen erscheint, ist Abhängig vom Kontext, dem Task (Aufgabe) und den vorhandenen Problemlösungspotentialen. An dieser Stelle kommt der Begriff Hybride Intelligenz ins Spiel.

    “Dellermann, Ebel, Söllner und Leimeister (2019: 638) definieren hybride Intelligenz als die Fähigkeit, komplexe Ziele durch die Kombination menschlicher und künstlicher Intelligenz zu erreichen, kontinuierlich voneinander zu lernen und dabei Ergebnisse zu produzieren, die über das hinaus gehen, was KI oder Mensch allein hätten erreichen können. Nicht immer lässt sich hierbei trennscharf zwischen Automation und Augmentation unterscheiden (Raisch & Krakowski, 2021). Der Grad der Automation bzw. Augmentation hängt immer individuell von der jeweiligen zu lösenden Aufgabe ab” (Piller et al. 2024, in Koller et al. 2024: Die Zukunft der Grenzenlosen Unternehmung).

    Was allerdings unter “Menschlicher Intelligenz” verstanden wird, ist dabei nicht weiter erläutert. Ich gehe daher davon aus, dass von dem bekannten Intelligenzquotienten (IQ) ausgegangen wird, der sich in einer Zahl manifestiert. Dass das im Zusammenhang mit den Entwicklungen bei der Künstlichen Intelligenz kritisch sein kann, wird in dem Blogbeitrag OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? deutlich.

    Wenn wir weiterhin beachten, dass auch der Intelligenz-Begriff erweitert werden sollte, können wir möglicherweise auch von einer Multiplen Künstlichen Intelligenz sprechen. Siehe dazu auch Multiple Artificial Intelligences (MAI) statt Artificial General Intelligence (AGI)?