Künstliche Intelligenz im Innovationsprozess von Organisationen

Quelle: AdobeStock_650993865

Innovationen sind für eine Gesellschaft, und hier speziell für marktorientierte Organisationen wichtig, um sich an ein verändertes Umfeld anzupassen (inkrementelle Innovationen), bzw. etwas ganz Neues auf den Markt zu bringen (disruptive Innovationen).

Organisationen können solche Innovationen in einem eher geschlossenen Innovationsprozess (Closed Innovation) oder in einem eher offenen Innovationsprozess (Open Innovation) entwickeln.

Darüber hinaus können die Innovationen von Menschen (People Driven) oder/und von Technologie (Data Driven) getrieben sein. Aktuell geht es in vielen Diskussionen darum, wie Künstliche Intelligenz (AI: Artificial Intelligence) und die damit verbundenen Trainingsdaten (LLM: Large Language Models) im Innovationsprozess genutzt werden können.

Im einfachsten Fall würde sich eine Organisation den Innovationsprozess ansehen, und in jedem Prozessschritt ein Standard-KI-Modell wie ChatGpt, Gemini, Bart usw. nutzen. Die folgende Tabelle stellt das grob für einen einfachen Innovationsprozess nach Rogers (2003) dar:

Opportunity identification and idea generationIdea evaluation and selectionConcept and solution developmentCommercialization launch phase
e.g. identifying user needs, scouting promising technologies, generating ideas;e.g. idea assessment, evaluatione.g. prototyping, concept testinge.g. marketing, sales, pricing
ChatGPT, Gemeni, etc.ChatGPT, Gemini, etc.ChatGPT, Gemini, etc.ChatGPT, Gemini, etc.
Eigene Darstellung

Dieser Ansatz könnte als One Size fits all interpretiert werden: Eine Standard-KI für alle Prozessschritte.

Dafür sprechen verschiedene Vorteile:
– Viele Mitarbeiter haben sich schon privat oder auch beruflich mit solchen Standard-KI-Modelle beschäftigt, wodurch eine relativ einfache Kompetenzentwicklung möglich ist.
– Die kommerziellen Anbieter treiben AI-Innovationen schnell voran, wodurch es fast “täglich” zu neuen Anwendungsmöglichkeiten kommt.
– Kommerzielle Anbieter vernetzen KI-Apps mit ihren anderen Systemen, wodurch es zu verbesserten integrierten Lösungen kommt.

Es gibt allerdings auch erhebliche Nachteile:
– Möglicherweise werden auch andere Organisationen/Wettbewerber so einen Ansatz wählen, sodass kaum ein grundlegendes Alleinstellungsmerkmal erzielt werden kann.
– Kritisch ist auch heute noch, ob es sich bei den verwendeten Trainingsdaten (Large Language Models) nicht um Urheberrechtsverletzungen handelt. Etliche Klagen sind anhängig.
– Weiterhin können die für Innovationen formulierte Prompts und Dateien durchaus auch als Trainingsdaten verwendet werden.
– Die LLM sind nicht transparent und für alle zugänglich, also sie sind keine Open Source AI, auch wenn das von den kommerziell betriebenen KI-Modellen immer wieder suggeriert wird.
– Organisationen sind anhängig von den Innovationsschritten der kommerziellen Anbieter.
– Die Trainingsdatenbanken (Large Language Models) werden immer größer und damit natürlich auch teurer.
– Nicht zuletzt ist unklar, wie sich die Kosten für die kommerzielle Nutzung der KI-Apps in Zukunft entwickeln werden – eine gerade für kleine und mittlere Unternehmen (KMU) nicht zu unterschätzende Komponente.

Gerade kleine und mittlere Unternehmen (KMU) sollten die genannten Vorteile und Nachteile abwägen und überlegen, wie sie Künstliche Intelligenz in ihrem Innovationsprozess nutzen wollen.

In unserem Blog werde ich in der nächsten Zeit weitere Möglichkeiten aufzeigen.

Projekt “RECHT-TESTBED”: Verträge in Zeiten von Künstlicher Intelligenz rechtssicher gestalten

Website: https://rtb.public.apps.sele.iml.fraunhofer.de/home

Auch im Vertragsmanagement wird immer mehr digitalisiert und automatisiert. Die Automatisierung nutzt dabei immer mehr mit den Möglichkeiten der Künstlichen Intelligenz.

“Bereits heute lässt der US-amerikanische Einzelhandelsriese Walmart den Einkauf testweise von einem Chatbot erledigen” (Fraunhofer Magazin 4/2024 | PDF). Hier verhandeln also Software -Agenten den jeweiligen Preis.

Bei immer stärkeren Nutzung von Künstlicher Intelligenz im Vertragsmanagement kommt man auch zu folgender Frage,: Ist ein Vertrag rechtssicher ist, wenn er von Künstlicher Intelligenz unterzeichnet wurde? Das Projekt RECHT-TESTBED soll helfen, hier etwas Klarheit zu erhalten. In dem vom Fraunhofer Institut entwickelten Online-Portal können Interessenten Ein Szenario auswählen, das Szenario und ein Experiment konfigurieren, sowie das Experiment starten.

Ich muss allerdings anmerken, dass verschiedene Elemente nicht richtig funktionieren, und es teilweise zu einer Fehlermeldung kommt (Stand: 23.12.2024). Schade, denn ich halte so eine Online-Möglichkeit für sinnvoll. Gerade für Kleine und mittlere Unternehmen (KMU) kann diese Plattform hilfreich sein.

Um noch einmal auf die gestellte Frage zurückzukommen: “Ob vom Menschen oder von Künstlicher Intelligenz unterzeichnet – Vertrag ist Vertrag. Damit können automatisch geschlossene Verträge als rechtssicher gelten” Fraunhofer Magazin 4/2024. Bei dem Artikel wurde ein fiktiver Gerichtsprozess beschrieben, in dem es dann zu dieser Entscheidung gekommen ist.

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Adobe: AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Die bekannten KI-Anwendungen (AI Apps) wie ChatGPT, Gemini usw. dominieren den Markt und setzen durch schnelle Neuerungen (Updates) Standards bei der Performance. Solche Angebote können als closed-source Large Language Models (LLMs) bezeichnet werden. Die Nutzung wird dabei durch wenig Transparenz bei den verwendeten Daten und durch immer mehr kostenpflichtige Angebote “erkauft”.

Diese schnelle Abhängigkeit von der jeweiligen Funktionsweise der verwendeten KI-Apps führt bei einem Wechsel – beispielsweise zu Open Source AI – zu erhöhten Switching Costs. Diesen Effekt nutzen die kommerziellen Anbieter, um ihr Geschäftsmodell weiter zu etablieren und zu kommerzialisieren.

Open Source AI (Definition) bedeutet u.a. die Transparenz bei den Trainingsdaten zu schaffen, und den Zugang für jeden zu ermöglichen. Meine Auffassung ist, dass Open Source AI in Zukunft für Privatpersonen, Organisationen und demokratische Gesellschaften besser ist. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich.

Diese Ansicht wird auch von wissenschaftlichen Forschungen zu dem Thema gestützt. Eine aktuelle Veröffentlichung von Manchanda et al. (2024) beschreibt die Zusammenhänge wie folgt:

Closed-source LLMs continue to lead in performance, leveraging proprietary datasets and significant computational investments to excel in tasks requiring advanced generative abilities, multi-step reasoning, and broad generalization. However, their success comes at the cost of limited transparency and restricted accessibility, which creates challenges for external validation and replication.

The closed-source approach also consolidates resources and technological power within a few institutions. In so doing, it poses barriers to equitable AI development and raising concerns about reproducibility of outcomes and organizational accountability. By contrast, open-source LLMs emphasize accessibility and collaborative development. While these models often trail closed-source systems in absolute performance, they have made significant progress in narrowing the gap through methods such as Low-Rank Adaptation (LoRA) and quantization. These strategies enable efficient, competitive outcomes even in resource-constrained environments. By utilizing diverse datasets across languages and contexts, open-sourcemodels demonstrate their capacity to address realworld challenges with inclusivity. This democratic ethos has already empowered researchers and developers globally, and is likely to continue to do so” (Manchanda et al 2024).

Siehe dazu ausführlicher

Open Source AI Definition

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data

Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht

Creating Knowledge: Welche Tools sind geeignet?

An dieser Stelle möchte ich mich nicht an den bekannten Modellen aus Europa orientieren, sondern auch einmal nach Asien schauen. Die APO (Asian Productivity Organization) beispielsweise orientiert sich an den folgenden 5 Aktivitäten, die den europäischen Modellen allerdings sehr ähneln : Identifying the Knowledge – Creating Knowledge – Storing Knowledge – Sharing Knowledge – Applying Knowledge. Die APO (2020) schlägt für den Schritt “Creating knowledge” (Wissen schaffen) vor, folgende Methoden/Tools zu nutzen:

Brainstorming
Learnings and Ideas Capture
Learning Reviews
After Action Reviews
Collaborative Physical Workspaces
Knowledge Café
Communities of Practice
Knowledge Bases (Wikis, etc.)
Blogs
Video Communication and Webinars
Advanced Search
Building Knowledge Clusters
Expertise Locator/Who’s Who
Collaborative Virtual Workspaces
Mentor/Mentee Scheme
Knowledge Portal
Video Sharing

Es ist gut, bei der Vielzahl von Möglichkeiten, eine erste Orientierung zu haben, die selbständig weiterentwickelt, und mit den neuen Möglichkeiten der Künstlichen Intelligenz ergänzt werden kann. Siehe dazu beispielsweise auch Künstliche Intelligenz: Vorwissen, Wissenszuwachsvorhersage, Wissenszuwachs und Markov-Ketten.

Künstliche Intelligenz: Von AI Agenten und Multi Agenten Systemen

WEF (2024): Navigating the AI Frontier. A Primer on the Evolution and Impact of AI Agents

Aktuell drehen sich die Diskussionen bei der Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) hauptsächlich noch um die genutzten LLM: Large Language Models (Trainingsdatenbanken), und darum, ob diese eher closed-source oder open-source sein sollten. Wie in der Abbildung zu sehen ist, zeichnet sich darüber hinaus schon ein weiterer großer Trend ab: AI Agenten.

“Based on the definition of the International Organization for Standardization, an AI agent can be broadly defined as an entity that senses percepts (sound, text, image, pressure etc.) using sensors and responds (using effectors) to its environment. AI agents generally have the autonomy (defined as the ability to operate independently and make decisions without constant human intervention) and authority (defined as the granted permissions and access rights to perform specific actions within defined boundaries) to take actions to achieve a set of specified goals, thereby modifying their environment” (WEF 2024).

Neben den Large Language Models (LLM) kommen somit bei AI Agenten u.a. auch noch Daten von Sensoren und möglicherweise menschliches Feedback hinzu. Daraus ergeben sich ganz neue Möglichkeiten bei komplexen Problemlösunmgsprozessen.

Natürlich können AI Agenten Typen unterschieden werden, beispielsweise in deterministic und non-deterministic etc. Auch kann ein AI Agenten System aus ganz verschiedenen AI Agenten entstehen. Diese wenigen Hinweise zeigen schon auf, welche vielversprechenden neuen Möglichkeiten/Anwendungen sich ergeben können. Natürlich immer unter der Prämisse der Transparenz und Offenheit, um Missbrauch zu verhindern. Es liegt für mich daher auf der Hand. sich mit Open Source AI Agenten zu befassen.

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data

Immer mehr Privatpersonen und Organisationen realisieren, dass die populären Trainingsdaten (LLM: Large Language Models) für ChatGPT von OpanAI, oder auch Gemini von Google usw., so ihre Tücken haben können, wenn es beispielsweise im andere oder um die eigenen Urheberrechte geht. In diesem Punkt unterscheiden wir uns in Europa durchaus von den US-amerikanischen und chinesischen Ansätzen. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich. Darüber hinaus liegen die Daten der bekannten (closed source) LLMs zu einem überwiegenden Teil in englischer oder chinesischer Sprache vor.

Die Alternativen waren bisher entweder nicht leistungsstark genug, oder einfach nicht für die Allgemeinheit als Open Source Model verfügbar. Siehe dazu Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht. Das hat sich in der Zwischenzeit geändert. Beispielsweise wurde Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht, die gerade Daten für KI-Anwendungen enthält, die urheberrechtlich freigegeben wurden. Weiterhin gibt es das geförderte Projekt OpenGPT-X, das nun Teuken 7B-v0.4 veröffentlicht hat.

Quelle: https://opengpt-x.de/en/models/teuken-7b/

“Multilingual, open source models for Europe – instruction-tuned and trained in all 24 EU languages…. Training on >50% non English Data. (…) This led to the creation of a custom multilingual tokenizer” (ebd.).

Neben der freien Verfügbarkeit (Open Source AI) (via Hugging Face) ist somit ein großer Pluspunkt, dass eine große Menge an Daten, nicht englischsprachig sind. Das unterscheidet dieses Large Language Model (LLM) sehr deutlich von den vielen englisch oder chinesisch dominierten (Closed Source) Large Language Models.

Insgesamt halte ich das alles für eine tolle Entwicklung, die ich in der Geschwindigkeit nicht erwartet hatte!

Hybride Intelligenz: Zusammenspiel von Mensch, Maschine und Künstlicher Intelligenz

Wenn es um zu lösende Probleme in einem beruflichen Umfeld geht, so gibt es dabei sehr viele einzelne Aufgaben, die im Zusammenspiel von Menschen, Maschinen und Künstlicher Intelligenz gelöst werden können. Welche “Konfiguration” dabei angemessen erscheint, ist Abhängig vom Kontext, dem Task (Aufgabe) und den vorhandenen Problemlösungspotentialen. An dieser Stelle kommt der Begriff Hybride Intelligenz ins Spiel.

“Dellermann, Ebel, Söllner und Leimeister (2019: 638) definieren hybride Intelligenz als die Fähigkeit, komplexe Ziele durch die Kombination menschlicher und künstlicher Intelligenz zu erreichen, kontinuierlich voneinander zu lernen und dabei Ergebnisse zu produzieren, die über das hinaus gehen, was KI oder Mensch allein hätten erreichen können. Nicht immer lässt sich hierbei trennscharf zwischen Automation und Augmentation unterscheiden (Raisch & Krakowski, 2021). Der Grad der Automation bzw. Augmentation hängt immer individuell von der jeweiligen zu lösenden Aufgabe ab” (Piller et al. 2024, in Koller et al. 2024: Die Zukunft der Grenzenlosen Unternehmung).

Was allerdings unter “Menschlicher Intelligenz” verstanden wird, ist dabei nicht weiter erläutert. Ich gehe daher davon aus, dass von dem bekannten Intelligenzquotienten (IQ) ausgegangen wird, der sich in einer Zahl manifestiert. Dass das im Zusammenhang mit den Entwicklungen bei der Künstlichen Intelligenz kritisch sein kann, wird in dem Blogbeitrag OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? deutlich.

Wenn wir weiterhin beachten, dass auch der Intelligenz-Begriff erweitert werden sollte, können wir möglicherweise auch von einer Multiplen Künstlichen Intelligenz sprechen. Siehe dazu auch Multiple Artificial Intelligences (MAI) statt Artificial General Intelligence (AGI)?

Nextcloud: Welche KI für welche Aufgabe?

Eigener Screenshot

In unserer Nextcloud (Hub 9) gibt es einen Nexcloud-Assistenten in dem verschiedene Aufgaben ausgewählt werden können (Siehe Abbildung). Weiterhin ist es möglich, zu jeder der genannten Anwendungen die geeignete KI (Künstliche Intelligenz) zu hinterlegen.

In der folgenden Abbildung ist zu sehen, dass für die Aufgaben “Free text to text prompt” und “Extract topics” z.B. OpenAI hinterlegt ist. Das Rollfeld zeigt, dass auch andere KI-Anwendungen ausgewählt werden können. Unser Ziel ist es in Zukunft mit leitungsfähigen Open Source KI-Anwendungen wie z.B. Common Corpus zu arbeiten. Siehe dazu auch Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht.

Eigener Screenshot

Open Source AI: Common Corpus als größte offene Trainingsdatenbank veröffentlicht

Quelle: Link

In verschiedenen Blogbeiträgen hatte ich schon erwähnt, dass die aktuell noch dominierenden Trainingsdatenbanken (LLM: Large Language Models) der kommerziellen Anbieter wie OpenAI mit ChatGPT usw. wenig transparent sind. Diese Intransparenz, gepaart mit den immer lauter geäußerten Urheberverletzungen, und den immer deutlicher werdenden wirtschaftlichen Interessen der Tech-Giganten, lässt immer mehr Organisationen bei der Nutzung von Artificial Intelligence (A): künstlicher Intelligenz) nachdenklich werden. Um es hier noch einmal klarzustellen: OpenAI ist keine Open Source AI! Siehe dazu beispielsweise Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht.

In der Zwischenzeit gibt es viele spezielle Trainingsdatenbanken, die transparent und auch in ihren Datenvolumina kompakter sind. Was bisher noch fehlte war ein LLM, das auf der Basis der vorhandenen offenen Systeme wie Open Governement, Open Web, Open Science, Open Culture und Open Source Trainingsdaten bereit stellt, die neben Transparenz und freier Nutzbarkeit auch die immer wichtiger werdenden Urheberrechte berücksichtigt. In der Zwischenzeit gibt es Common Corpus: “Truly Open: contains only data that is permissively licensed”.

In dem Beitrag Langlait et al (2024): Releasing the largest multilingual open pretraining dataset vom 14.11.2024 auf Huggingface wird das Konzept und das Alleinstellungsmerkmal von Common Corpus als Teil der AI Alliance Open Trusted Data Initiative vorgestellt.

“Many have claimed that training large language models requires copyrighted data, making truly open AI development impossible. Today, Pleias is proving otherwise with the release of Common Corpus (part of the AI Alliance Open Trusted Data Initiative)—the largest fully open multilingual dataset for training LLMs, containing over 2 trillion tokens of permissibly licensed content with provenance information (2,003,039,184,047 tokens)” (Source).

Die immer wieder von den Tech-Giganten vorgebrachte Meinung, dass eine gute Trainingsdatenbank nicht ohne urheberrechtlich geschützte Daten auskommt, ist also falsch und soll wohl eher das eigene Geschäftsmodell schützen. Es ist beeindruckend zu sehen, wie dynamisch sich Open Source AI für viele Organisationen zu einer durchaus interessanten Alternative zu den etablierten AI-Systemen entwickelt.

Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht

In dem Beitrag Open Source AI: Nun gibt es endlich eine Definition – und damit interessante Erkenntnisse zu OpenAI und Co. hatte ich schon im August 2024 darauf hingewiesen, dass die Open Source Initiative (OSI) an einer Definition arbeitet die klärt, was unter Open Source AI zu verstehen ist.

Das ist deshalb besonders wichtig, da beispielsweise OpenAI sich eher zu einem von Microsoft dominierten Geschäftsmodell entwickelt. Auch LLama von Meta ist nicht wirklich Open Source, da einige wichtige Kriterien von Open Source AI nicht erfüllt sind. Meta verwendet dennoch in seinen Marketingaktivitäten bewusst den Begriff “Open Source” – hony soit qui mal y pense. Die am 21.10.2024 veröffentlichte Version von Open Source AI ist ein Release Candidate 2 (RC2):

An Open Source AI is an AI system made available under terms and in a way that grant the freedoms to:

Use the system for any purpose and without having to ask for permission.
Study how the system works and inspect its components.
Modify the system for any purpose, including to change its output.
Share the system for others to use with or without modifications, for any purpose.

These freedoms apply both to a fully functional system and to discrete elements of a system. A precondition to exercising these freedoms is to have access to the preferred form to make modifications to the system (Quelle).

Alle Large Language Models (LLM), die für Anwendungen der Künstlichen Intelligenz (Artificial Intelligence) genutzt werden, sollten also diesen Anforderungen genügen. Alleine der erste Eindruck zeigt schon, dass dies bei den meisten LLM nicht der Fall ist. Es wird Zeit, dass sich die aktuellen Anbieter nicht mehr mit dem Attribut “Open Source” schmücken können.