Innovationen: Künstliche Intelligenz und Neu-Kombinationen

Bei Innovationen sollten wir uns zunächst einmal klar machen, was im Unternehmenskontext darunter zu verstehen ist. Das Oslo Manual schlägt vor, Innovation wie folgt zu interpretieren:

„(…) a new or improved product or process (or combination thereof) that differs significantly from the unit’s previous products or processes and that has been made available to potential users (product) or brought into use by the unit (process)” (Oslo Manual 2018).

Dass Innovation u.a. eine Art Neu-Kombination von Existierendem bedeutet, ist vielen oft nicht so klar (combination thereof). Neue Ideen – und später Innovationen – entstehen oft aus vorhandenen Konzepten. oder Daten.

An dieser Stelle kommen nun die Möglichkeiten der Künstlichen Intelligenz (GenAI oder auch AI Agenten) ins Spiel. Mit KI ist es möglich, fast unendlich viele Neu-Kombinationen zu entwickeln, zu prüfen und umzusetzen. Das können Unternehmen nutzen, um ihre Innovationsprozesse neu zu gestalten, oder auch jeder Einzelne für seine eigenen Neu-Kombinationen im Sinne von Open User Innovation nutzen. Siehe dazu Von Democratizing Innovation zu Free Innovation.

Entscheidend ist für mich, welche KI-Modelle dabei genutzt werden. Sind es die nicht-transparenten Modelle der Tech-Unternehmen, die manchmal sogar die Rechte von einzelnen Personen, Unternehmen oder ganzer Gesellschaften ignorieren, oder nutzen wir KI-Modelle, die frei verfügbar, transparent und für alle nutzbar sind (Open Source AI)?

Wenn wir das Wohl der Menschen, und nicht nur den Profit einzelner Tech-Konzerne in den Mittelpunkt stellen, kommt für mich im Sinne einer Digitalen Souveränität nur Open Source AI infrage. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Künstliche Intelligenz und die ursprüngliche Bedeutung von Bildung

Image by dumcarreon from Pixabay

Es ist deutlich zu erkennen, dass Künstliche Intelligenz in seinen verschiedenen Formen (GenAI, AI Agenten usw.) Berufsbilder, Lernen, Wissens- und Kompetenzentwicklung beeinflusst, bzw. in Zukunft noch stärker beeinflussen wird. Siehe dazu beispielsweise WEF Jobs Report 2025.

Auch Strukturen im Bildungsbereich müssen sich daher fragen, welche Berechtigung sie noch in Zukunft haben werden, da sich der aktuelle Bildungssektor in fast allen Bereichen noch stark an den Anforderungen der Industriegesellschaft orientiert. Wenn es beispielsweise um Schulen geht, hat sich seit mehr als 100 Jahren nicht viel geändert. Siehe dazu Stundenplan von 1906/1907: Geändert hat sich bis heute (fast) nichts. Dazu passt folgendes Zitat:

„Every time I pass a jailhouse or a school, I feel sorry for the people inside.“
— Jimmy Breslin, Columnist, New York Post (Quelle)

Wohin sollen sich die Bildungsstrukturen – hier speziell Schulen – entwickeln?

(1) Wir können die Technologischen Möglichkeiten von Künstlicher Intelligenz in den Mittelpunkt stellen, und Menschen als nützliches Anhängsel von KI-Agenten verstehen. Dabei werden Menschen auf die KI-Technologie trainiert,, weiter)gebildet, geschult.

(2) Wir können alternativ Menschen und ihr soziales Zusammenleben in den Mittelpunkt stellen, bei dem Künstliche Intelligenz einen wertvollen Beitrag liefern kann. Ganz im Sinne einer Society 5.0.

Aktuell dominiert fast ausschließlich die Nummer (1) der genannten Möglichkeiten, was dazu führen kann, dass der Bildungsbereich Menschen so trainiert, dass sie zu den von Tech-Giganten entwickelten Technologien passen.

Möglicherweise hilft es in der Diskussion, wenn man den Ursprung des Wortes „Schule“ betrachtet. Der Begriff geht auf das griechische Wort „Skholè“ zurück, was ursprünglich „Müßiggang“, „Muße“, bedeutet und später zu „Studium“ und „Vorlesung“ wurde (Quelle: Wikipedia).

Bei Forschungen zur Künstlichen Intelligenz sind Autoren genau darauf eingegangen, weil sie vermuten, dass gerade diese ursprüngliche Perspektive besser zu den aktuellen Entwicklung passen kann:

„We find this etymology deeply revealing because it undercovers a profound truth about education´s original purpose: it wasn´t about preparing workers for jobs, but about providing space for thoughtful reflection and exploration of life´s fundamental questions. What inspires us about the ancient´s Greek approach is how they saw education as a means to help people find their purpose and develop their full potential as human beings“ (Bornet et al. 2025).

Menschen und AI Agenten im Zusammenspiel

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Immer mehr Organisationen fragen sich, inwiefern Workflows und besonders AI Agenten die bisher von Menschen durchgeführten Arbeiten ersetzen werden. In dem Blogbeitrag The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen wird deutlich, was heute schon in einzelnen Branchen möglich ist.

Auch der Jobs Reports 2025 des WEF zeigt auf, dass bis 2030 wohl 172 Millionen neue Jobs entstehen, und 92 Millionen wegfallen werden. Es geht dabei nicht immer um komplette Jobs, sondern auch um Teilbereiche oder Tätigkeitsportfolios, die immer mehr von AI Agenten übernommen werden (können).

Alles was mit Logik und Speicherung zu tun hat, ist eher die Stärke von Künstlicher Intelligenz, den Workflows, bzw. den AI Agenten. Doch in welchen Bereichen versagen AI Agenten noch? Dazu habe ich den folgenden Text gefunden:

„AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second“ (Bornet 2025 via LinkedIn).

Dabei bezieht sich Bornet auf eine Veröffentlichung von Bang Liu et al. (2025:19-20), in dem die Autoren drei Hirnregionen in Bezug auf AI (Artificial Intelligence) untersuchten. L1: Well developed; L2: Partially developed; L3: Underexplored.

Das Ergebnis ist also, dass AI Agenten in den Ebenen Emotionen, Kontext und Motivation unterentwickelt sind (L3), wenn es um menschliche Entscheidungen geht.

Erkenntnis (Cognition) entsteht dabei nicht nur in einem Bereich im Gehirn, sondern durch das Zusammenspiel vieler unterschiedlich vernetzter Areale. Bei komplexen Problemlösungsprozesse (CPS: Complex Problem Solving) geht es verstärkt um Emotionen, Kontext und Motivation.

Im Idealfall könnten Menschen an diesen Stellen einen Mehrwert für eine qualitativ gute Problemlösung (Erkenntnis) einbringen. Es stellt sich dabei allerdings auch die Frage, wie stark sich Menschen an die Möglichkeiten einer Künstlichen Intelligenz (AI Agenten) anpassen sollen.

Zusätzlich können die in dem sehr ausführlichen wissenschaftlichen Paper von Bang Liu et al. (2025) erwähnten Zusammenhänge Hinweise geben, wie die Zusammenarbeit – das Zusammenspiel – zwischen Menschen und AI Agenten organisiert, ja ermöglicht werden kann.

Künstliche Intelligenz im Projektmanagement: Ethische Kompetenz für die Projektleitung?

In allen Projekten werden mehr oder weniger oft digitale Tools, bzw. komplette Kollaborationsplattformen eingesetzt. Hinzu kommen jetzt immer stärker die Möglichkeiten der Künstlicher Intelligenz im Projektmanagement (GenAI, KI-Agenten usw.).

Projektverantwortliche stehen dabei vor der Frage, ob sie den KI-Angeboten der großen Tech-Konzerne vertrauen wollen – viele machen das. Immerhin ist es bequem, geht schnell und es gibt auch gute Ergebnisse. Warum sollte man das hinterfragen? Möglicherweise gibt es Gründe.

Es ist schon erstaunlich zu sehen, wie aktuell Mitarbeiter ChatGPT, Gemini usw. mit personenbezogenen Daten (Personalwesen) oder auch unternehmensspezifische Daten (Expertise aus Datenbanken) füttern, um schnelle Ergebnisse zu erzielen – alles ohne zu fragen: Was passiert mit den Daten eigentlich? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Je innovativer ein Unternehmen ist, desto einzigartiger sind seine Daten. Was mit diesen Daten dann passiert, ist relativ unklar. Es wundert daher nicht, dass nur ein kleiner Teil der Unternehmensdaten in den bekannten LLM (Large Language Models) zu finden ist. Siehe dazu Künstliche Intelligenz: 99% der Unternehmensdaten sind (noch) nicht in den Trainingsdaten der LLMs zu finden.

Es stellt sich zwangsläufig die Frage, wie man diesen Umgang mit den eigenen Daten und das dazugehörende Handeln bewertet. An dieser Stelle kommt der Begriff Ethik ins Spiel, denn Ethik befasst sich mit der „Bewertung menschlichen Handelns“ (Quelle: Wikipedia). Dazu passt in Verbindung zu KI in Projekten folgende Textpassage:

„In vielen Projektorganisationen wird derzeit intensiv darüber diskutiert, welche Kompetenzen Führungskräfte in einer zunehmend digitalisierten und KI-gestützten Welt benötigen. Technisches Wissen bleibt wichtig – doch ebenso entscheidend wird die Fähigkeit, in komplexen, oft widersprüchlichen Entscheidungssituationen eine ethisch fundierte Haltung einzunehmen. Ethische Kompetenz zeigt sich nicht nur in der Einhaltung von Regeln, sondern vor allem in der Art, wie Projektleitende mit Unsicherheit, Zielkonflikten und Verantwortung umgehen“ (Bühler, A. 2025, in Projektmanagement Aktuell 4/2025).

Unsere Idee ist daher, eine immer stärkere eigene Digitale Souveränität – auch bei KI-Modellen. Nextcloud, LocalAI, Ollama und Langflow auf unseren Servern ermöglichen es uns, geeigneter KI-Modelle zu nutzen, wobei alle generierten Daten auf unseren Servern bleiben. Die verschiedenen KI-Modelle können farbig im Sinne einer Ethical AI bewertet werden::

Quelle: https://nextcloud.com/de/blog/nextcloud-ethical-ai-rating/

Digitale Souveränität: Mit Langflow einen einfachen Flow mit Drag & Drop erstellen

Eigener Screenshot vom Langflow-Arbeitsbereich, inkl. der Navigation auf der linken Seite

Langflow haben wir als Open Source Anwendung auf unseren Servern installiert. Mit Langflow ist es möglich, Flows und Agenten zu erstellen – und zwar einfach mit Drag&Drop. Na ja, auch wenn es eine gute Dokumentation und viele Videos zu Langflow gibt, steckt der „Teufel wie immer im Detail“.

Wenn man mit Langflow startet ist es erst einmal gut, die Beispiele aus den Dokumentationen nachzuvollziehen. Ich habe also zunächst damit begonnen, einen Flow zu erstellen. Der Flow unterscheidet sich von Agenten, auf die ich in den nächsten Wochen ausführlicher eingehen werde.

Wie in der Abbildung zu sehen ist, gibt es einen Inputbereich, das Large Language Model (LLM) oder auch ein kleineres Modell, ein Small Language Model (SLM). Standardmäßig sind die Beispiele von Langflow darauf ausgerichtet, dass man OpenAI mit einem entsprechenden API-Key verwendet. Den haben wir zu Vergleichszwecken zwar, doch ist es unser Ziel, alles mit Open Source abzubilden – und OpenAI mit ChatGPT (und andere) sind eben kein Open Source AI.

Um das zu erreichen, haben wir Ollama auf unseren Servern installiert. In der Abbildung oben ist das entsprechende Feld im Arbeitsbereich zu sehe,n. Meine lokale Adresse für die in Ollama hinterlegten Modelle ist rot umrandet unkenntlich gemacht. Unter „Model Name“ können wir verschiedene Modelle auswählen. In dem Beispiel ist es custom-llama.3.2:3B. Sobald Input, Modell und Output verbunden sind, kann im Playground (Botton oben rechts) geprüft werden, ob alles funktioniert. Das Ergebnis sieht so aus:

Screenshot vom Playground: Ergebnis eines einfachen Flows in Langflow

Es kam mir jetzt nicht darauf an, komplizierte oder komplexe Fragen zu klären, sondern überhaupt zu testen, ob der einfache Flow funktioniert. Siehe da: Es hat geklappt!

Alle Anwendungen (Ollama und Langflow) sind Open Source und auf unseren Servern installiert. Alle Daten bleiben auf unseren Servern. Wieder ein Schritt auf dem Weg zur Digitalen Souveränität.

Künstliche Intelligenz: Das menschliche Gehirn benötigt maximal 30 Watt für komplexe Problemlösungen

Weltweit werden KI-Giga-Factories gebaut, um den erforderlichen Rechenkapazitäten der großen Tech-Konzerne gerecht zu werden. Europa fällt auch hier immer weiter zurück, wodurch eine zusätzliche digitale Abhängigkeit entsteht.

Prof. Lippert vom Kernforschungszentrum hat das so ausgedrückt: „“Unser geistiges Eigentum geht in andere Länder“ (MDR vom 05.09.2025). Teilweise wird prognostiziert, dass KI-Rechenzentren bis 2030 so viel Energie benötigen, wie ganz Japan.

Es stellt sich daher die Frage, ob das langfristig der richtige Weg ist. Eine Antwort liefert möglicherweise der Energieverbrauch eines menschlichen Gehirns:

„Das menschliche Gehirn leistet vieles, was Maschinen überfordert – und das mit minimalem Energieverbrauch. Im Durchschnitt verbraucht es nur etwa 20 Watt, so viel wie eine schwache Glühbirne“ Knees (2025): Wie Forscher die Tech-Konzerne entmachten wollen, in Handelsblatt vom 11.10.2025.

„Unser Gehirn benötigt für hochkomplexe Informationsübertragungen und -verarbeitungen weniger Energie als eine 30-Watt-Glühbirne“ (Prof. Dr. Amunts).

Mit so einer geringen Energiemenge leistet unser menschliches Gehirn erstaunliches. Es wundert daher nicht, dass die Entwicklung immer größerer Modelle (Large Language Models) infrage gestellt wird.

Forscher sind aktuell auf der Suche nach Modellen, die ganz anders aufgebaut sind und nur einen Bruchteil der aktuell benötigten Energie verbrauchen. Gerade in China gibt es dazu schon deutliche Entwicklungen. Auch in Deutschland befassen sich Forscher mit dem Thema neuroinspirierte Technologien.

Wir behandeln oftmals Menschen wie Roboter und Künstliche Intelligenz wie Kreative

In den letzten Jahren wird immer deutlicher, dass Künstliche Intelligenz unser wirtschaftliches und gesellschaftliches Leben stark durchdringen wird. Dabei scheint es so zu sein, dass die Künstliche Intelligenz der Menschlichen Intelligenz weit überlegen ist. Beispielsweise kann Künstliche Intelligenz (GenAI) äußerst kreativ sein, was in vielfältiger Weise in erstellten Bildern oder Videos zum Ausdruck kommt. In so einem Zusammenhang behandeln wir Künstliche Intelligenz (AI: Artificial Intelligence) wie Kreative und im Gegensatz dazu Menschen eher wie Roboter. Dazu habe ich folgenden Text gefunden:

„We are treating humans as robots and ai as creatives. it is time to flip the equation“ (David de Cremer in Bornet et al. 2025).

David de Cremer ist der Meinung, dass wir die erwähnte „Gleichung“ umstellen sollten. Dem kann ich nur zustimmen, denn das aktuell von den Tech-Giganten vertretene Primat der Technik über einzelne Personen und sogar ganzen Gesellschaften sollte wieder auf ein für alle Beteiligten gesundes Maß reduziert werden. Damit meine ich, dass die neuen technologischen Möglichkeiten einer Künstlichen Intelligenz mit den Zielen von Menschen/Gesellschaften und den möglichen organisatorischen und sozialen Auswirkungen ausbalanciert sein sollten.

Der japanische Ansatz einer Society 5.0 ist hier ein sehr interessanter Ansatz. Auch in Europa gibt es Entwicklungen, die in diese Richtung gehen: Beispielsweise mit den Möglichkeiten von EuroLLM, einem Europäischen Large Language Model (LLM) auf Open Source Basis. Siehe dazu auch Open EuroLLM: Ein Modell Made in Europe – eingebunden in unsere LocalAI.

Digitale Souveränität: Verschiedene Open Source AI-Modelle ausprobieren

Screenshot AI2 Playground

AI2 ist eine Non-Profit Organisation, die Künstliche Intelligenz für die vielfältigen gesellschaftlichen Herausforderungen entwickelt. Das 2014 in Seattle gegründete Institut stellt dabei auch verschiedene Open Source KI-Modelle zur Verfügung – u.a. auch OLMo2.

„OLMo 2 is a family of fully-open language models, developed start-to-finish with open and accessible training data, open-source training code, reproducible training recipes, transparent evaluations, intermediate checkpoints, and more“ (Quelle).

Wenn man die von AI2 veröffentlichten KI-Modelle einmal testen möchte, kann man das nun in einem dafür eingerichteten Playground machen. Wie in der Abbildung zu erkennen, können Sie einzelne Modelle auswählen, und mit einem Prompt testen. Der direkte Vergleich der Ergebnisse zeigt Ihnen, wie sich die Modelle voneinander unterscheiden.

Siehe dazu auch Künstliche Intelligenz: Mit der OLMo2 Modell-Familie offene Forschung an Sprachmodellen vorantreiben.

Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century

Image by NoName_13 from Pixabay

Es ist schon manchmal zum Volkssport geworden, Europa für alles verantwortlich zu machen, was nicht so gut läuft. Dabei wird oft übersehen, dass wir gerade in Deutschland von unseren europäischen Partnern abhängig sind, und nur mit ihnen gemeinsam die großen Herausforderungen bewältigen können. Dabei steht Europa zwischen den USA und China,

Gerade wenn es um die technologischen Entwicklungen geht, werden wir in Europa oft mit den USA und China verglichen. Dabei kommt heraus, dass wir „weit hinter“ den beiden Großmächten liegen. Es ist immer leicht, sich einen Teil des gesellschaftlichen Lebens herauszufiltern und diesen dann zu bewerten, ohne die Zusammenhänge zu betrachten. Neben den technologischen Entwicklungen geht es auch die sozialen Zusammenhänge in Gesellschaften. Alles ist eben mit allem vernetzt.

In den Buch Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century stellt der Autor Professor Arturo Bris eine für viele überraschende These auf: Europa als Vorbild für das 21. Jahrhundert. In der Beschreibung zum Buch findet man beispielsweise folgende Erläuterungen:

„While the world often focuses on the rivalry between the U.S. and China, Europe has steadily built a different path: one defined by high living standards, strong public institutions, universal healthcare, and a commitment to sustainability and human rights. Its cities lead in quality of life, its democracies remain among the most robust, and its cultural and regulatory influence—exemplified by GDPR, climate policy, and social protections—extends globally.

In contrast, the United States, though still dominant in innovation, faces mounting internal challenges: political dysfunction, social fragmentation, inequality, and mistrust in institutions. The dynamism of Silicon Valley and Wall Street has come at the cost of social cohesion and civic faith“ (Bris 2025).

Ist es wirklich so erstrebenswert den Elons Musks, Sam Altmans, Donald Trumps, Peter Thiels, usw. usw. hinterherzurennen? Manche, die das relativ blind machen, sollten kurz innehalten und nachdenken.

Digitale Souveränität: Nextcloud Version 32 (Hub 25) – no data leaks to third parties

Landingpage zur Version 32 (Hub 25) auf Nextcloud

Zur Digitalen Souveränität und zu Nextcloud habe ich in unserem Blog schon mehrfach, auch in Verbindung mit Künstlicher Intelligenz und KI-Agenten, geschrieben. Siehe meine verschiedenen Blogbeiträge dazu.

An dieser Stelle möchte ich daher nur auf die am 27.09.2025 veröffentlichte neue Nextcloud Version 32 (Hub 25) hinweisen. Es ist erstaunlich, welche dynamische Entwicklung diese Open Source Kollaborations-Plattform in den letzten Jahren verzeichnen kann. Immerhin bietet Nextcloud neben Alternativen zu den üblichen Office-Anwendungen, auch Nextcloud Talk (MS Teams Ersatz), ein Whiteboard, Nextcloud Flow (Abläufe optimieren), auch eine Integration mit Open Project an.

Mit dem Upgrade auf Nextcloud 32 wird auch der Nextcloud Assistent verbessert. Mit Hilfe verschiedener Features wie Chat mit KI usw. wird der Assistent zu einem persönlichen Agenten, der unterschiedliche Abläufe übernehmen kann.

Über die Verbindung zu LocalAI können die verschiedenen Möglichkeiten mt einem KI-Modell – oder mit verschiedenen KI-Modellen – verknüpft werden, sodass alle generierten Daten auf unserem Server bleiben. Ein in der heutigen Zeit unschätzbarer Vorteil, wodurch der Nextcloud Assistent in diesem Sinne ein Alleinstellungsmerkmal aufweist – ganz im Sinne einer Digitalen Souveränität.

Wir werden in Kürze auf die Version 32 (Hub 25) upgraden, und die neuen Features testen. In diesem Blog werde ich in den kommenden Woche darüber schreiben.