Innovatives Denken mit Künstlicher Intelligenz unterstützen

Legende
(CEN TS 16555-2014):

1 Sammeln von Informationen
2 Erzeugen von Lösungen
3 Rasches Lernen
4 Bewertung
5 Synthese und Outputs
6 Ergebnisse

Unternehmen setzen für ihren Innovationsprozess Künstliche Intelligenz ein. Auf der individuellen Ebene ist das natürlich auch möglich. Beispielsweise kann Künstliche Intelligenz das eigene innovative Denken unterstützen. Die Abbildung zeigt dazu die insgesamt sechs Schritte – vom Sammeln von Informationen (1) bis zu den Ergebnissen (6).

In jedem einzelnen Schritt sollten Sie überlegen, ob Sie nur ein KI-Modell verwenden wollen, oder ob es nicht besser ist, spezielle KI-Modelle zu nutzen. Siehe dazu auch KI-Modelle: Von „One Size Fits All“ über Variantenvielfalt in die Komplexitätsfalle?

Weiterhin sollten Sie sich überlegen, ob Sie die bekannten proprietären KI-Modelle für ihre innovativen Ideen nutzen wollen. Denken Sie bitte daran, dass diese wenig transparent sind und Sie nicht genau wissen, was mit ihren Ideen passiert. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

Unser Vorschlag ist daher, dass Sie zur Unterstützung ihres innovativen Denkens, in jedem Schritt Open Source KI-Modelle nutzen. Dass kann MISTRAL LE CHAT als Alternative zu ChatGPT etc, ein Modell wie Mistral AI für alle Schritte, oder auch ein Konzept mit unterschiedlichen Modellen sein, die Sie auf Huggingface finden können.

Natürlich ist es auch möglich, für die oben genannten Schritte einen, oder mehrere KI-Agenten zu nutzen – natürlich möglichst auch Open Source basiert.

Überlegen Sie abschließend noch, ob Sie alles auf ihrem Laptop, oder auf einem eignen Server laufen lassen können. Damit hätten Sie die Kontrolle über ihre Ideen.

„Erst ignorieren sie dich, dann lachen sie über dich, dann bekämpfen sie dich, dann hast du gewonnen“ Mahatma Gandhi.

Sie können dann immer noch selbst entscheiden, ob Sie Ihre Ergebnisse mit anderen teilen, oder diese sogar Unternehmen anbieten wollen.

Alles im Sinne einer eigenen Digitalen Souveränität.

Künstliche Intelligenz und Bewusstsein

Quelle: Bahnsen/Schnabel (2012(; (c) Dr. Robert Freund

Ein wichtiges Element, worin sich Künstliche Intelligenz und Menschliche Intelligenz unterscheiden, soll das Bewusstsein sein (Penrose 2025). Schauen wir uns zunächst einmal an, was das menschliche Bewusstsein ausmacht. In einem Artikel von Bahnsen und Schnabel (2012) wird u.a. der Entwicklungspsychologe Tomasello wie folgt zitiert:

„Das menschliche Selbstbewusstsein existiert nicht für sich allein, behauptet Michael Tomasello, Leiter der Abteilung Entwicklungspsychologie. Es ist wesentlich ein Produkt der Interaktion mit anderen“ (ebd.).

Es geht hier um die Interaktion mit und zwischen Menschen – unter weiter:

„Ihr Bewusstsein entsteht durch spezielle und hoch entwickelte Formen sozialer Fähigkeiten bei der Interaktion mit anderen – etwas was Tomasello „kulturelle Intelligenz“ nennt“ (ebd.).

Die vernetzten Interaktionsformen bei Menschen weisen auf eine Dynamik bei dem Bewusstsein hin, die in der Abbildung beispielhaft in Bezug zu Wachheit zu erkennen ist. Da diese Argumente sehr stark auf Menschen bezogen sind, ergibt sich in der Zwischenzeit die Frage, ob auch Künstliche Intelligenz so eine Art von Bewusstsein haben kann.

Nobelpreisträger Sir Roger Penrose hat hier eine deutliche und klare Meinung. Da Künstliche Intelligenz nach seiner Auffassung kein Bewusstsein haben wird, sollten wir nicht von Künstlicher Intelligenz, sondern eher von Künstlicher Cleverness sprechen. Sie dazu Künstliche Cleverness statt Künstliche Intelligenz?

Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World.
Available at: https://www.youtube.com/watch?v=biUfMZ2dts8

AI will not have conscious – Künstliche Intelligenz wird kein Bewusstsein haben.

In seiner Argumentation verwendet Penrose Gödels Theorem, was als Penrose-Lucas Argument (englisch) durchaus auf Kritik in der Wissenschaftswelt gestoßen ist. Was erwartbar war – so ist eben spannende, lebendige Wissenschaft.

Explainable AI (XAI): Was ist das nun schon wieder?

Wie die proprietären KI-Modelle wie ChatGPT, Gemini, Anthropic, Grok, Claude etc. funktionieren, ist oft nicht transparent, wodurch sich letztendlich auch kein wirkliches Vertrauen in diese Systeme aufbauen kann – it all starts with trust.

Es ist daher nur konsequent, wenn immer mehr Einzelpersonen, Unternehmen und Öffentliche Verwaltungen auf offene und transparente KI-Modelle setzen. In dem Zusammenhang gibt es auch ein Forschungsfeld, das sich mit den damit einhergehenden Fragestellungen befasst.

Explainable AI (XAI) – Forschungs- und Anwendungsfeld der Künstlichen Intelligenz, das Methoden entwickelt, um Entscheidungen, Vorhersagen oder generierte Inhalte von KI-Systemen transparent, nachvollziehbar und überprüfbar zu machen. Ziel ist es, Vertrauen zu schaffen und Fehlentscheidungen zu vermeiden.“ (Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen).

Es stellt sich dabei natürlich gleich die Frage, was das z.B. für Kleine und Mittlere Unternehmen (KMU) in der Praxis bedeuten kann. „Gerade in geschäftskritischen Anwendungen ist Vertrauen in die Funktionsweise von KI-Systemen unerlässlich“ (ebd.). Solche Anwendungen sind ganz besonders Innovationsprozesse. Da sich gerade der deutsche Mittelstand innovativ ausrichtet, ja ausrichten muss, kommt Explainable AI (XAI) ein große Bedeutung zu.

Das Fraunhofer Institut hat dazu eine eXplainable Artificial Intelligence (XAI)-Toolbox entwickelt: „Das heißt, die Toolbox kann z. B. zur Datenanalyse, zum Debugging und zur Erklärung der Vorhersage eines beliebigen Black-Box-Modells eingesetzt werden“ (ebd.).

Mistral Vibe: Agentic Coding – Open Source AI

Screenshot: https://mistral.ai/products/vibe

Über die Mistral 3 Modell-Familie, Mistral Le Chat und Mistral Forge habe ich hier schon ausführlich geschrieben. Mistral ist für die Digitale Souveränität in Europa wichtig, da alle KI-Anwendungen europäisch (französisch), DSGVO-konform und Open Source sind. Ganz im Sinne einer Digitalen Souveränität.

Was im Vergleich zu den bekannten proprietären KI-Anwendungen noch fehlte, war das Coding mit Mistral. Dazu wurde nun Mistral Vibe veröffentlicht:

„Agentic coding that meets you where you work. Write, test, and deploy autonomously with full codebase context“ (ebd.).

Da ich kein Experte für das Coding mit Künstlicher Intelligenz bin, habe ich einen Beitrag gesucht, der die Möglichkeiten von Mistral Vibe aus der Coding-Perspektive beschreibt. In dem Artikel Mistral Vibe 2.0: Der terminalbasierte KI-Codierungsagent von Oluseye Jeremiah, veröffentlicht am 02. Februar 2026 auf datacam werden die vielen Vorteile von Mistral Vibe beschrieben.

„Mistral Vibe 2.0 ist ein Terminal-basierter KI-Codierungsagent, der direkt über die Befehlszeile läuft. Anstatt in einem Browser oder als IDE-Plugin zu laufen, arbeitet es direkt im Entwickler-Workflow mit Zugriff auf Dateien und Repositorys.“

Es ist spannend zu sehen, wie sich Mistral, als europäische Alternative zu den bekannten KI-Anwendungen der etablierten amerikanischen Konzerne auf dem Markt behauptet. Erstaunlich ist allerdings auch, dass darüber gar nicht so viel geschrieben wird. Honi soit qui mal y pense.

Künstliche Intelligenz und „grausamer Optimismus“

Der Begriff „Cruel Optimism“ (Grausamer Optimismus) wurde von Lauren Berlant geprägt und ist in Berlant, L. (2011): Cruel optimism ausführlich erläutert. Was ist nach Berlant unter „Grausamer Optimismus“ zu verstehen?

„A relation of cruel optimism exists when something you desire is actually an obstacle to your flourishing“. (…) They become cruel only when the object that draws your attachment actively impedes the aim that brought you to it initially.

Nicht jede optimistische Wunschvorstellung ist per se grausam. Sie wird allerdings zu einem Grausamen Optimismus (Cruel Optimism), wenn das Objekt, an dem Ihre Zuneigung hängt, das Ziel, das Sie ursprünglich dazu geführt hat, aktiv behindert. Das ist nicht ganz leicht zu verstehen. Zwei Beispiele können möglicherweise helfen:

„Zwei hervorragende Beispiele dafür sind die Diätindustrie und die kulturelle Besessenheit von Produktivitätstricks: Anstatt unsere maroden Ernährungssysteme oder die schleichende Kultur von Burnout und Überarbeitung zu betrachten, schieben wir die Verantwortung für eine gesündere Ernährung und ein effizienteres Zeitmanagement auf den Einzelnen ab. Dadurch blenden wir die tieferliegenden Ursachen systemischer Probleme aus. Und wenn die Lösung dann scheitert, geben sich die Betroffenen selbst die Schuld, nicht genug Willenskraft gehabt zu haben“ (Goleman, D. (2026): How AI Could Produce ‘Cruel Optimism’, deutschsprachige Übersetzung mit Google Translate).

Goleman sieht hier auch einen Zusammenhang zwischen Künstlicher Intelligenz und dem von Berlant angesprochenen „Grausamen Optimismus“. Auch Künstliche Intelligenz weckt Wünsche und Sehnsüchte, und verheißt eine optimistische, effiziente Zukunft, da KI alle möglichen Probleme der Menschen lösen kann, bzw. lösen wird.

Wenn wir also mit den KI-Modellen und KI-Agenten die Probleme nicht lösen können, so sind wir Menschen eben die Dummen. Auch hier geben sich die einzelnen Personen, oder Gruppen von Personen, oder sogar Organisationen die Schuld, nicht gut genug zu sein in der Nutzung von Künstlicher Intelligenz. Diese Logik führt zwangsläufig zu einem „Grausamen Optimismus“ in der die Betroffenen sich selbst die Schuld geben. Der oben verlinkte Beitrag von Daniel Goleman enthält noch weitere (englischsprachige) Details dazu.

Interessant ist hier auch, dass Daniel Goleman 1995 den Bestseller Emotional Intelligence. Why it can matter more than IQ (Quelle: Wikipedia) geschrieben hat und Goleman sich in der Tradition von Howard Gardner´s Theorie der Multiplen Intelligenzen versteht.

Wenn alle die selben KI-Workflows nutzen entsteht eine wissenschaftliche Monokultur

AI monoculture feedback loop (Traberg et al. 2026)

In allen möglichen Kontexten soll und wird Künstliche Intelligenz genutzt. Dabei dominieren in unserem Kulturkreis die von den amerikanischen Konzernen entwickelten GenAI-Modelle. Diese werden in allen privaten und organisatorischen Prozessen integriert. Ein Großteil der Personen und Organisationen nutzen dabei die gleichen KI-Workflows.

Das hat beispielsweise im wissenschaftlichen Kontext einen unschönen Effekt: Dadurch, dass alle Wissenschaftler mehr oder weniger stark die selben GenAI-Modelle für ihre Arbeiten nutzen, kommt es zu einer Art „wissenschaftlicher Monokultur„.

Traberg, C.S., Roozenbeek, J. & van der Linden, S. AI is turning research into a scientific monoculture. Commun Psychol 4, 37 (2026). https://doi.org/10.1038/s44271-026-00428-5

In der Abbildung ist der Kreislauf mit seinen einzelnen Schritten dargestellt. Es wird deutlich, dass es sich hier um eine Art Generator handelt, also ein sich selbst verstärkender Wirkungskreislauf.

Auch hier wird deutlich, dass es gut ist, verschiedene KI-Modelle für wissenschaftliche Arbeiten zu nutzen, und die jeweiligen Ergebnisse zu bewerten.

Es stellt sich natürlich auch gleich die Frage, ob diese „wissenschaftliche Monokultur“ auch bei Innovationsprozessen vorkommt. Auch hier nutzen viele Personen und Unternehmen oftmals die gleichen KI-Modelle.

KI-Agenten per Drag & Drop: Langflow for Desktop

https://www.langflow.org/desktop

Langflow ist Open Source basiert und bietet die Möglichkeit, einfache Flows oder auch komplexere KI-Agenten per Drag & Drop zu erstellen.

„Langflow is a powerful tool to build and deploy AI agents and MCP servers. It comes with batteries included and supports all major LLMs, vector databases and a growing library of AI tools“ (Langflow-Website).

Wir haben Langflow auf einem Server installiert, und einige Tests dazu durchgeführt – inkl. der Nutzung von Ollama. Unser Ziel ist es mit einfachen Tools, die Open Source basiert sind und kleine, frei verfügbare Trainingsmodelle (Small Language Models) zu nutzen. Siehe dazu unsere Blogbeiträge zu Langflow.

In diese Richtung geht nun auch die Möglichkeit, Langflow auf dem eigenen Desktop zu nutzen. Dazu kann man sich auf dieser Website die App herunterladen und installieren.

Der Vorteil liegt auf der Hand: Es ist kein Server erforderlich, auf dem Langflow installiert werden muss. Der Nachteil ist allerdings auch klar: Je nach Hardware-Ausstattung des eigenen Desktops sind die Möglichkeiten zur Nutzung größerer Modelle (Large Language Models) noch begrenzt. Wir werden es auf jeden Fall einmal ausprobieren.

Künstliche Intelligenz und das Herkunftsproblem – provenance problem

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

In meinen Konferenz-Paper der letzten Jahrzehnte habe ich natürlich immer darauf geachtet, die jeweilige Quelle anzugeben. Damit ist aus wissenschaftlicher Sicht gewährleistet, dass deutlich wird, was von einem anderen Autor, und was von mir stammt.

Mit der gleichen Vorgehensweise erstellen wir auch unsere Blogbeiträge. Da wir dafür keinen KI-generierten Content nutzen, kann der Leser darauf vertrauen. Das ist besonders wichtig, da Vertrauen die Basis für die Arbeit mit Künstlicher Intelligenz ist it all starts with trust.

Sollte also jemand Künstliche Intelligenz für seine Blogbeiträge, oder sogar für seine wissenschaftlichen Veröffentlichungen nutzen, steht er vor mehreren Herausforderungen, denn das jeweils verwendete KI-Modell zeigt nicht immer auf, welche Quelle es verwendet hat.

Texte, die originalgetreu von anderen übernommen wurden, werden zwar bei einigen KI-Modellen gekennzeichnet, doch andere Texte sind möglicherweise von der KI selbst zusammengestellt worden. Earp et al. (2025) haben das in einem veröffentlichten Paper als Herkunftsproblem (provenance problem) bezeichnet:

„Suppose the LLM trained on, but does not mention, Smith’s text. And suppose we have never read it or even heard of Smith or her work. So, we don’t cite the paper either. Still, our essay now inherits — via nebulous, machine-mediated means — a distinctive insight that Smith developed but for which she receives no credit“

Source: Earp, B.D., Yuan, H., Koplin, J. et al. LLM use in scholarly writing poses a provenance problem. Nat Mach Intell 7, 1889–1890 (2025). https://doi.org/10.1038/s42256-025-01159-8.

Es handelt sich dabei also nicht um Plagiate, sondern um eine subtilere Art der Verschleierung der Herkunft.

Im wissenschaftlichen Kontext wird das thematisiert, doch wie sieht es mit der privaten Nutzung der allseits eingesetzten KI-Modelle wie ChatGPT, Gemini, Anthropix, Grok etc. aus, die man als Black Box bezeichnen kann?

Da deren Trainingsdaten nicht transparent sind, ist das Herkunftsproblem natürlich auch hier vorhanden, doch die einzelnen Nutzer reflektieren über die Ergebnisse nicht so, wie es Wissenschaftler tun, die auf Qualität achten.

Dadurch werden alle möglichen und unmöglichen KI-Resultate weitergegeben und sind dann wiederum Bestandteil der nächsten Ergebnisse. In dem gesamten System entsteht so eine Unschärfe, die auch zu Manipulationen genutzt werden kann.

Minerva AI LLM: Das italienischsprachige KI-Modell

https://minerva-ai.org/

In dem Blogbeitrag Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data hatte ich schon erläutert, wie wichtig es ist, dass sich Organisationen und auch Privatpersonen nicht nur an den bekannten AI-Modellen der Tech-Giganten orientieren.

Die dort oftmals hinterlegten Daten, die natürlich zum überwiegenden Teil in Englisch (oder Chinesisch) vorliegen, spiegeln nicht die vielfältige europäische Kultur mit ihren vielen Nuancen wieder. Kulturelle Bereiche, definieren sich oftmals über die jeweilige Sprache.

Es ist daher nicht verwunderlich, dass es in den jeweiligen europäischen Ländern einen Trend gibt, KI-Modelle zu entwickeln, die die jeweilige sprachlichen Besonderheiten beachten – wie z.B. Minerva AI LLM:

Minerva AI LLM is the first family of Large Language Models pretrained from scratch in Italian developed by Sapienza NLP in collaboration with Future Artificial Intelligence Research (FAIR) and CIN AIECA. The Minerva models are truly-open (data and model) Italian-English LLMs, with approximately half of the pretraining data composed of Italian text. You can chat with Minerva for free directly through the app — it’s easy, fast, and open to everyone.

Es handelt sich also um eine Modell-Familie, die offen für jeden nutzbar ist. Es zeigt sich auch hier wieder, dass Künstliche Intelligenz auf Vertrauen basieren muss, damit sie den gesellschaftlichen und wirtschaftlichen Anforderungen gerecht werden kann. Siehe dazu auch beispielhaft

Künstliche Intelligenz – It All Starts with Trust

Open EuroLLM: Ein Modell Made in Europe

Spanisch: Open Source AI: Veröffentlichung der ALIA AI Modelle für ca. 600 Millionen Spanisch sprechender Menschen weltweit

Schwedisch: GPT SW3

OpenProject Version 17.2: Künstliche Intelligenz in Projekte einbinden

Quelle: https://www.openproject.org/de/blog/openproject-17-2-0-released/

OpenProject ist schon lange eine Alternative zu den proprietären Projektmanagement-Tools wie MS Project oder Jira etc. Die Integration von OpenProject in Nextcloud führt zu einer Kollaborationsplattform, bei der alle Daten auf dem eigenen Server bleiben und alle Anwendungen Open Source basiert sind. Siehe dazu unsere verschiedenen Blogbeiträge zu OpenProject.

Mit der Integration von OpenProject mit Nextcloud (Alternative zu Microsoft Sharepoint), inkl. TALK als Videokonferenzsystem (Alternative zu Microsoft Teams) etc. wurde schon ein wesentlicher Schritt in Richtung Digitale Souveränität am Arbeitsplatz gemacht.

Bei der Version OpenProject 17.2 gibt es eine Weiterentwicklung die es ermöglicht, Künstliche Intelligenz (Large Language Models oder Small Language Models) über einen sicheren MCP Server in die eigenen Projekte einzubinden.

MCP (Model Context Protocol) ist ein offener Standard von Anthropic über den LLM und externe Tools via APIs oder eigene Datenquellen eingebunden werden können.

Wie Sie wissen, schlagen wir in unseren Blogbeiträgen immer vor, Open Source AI und Open Source Software zu verwenden – möglichst auf dem eigenen Server. Dann bleiben alle Daten bei Ihnen und werden nicht von anderen genutzt – ganz im Sinne der Digitalen Souveränität.