Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Die aktuelle Diskussion um Künstliche Intelligenz wird einerseits technisch geführt, andererseits geht es dabei auch um Menschliche Kompetenzen. Alleine diese Gegenüberstellung von „Intelligenz“ hier und „Kompetenz“ dort wirft schon Fragen auf:

(1) Ist der Begriff „Künstliche Intelligenz“ schon ein Kategorienfehler?

Zunächst soll es um den etablierten Begriff „Künstliche Intelligenz“ gehen, der durchaus kritisch hinterfragt werden kann. Genau das hat Beispielsweise der Meister der Systemtheorie, Niklas Luhmann, getan:

„Der Soziologe Niklas Luhmann beschreibt dies treffend als Kategorienfehler (Luhmann & Schorr, 1982) – ein grundlegender Unterschied zwischen maschineller Informationsverarbeitung und menschlichen Qualitäten. Maschinen können zwar Daten präzise und schnell verarbeiten, doch echte Kreativität, Sinnverständnis und emotionale Reflexion bleiben ihnen verschlossen“ (Ehlers 2025, in weiter bilden 1/2025).

Jetzt kann man natürlich anmerken, dass sich diese Argumentation auf die damaligen IT-Systeme bezog, die heutigen KI-Systeme allerdings doch anders sind. Diese Perspektive ist durchaus berechtigt, doch ist an der Argumentation Luhmanns immer noch etwas dran, wenn wir die heutigen KI-Systeme betrachten.

(2) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlicher Intelligenz etwa auch ein Kategorienfehler?

Interessant ist hier, dass es den Hinweis auf einen Kategorienfehler auch aus der Intelligenzforschung gibt. Siehe dazu ausführlicher OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Wenn wir also mit Intelligenz das meinen, was ein Intelligenztest misst, sieht es für den Menschen schon jetzt ziemlich schlecht aus.

Wenn wir allerdings Intelligenz entgrenzen und eher den Ansatz von Howard Gardner sehen, der von Multiplen Intelligenzen ausgeht, wird es schon etwas spannender, denn nach Howard Gardner ist Intelligenz u.a. ein biopsychologisches Potenzial:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner  2002:46-47).

Insofern wäre dann der Vergliche zwischen Künstlicher Intelligenz und Multiplen Intelligenzen ein Kategorienfehler. Siehe dazu auch Künstliche Intelligenz – ein Kategorienfehler? Darin wird auch auf die sozialen und emotionalen Dimensionen bei Menschen hingewiesen.

(3) Ist der Vergleich zwischen Künstlicher Intelligenz und Menschlichen Kompetenzen ein Kategorienfehler?

Wenn wir Künstliche Intelligenz mit Menschlichen Kompetenzen vergleichen, vergleichen wir auch indirekt die beiden Konstrukte „Intelligenz“ und „Kompetenz. In dem Beitrag Kompetenzen, Regeln, Intelligenz, Werte und Normen – Wie passt das alles zusammen? finden Sie dazu ausführlichere Anmerkungen.

Das AIComp-Kompetenzmodell, bei dem nicht die Abgrenzung zwischen den Möglichkeiten der Künstlichen Intelligenz und den Menschlichen Kompetenzen steht, sondern die „produktive Kooperationskultur“ (ebd.). Eine Kooperationskultur zwischen Intelligenz und Kompetenz?

Wenn das alles nicht schon verwirrend genug ist, schreiben mehrere Autoren in dem Gesamtzusammenhang auch noch von Menschlichen Qualitäten oder Skills (Future Skills). Letzteres unterstellt eine eher amerikanische Perspektive auf Kompetenzen.

„Frühere Kompetenzdefinitionen beziehen sich auf die im anglo-amerikanischen Raum gebräuchliche Unterscheidung individueller Leistunsgsdispositionen in Knowledge, Skills, Abilities and Other Characteristics (KSAO), wobei modernere Definitionen auch eher die Selbstorganisationsdisposition in den Vordergrund stellen“ (Freund 2011).

Sollten wir daher lieber von Künstlichen Kompetenzen und Menschlichen Kompetenzen auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk sprechen, und diese dann vergleichen?

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Digitale Souveränität: Welche Open Source Alternativen gibt es?

Open Source Alternativen (Ausschnitt). Quelle: https://digital-sovereignty.net/recommendations/product-recom

In den letzten Jahrzehnten haben wir uns an alle möglichen Tools gewöhnt. Dazu gehören z.B. alle Microsoft-, Google-, Meta-Produkte. Es fällt vielen Privatpersonen und Organisationen sehr schwer, sich aus dieser Abhängigkeit zu befreien (Pfadabhängigkeit). Dennoch merken in letzter Zeit viele Privatpersonen und Organisationen, dass es Zeit wird, Alternativen zu suchen.

Es stellt sich allerdings die Frage: Welche Open Source Alternativen gibt es?

Wer sich bisher mit dem Thema noch nicht wirklich auseinandergesetzt hat, wird über die von Prof. Wehners zusammengestellte Liste an Open Source Alternativen überrascht sein. In der Abbildung ist nur ein Ausschnitt zu sehen. Darin habe ich hervorgehoben (grün umrahmt), welche der genannten Tools wir selbst schon einsetzen. Bei den Videokonferenzen sollte noch das in NEXTCLOUD intergierte TALK mit aufgenommen werden.

Schauen Sie sich die Liste an und überlegen Sie, welche Alternative Sie einmal ausprobieren wollen. Bei Fragen können Sie uns ansprechen. Wir teilen Ihnen gerne unsere Erfahrungen mit.

Künstliche Intelligenz: Von der Produktentwicklung wieder (zurück) zur Prozessentwicklung?

Künstliche Intelligenz wird unseren individuellen Alltag, Unternehmen/Organisationen und letztendlich die gesamte Gesellschaft in verschiedenen Anwendungsformen immer stärker beeinflussen.

Dabei deutet sich in den Unternehmen/Organisationen eine interessante Entwicklung an.

Organisationen waren in den letzten 100 Jahren der Industrialisierung darauf fokussiert, ihre Prozesse (oftmals Routineprozesse) immer weiter zu optimieren, effektiver und effizienter zu machen. Diese Prozesslandschaften haben dann zu den bekannten Qualitätsmanagement-Systemen oder auch Projektmanagement-Systemen geführt. Gerade im Projektmanagement hat sich diese Vorgehensweise (Vorgehensmodelle) bei Projekten im Entwicklungsbereichen (Innovationen) zu einer Arbeitsform (Vorgehensmodell) entwickelt, die eher produktorientiert ist. Paradebeispiel dafür ist das Scrum-Framework mit den zu erzielenden Increments am Ende des Sprints oder das Minimum Viable Product (MVP), das wir aus dem Lean Start-up-Ansatz kennen.

Dieser Trend wird aktuell durch Künstliche Intelligenz scheinbar wieder umgekehrt. Wie kommt das?

Schauen wir uns einmal an, wie stark Künstliche Intelligenz den gesamten Lebenszyklus der Software-Entwicklung beeinflusst, so können wir erahnen, dass die Zyklen, in denen ein (Software-)Ergebnis (Increment, MVP) produziert werden kann, immer kürzer werden. Möglicherweise so kurz, dass es sich gar nicht mehr lohnt, den gesamten Scrum-Zyklus mit den vorgesehenen Artefakten und Events durchzuführen, und es zu einem kontinuierlichen Fluss an Ergebnissen (Produkten) kommt. In meinem Beitrag Künstliche Intelligenz: Wird Scrum durch den permanenten Fluss an Produkten zu Kanban? hatte ich das schon einmal angedeutet. Es freut mich daher, dass der Gedanke durchaus auch von anderen Autoren vertreten wird:

„Der Fokus essenzieller Design- und Architekturentscheidungen verschiebt sich in der Digitalisierung genau wie einst in der Industrialisierung von der Produktentwicklung hin zur Prozessentwicklung. Hier schließt sich auch der Kreis zu Scrum, denn zwei der wichtigsten Scrum-Pioniere Hirotaka Takeuchiund Ikujiro Nonaka kamen ursprünglich aus industriellen Produktions- und Innovationskontexten, nicht aus der Softwareentwicklung“ (Immich, T.(2025): KI-Agenten Teil 2: Von der Produktentwicklung zur Prozessoptimierung, in Heise Online vom 27.05.2025).

Digitale Souveränität: Souveränitätsscore für KI Systeme

Souveränitätsscore für KI-Systeme – Ausschnitt (Quelle: https://digital-sovereignty.net/score/score-ai)

In der Zwischenzeit sind sehr viele KI-Modelle (AI Model) verfügbar, sodass es manchmal zu etwas unscharfen Beschreibungen kommt. Eine erste Unterscheidung ist, Closed Source AI, Open Weights AI und Open Source AI nicht zu verwechseln. In dem Beitrag AI Kontinuum wird das erläutert.

„OpenAI“ wurde beispielsweise als Muttergesellschaft von ChatGPT 2015 als gemeinnützige Organisation gegründet, seit 2019 ist „OpenAI“ gewinnorientiert und wird von Microsoft dominiert. Durch geschicktes Marketing wird oftmals suggeriert, dass von kommerziellen Anbietern bereitgestellte Modelle „Open Source AI“ sind.

Dabei stellt sich natürlich gleich die Frage, nach einer entsprechenden Definition, die es auch seit 2024 gibt: Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht.

Wenn Sie sich also für AI Modelle interessieren, können Sie dieses Modell gegenüber den in der Definition genannten Kriterien prüfen.

Weiterhin können Sie den Souveränitätsscore für KI Systeme von Prof. Wehner nutzen (Abbildung). Schauen Sie sich auf der Website auch noch weiter um – es lohnt sich.

Künstliche Intelligenz: Ein gesellschaftlicher Bifurkationspunkt mit der Chance für einen Pfadwechsel?

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

In unserer heutigen Welt, in der alles und jeder miteinander vernetzt ist, ist die Komplexität in allen Systemen nicht nur Theorie, sondern hat auch für jeden Einzelnen praktische Auswirkungen. Dabei scheint es eine gewisse gesellschaftliche Ohnmacht gegenüber den vielfältigen globalen Problemen zu geben. Denn obwohl es Belege für diese Probleme gibt, wird nicht/kaum gehandelt. Siehe dazu z.B. Nassehi (2020) mit der entsprechenden Begründung aus der Systemtheorie.

In „Zeiten von Corona“ allerdings haben wir deutlich erkennen können, dass es den jeweiligen Staaten durchaus gelungen ist, für die Menschen und deren Überleben zu handeln. Dabei wurde auf die Unternehmen und Finanzinstitutionen im Markt weniger Rücksicht genommen. Solche historischen Punkte können also Wendepunkte (Bifurkationspunkte) dafür sein, von bekannten Wegen – also einer Pfadabhängigkeit – abzuweichen, und neue Wege/Pfade zu gehen.

„In bestimmten Konstellationen aber, zu bestimmten Zeitpunkten im historischen Verlauf, die als geschichtliche „Bifurkationspunkte“ begriffen werden können, eröffnen sich plötzlich Chancen auf einen Pfadwechsel, weil aufgetretene Anomalien nicht mehr ignoriert werden können (vgl. Knöbl 2010; Goldstone 1998). Es handelt sich um Krisenmomente, in denen die Fortsetzung der institutionellen Operationen in Frage steht, in denen eben nicht klar ist, wie es weitergeht, weil die Prozessketten gerissen sind. An solchen Gabelungen erscheint es vielen Akteuren wünschenswert, auf den alten Pfad zurückzukehren und so schnell wie möglich die eingespielten Routinen wiederzubeleben. Es ist aber auch möglich, einen neuen Pfad einzuschlagen“ (Rosa, H. Pfadabhängigkeit, Bifurkationspunkte und die Rolle der Soziologie. Ein soziologischer Deutungsversuch der Corona-Krise. Berlin J Soziol 30, 191–213 (2020). https://doi.org/10.1007/s11609-020-00418-2).

Stehen wir möglicherweise mit dem Aufkommen Künstlicher Intelligenz wieder vor so einem Wendepunkt, einem Bifurkationspunkt, der staatliche Organisationen dazu aufruft, ihre tradierten, marktorientierten Entscheidungen wieder mehr auf das Wohl der Menschen auszurichten? Siehe dazu auch

Der Strukturbruch zwischen einfacher und reflexiver Modernisierung

“Pfadabhängigkeit” in Organisationen

Alle reden über Komplexität, doch wer kennt schon Bifurkationspunkte?

Hybrides Projektmanagement: “Emergent Practice” und Bifurkationspunkte

Worin unterscheiden sich Industry 5.0 und Society 5.0?

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Künstliche Intelligenz beeinflusst den gesamten Lebenszyklus der Software-Entwicklung

High-level software development life cycle (McKinsey (2024): The gen AI skills revolution: Rethinking your talent strategy)

Wie in dem Beitrag von McKinsey (2024) ausführlich erläutert wird, beeinflusst Künstliche Intelligenz (GenAI) alle Schritte/Phasen der Softwareentwicklung. Drüber hinaus werden in Zukunft immer mehr KI-Agenten einzelne Tasks eigenständig übernehmen, oder sogar über Multi-Agenten-Systeme ganze Entwicklungsschritte.

Die Softwareentwicklung hat dazu beigetragen, dass Anwendungen der Künstlichen Intelligenz heute überhaupt möglich sind. Es kann allerdings sein, dass Künstliche Intelligenz viele Softwareentwickler und deren Unternehmen überflüssig macht.

Möglicherweise ist in Zukunft auch jeder Einzelne Mensch in der Lage, sich mit Künstlicher Intelligenz kleine erste Programme schreiben zu lassen – ohne dass Programmierkenntnisse erforderlich sind. Ganz im Sinne von Low Code, No Code und Open Source.

So eine Entwicklung kann als Reflexive Innovation bezeichnet werden: „Die Revolution frisst ihre eigenen Kinder“ (Quelle). Siehe dazu ausführlicher Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.

Digitale Souveränität: Google Drive im Vergleich zu Nextcloud

Vergleich zwischen Google Drive und Nextcloud im Rahmen der Bewertung mithilfe des Souveränitätsscores
.

Der Souveränitätsscore von Prof. Wehnes stellt verschiedene Kriterien auf, anhand derer Angebote verglichen werden können. In der Abbildung ist zu erkennen, dass Google Drive und Nextcloud (Open Source) gegenübergestellt wurden. Das Ergebnis ist eindeutig.

Google Drive erfüll kein einziges Kriterium, wohingegen Nextcloud 5 von insgesamt 6 Kriterien erfüllt. Daraus ergibt sich für Google Drive ein Souveränitätsscore von 0 und für Nextcloud ein Souveränitätsscore von 1.

Diese einfache Gegenüberstellung zeigt, dass die Digitale Souveränität mit Nextcloud erreicht werden kann.

Fangen Sie an, und machen Sie den ersten Schritt zu Ihrer eigenen Digitalen Souveränität, indem Sie auf Open Source Anwendungen setzen, bei denen Sie die Kontrolle über Ihre eigenen Daten haben – z.B. mit Nextcloud.

Wir nutzen seit 2022 auf unserem Server Nextcloud und in der Zwischenzeit auch LocalAI. Dabei können wir innerhalb von Nextcloud auf KI-Modelle zurückgreifen – alle Daten bleiben dabei auf unserem Server. Der nächste Schritt ist, KI-Agenten auf unserem Server zu entwickeln. Siehe dazu auch

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften und

Souveränitätsscore: Zoom und BigBlueButton im Vergleich.

Perspektiven auf Innovation: Von „eng“ zu „erweitert“ bis gesellschaftlich „zielgerichtet“

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Der Blick auf Innovation ist immer noch sehr eng (narrow) und geprägt von dem Ansatz Schumpeters aus dem Jahr 1934. Dabei geht es bei Innovationen darum, vorwiegend technische Ideen zu kommerzialisieren, also für den Markt nutzbar zu machen. Die Gesellschaft war und ist dabei Empfänger der neuen Produkte und Dienstleistungen.

Eine etwas breitere (broader) Sicht auf Innovation erweitert den ursprünglichen Ansatz, indem nicht rein technologische, sondern auch Konzepte (Business Model Innovation), soziale Innovationen usw. hinzukommen.

In der Zwischenzeit geht man bei der Betrachtung von Innovation noch einen Schritt weiter und stellt den gesellschaftlichen Zweck (purposive) in den Mittelpunkt. Im Zusammenspiel zwischen Wissenschaft, Technologie und Innovationen soll es dadurch zu gesellschaftlichen Transformationen kommen.

„Within narrow understandings of innovation, in which innovation is defined as the commercialisation of research, emphasis is placed on the roles of science, academia, industry, and national governments in supporting scientific and technical knowledge. Society is frequently viewed as passively adopting innovations introduced by science and large corporations (Joly, 2019). Conversely, according to broad-based understandings, innovation encompasses the entire process of conceiving and actualising a novel concept or idea; it is not limited to technological advancements (Godin & Lane 2013). (…) Moreover, according to purposive understandings, innovation should be transformative in nature and result in sustainable change“ (Nordling, N. 2024).

Es geht heute also darum, mit Innovationen Probleme in der Gesellschaft, zum Wohle (eigene Bemerkung) der Menschen und seiner Umwelt zu lösen. Siehe dazu auch Worin unterscheiden sich Industry 5.0 und Society 5.0?

Wir sollten dazu kommen, Technologie – heute ist es die Künstliche Intelligenz – für die Gesellschaft einzusetzen, und nicht vorwiegend zum wirtschaftlichen Vorteil von einigen wenigen Tech-Konzernen, die die sozialen Folgen den Gesellschaften überlassen.

Dabei kommt es zu einer Friktion bei den beiden Geschwindigkeiten: Technik (KI) verändert sich in Sekunden, Gesellschaften – und mit ihnen das gesamte gesellschaftliche System – eher langsam. Wenn wir die Menschen mitnehmen wollen, sollte der Staat – und hier meine ich eher die Europäische Union – den Rahmen setzen, denn die Tech-Giganten werden sich nicht zurückhalten. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Künstliche Intelligenz und Kompetenz

Wenn ein neues Thema aufkommt, geht es dabei oft auch darum, entsprechende Kompetenzen zu entwickeln. Als beispielsweise immer klarer wurde, dass die Digitalisierung alle Bereiche unseres Lebens beeinflussen wird, wurde schnell von Digitalen Kompetenzen gesprochen und geschrieben, die alle und jeder entwickeln sollte/müsste. In dem Beitrag “Digitale Kompetenzen” oder besser “Kompetenzen in digitalen Kontexten”? habe ich erläutert, warum es in diesem Fall besser ist, von Kompetenzen in digitalen Kontexten zu sprechen. Solche Bindestrich-Kompetenzen gibt es in sehr vielen Facetten – nun auch bei dem Thema Künstliche Intelligenz.

Auch hier wird schnell von KI-Kompetenzen gesprochen, ohne zu reflektieren, dass es grundsätzlich Kompetenzen sind, die im Kontext der Künstlichen Intelligenz entwickelt (nicht vermittelt!) werden sollen. In diesem Zusammenhang verweise ich gerne darauf, Kompetenzen als Selbstorganisationsdispositionen zu sehen. Diese Perspektive geht auf Erpenbeck und Heyse zurück:

„Die Handlungskompetenztheorie von Erpenbeck und Heyse (Erpenbeck 2012, Erpenbeck & Sauter 2015, Heyse & Erpenbeck 2007) wiederum betont die Bedeutung von selbstorganisiertem und werteorientiertem Handeln in komplexen Situationen, was sich auch auf den Bereich der KI übertragen lässt. Personen mit hoher Handlungskompetenz
sind dann in der Lage, Handlungen zu entwickeln, um erfolgreich handlungsfähig zu sein und zu bleiben“ (Ehler et al. 2025).

Siehe dazu auch

Hybridisierung von Kompetenzen: Kompetenzmanagement in Zeiten von Künstlicher Intelligenz

Persönlichkeitseigenschaften, -fähigkeiten und Kompetenzen

Projektmanagement: KI-Unterstützung der ICB 4.0 Kompetenzen

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk

Open Source AI: Veröffentlichung der ALIA AI Modelle für ca. 600 Millionen Spanisch sprechender Menschen weltweit

Quelle: https://alia.gob.es/

Es ist schon erstaunlich, wie unreflektiert viele Privatpersonen, Organisationen oder auch Öffentliche Verwaltungen Künstliche Intelligenz (AI / GenAI) von den bekannten Tech-Unternehmen nutzen. Natürlich sind diese Closed Source AI Models, oder auch Open Weights Models, sehr innovativ und treiben durch immer mehr neue Funktionen die Anwender vor sich her. Viele kommen dabei gar nicht richtig zum Nachdenken. Möglicherweise ist das ja auch so gewollt….

Die Notwendigkeit, Open Source AI zu nutzen wird gerade im Hinblick auf die europäischen Rahmenbedingungen immer wichtiger. Siehe dazu Digitale Souveränität: Europa, USA und China im Vergleich.

Hinzu kommt noch, dass es immer mehr länderspezifische KI-Modelle gibt, die den sprachlichen Kontext, und damit die sprachlichen Besonderheiten besser abbilden. Die wichtigsten LLM (Closed Source AI) sind mit englischsprachigen Daten trainiert und übersetzen dann in die jeweilige Sprache. Das klappt zwar recht gut, doch fehlt es gerade bei Innovationen, oder kulturellen regionalen Besonderheiten, an der genauen Passung.

Die spanische Verwaltung hat nun die Initiative ALIA gestartet, die 100% öffentlich finanziert ist, und eine KI-Ressource für alle Spanisch sprechenden Menschen sein soll. Dazu gehören auch frei verfügbare AI Modelle (LLM) (…)

„(…) to generate ethical and trustworthy AI standards, with open-source and transparent models, guaranteeing the protection of fundamental rights, the protection of intellectual property rights and the protection of personal data, and developing a  framework of best practices in this field (Vasquez in OSOR 2025).

„ALIA es una iniciativa pionera en la Unión Europea que busca proporcionar una infraestructura pública de recursos de IA, como modelos de lenguaje abiertos y transparentes, para fomentar el impulso del castellano y lenguas cooficiales -catalán y valenciano, euskera y gallego- en el desarrollo y despliegue de la IA en el mundo“ (ALIA Website)

Es freut mich zu sehen, wie die einzelnen europäischen Regionen oder Länder Initiativen starten, die die europäischen, oder auch regionalen Besonderheiten berücksichtigen – und das alles auf Open Source Basis. Siehe dazu auch

Open Source AI Definition – 1.0: Release Candidate 2 am 21.10.2024 veröffentlicht

Open Source AI-Models for Europe: Teuken 7B – Training on >50% non English Data.