Intelligentes Handeln: Was ist, wenn die Intelligenz im Handeln zu finden ist?

Wir gehen oft noch von scheinbar eindeutigen Ursache-Wirkungs-Zusammenhängen aus (Reduktionismus), Wir schließen beispielsweise bei einer intelligenten Handlung (Wirkung) eines Menschen auf eine möglicherweise dahinterliegende menschliche Intelligenz (Ursache).

Dass es solche einfachen Zusammenhänge in komplexen Systemen so nicht gibt, wurde schon vor vielen Jahrzehnten von Ryle bezweifelt. Er nannte ein solches Vorgehen Intellektualistische Legende. und erläutert: „Die intelligente Praxis“ (Ryle (1949:28), „ist nicht ein Stiefkind der Theorie“.

„Ganz allgemein gesprochen, macht die intellektualistische Legende die absurde Annahme, jede Verrichtung, welcher Art auch immer sie sei, erwerbe ihren gesamten Anspruch auf Intelligenz von einer vorausgehenden inneren Planung dieser Verrichtung“ (Siehe dazu weitaus differenzierter Neuweg, G. H. (2004): Könnerschaft und implizites Wissen).

Doch: Wo versteckt sich dann die Intelligenz?

Dazu schreibt Ryle: „Eine intelligente Handlung „hat eine besondere Art oder Ausführung, nicht besondere Vorgänger“ (1949, S. 36). Natürlich weist sie über sich selbst hinaus, aber „die Ausübung ist keine Doppeloperation, bestehend aus theoretischem Bekennen von Maximen und darauffolgender Umsetzung in die Praxis“ (1949, S. 56). Auch wenn wir eine Disposition, die sich als flexibles Können zeigt, mit Recht als Zeichen von Intelligenz betrachten, ist nicht eine innerliche Schattenhandlung, sondern das Können selbst der Träger der Intelligenz. Intellektuelle Operationen sind keine Ausführungen, die zu intelligenten Tätigkeiten hinzutreten. „Offene intelligente Verrichtungen sind nicht der Schlüssel zur Arbeit des Geistes; sie sind diese Arbeit“ (1949, S. 73)“ (vgl. Neuweg 2004).

Wenn also das Können selbst Träger der Intelligenz ist, und eine scheinbar intelligente Handlung eines Menschen nicht auf seine Menschliche Intelligenz zurückzuführen ist, so kann auch die „intelligente Handlung“ eines KI-Modells nicht auf eine Art von Künstlicher Intelligenz zurückgeführt werden – ein Kategorienfehler? Siehe dazu auch

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler?

Biologische Intelligenz – Intelligenz-Quotient (IQ) – Soziale Intelligenz

Eigene Darstellung nach Eysenck (2004)

In der heutigen Intelligenzdiskussion gibt es viele Facetten. Eine davon ist beispielsweise der Vergleich von Künstlicher Intelligenz mit dem Intelligenz-Quotienten (IQ). Dass dieser Vergleich möglicherweise ein Kategorienfehler ist, hatte ich schon in dem Beitrag Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler erläutert.

In diesem Blogbeitrag möchte ich nun die Überlegungen für einen Intelligenz-Quotienten (IQ) und mögliche Kritikpunkte daran erläutern.

Wie der Abbildung zu entnehmen ist, bezieht sich der Intelligenz-Quotient (IQ), der als Psychometrische Intelligenz bezeichnet werden kann, auch darauf, dass diese aus der Biologischen Intelligenz hervorgeht. Eysenck, ein Vertreter der Psychometrischen Intelligenz, deutet damit auf den biologischen Charakter und den in den menschlichen Genen vorgegebenen Teil von Intelligenz hin. Der von der Psychometrischen Intelligenz verwendete Intelligenzbegriff basiert konsequenterweise auf diesen Annahmen:

„Unser Begriff „Intelligenz“ leitet sich von den lateinischen Wörtern intelligentia und ingenium her. Jenes bedeutet in Ciceros Verwendungsweise in etwa „Begreifen“ und „Wissen“, dieses soviel wie „natürliche Veranlagung“ oder Begabung“. Die zwei Bedeutungskomponenten sind dem Begriff „Intelligenz“ bis heute eigen geblieben“ (Eysenck 2004).

Eine Erweiterung der Psychometrischen Intelligenz (IQ) in Richtung einer Sozialen Intelligenz lehnt Eysenck kategorisch ab, und begründet das wie folgt: „Das Konzept der sozialen oder praktischen Intelligenz ist eindeutig viel zu komplex, als dass es irgendeinen wissenschaftlichen Wert haben könnte; zum Wesen der Wissenschaft gehört es ja auch und gerade, komplexe Konzepte auf einfache, elementarere zu reduzieren“ (Eysenck 2004). Die Vereinfachung komplexer Sachverhalte ist heute allerdings unangemessen.

Im Gegensatz dazu gibt es immer mehr Hinweise darauf, Intelligenz weniger reduktionistisch und besser als komplexes System zu verstehen, was eine deutlich bessere Passung mit dem heute üblichen Umgang mit Komplexität haben würde. Intelligenz-Theorien, die so einem Anspruch gerecht werden, sind:

„Die Triarchische Theorie (vgl. Sternberg 1985a/1985b) und die Multiple Intelligenzen Theorie (vgl. Gardner 1983/1993) scheinen geeignet zu sein, wenn es um eine notwendige Erweiterung des Intelligenzbegriffs geht (vgl. Siebert/Seidel 2000:48), da beide Theorien als Systemmodelle bezeichnet werden können, die „auch externe Aspekte des Erlebens und Denkens [mit einbeziehen, und] (…) Intelligenz als komplexes System betrachten“ (Schulze et al. 2006:15)“ (zitiert in Freund 2011).

Siehe dazu etwas ausführlicher Intelligenztheorie: Anmerkungen zu Sternbergs Triarchischen Theorie und Gardners Multiple Intelligenzen Theorie.

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen

Image by StockSnap from Pixabay

In verschiedenen Beiträgen hatte ich schon ausgeführt, dass es am Konstrukt der Messbarkeit der Intelligenz in Form eines Intelligenz-Quotienten (IQ) schon lange Kritik gibt.

In Zeiten von Künstlicher Intelligenz führt der Ansatz eines IQ in der Zwischenzeit zu verschiedenen „Stilblüten“: Beispielsweise hat das OpenAI Model „o1“ einen IQ von 120 – ein Kategorienfehler?

Das Intelligenz-Konstrukt sollte sich in einer immer komplexeren Umwelt weiterentwickeln, um wieder eine bessere Passung zur gesellschaftlichen Entwicklung zu haben. Siehe dazu Intelligenz-Quotient (IQ) aus Sicht der Komplexitätsforschung. Gigerenzer (2007) hat in seinem Buch Bauchentscheidung noch folgenden Aspekt in die Diskussion um die Messbarkeit von Intelligenz eingebracht:

Es ist ein Irrtum anzunehmen, Intelligenz sei zwangsläufig bewusst und hänge nur mit Überlegung zusammen. (…) Doch diese Auffassung ist nicht totzukriegen. Sogar wenn es um emotionale Intelligenz geht, herrscht noch die Ansicht vor, man könne sie messen, indem man Fragen stellt, die das deklarative Wissen betreffen. Beispielsweise forderte man die Befragten auf, sich in Bezug auf die Aussage »Ich weiß, warum meine Gefühle sich verändern« selbst einzustufen (siehe Matthews et al. 2004). Dem liegt die Überzeugung zugrunde, dass Menschen in der Lage und bereit sind mitzuteilen, wie ihre Intelligenz funktioniert. Im Gegensatz dazu zeigten die einflussreichen Untersuchungen von Nisbett und Wilson (1977), dass wir häufig keinen introspektiven Zugriff auf die Gründe unserer Urteile und Gefühle haben. Die Forschung zum impliziten Lernen beschäftigt sich mit Lernvorgängen, die unabsichtlich und unbewusst stattfinden (Lieberman 2000; Shanks 2005)“ (Gigerenzer 2007).

Wenn etwas nicht messbar ist, wird es eben messbar gemacht. Getreu dem bekannten Management-Spruch: „If you can not measure it, you can not manage it“. Die Frage stellt sich heute natürlich: Stimmt das Mantra denn noch ? Denn es wird in vielen Bereichen immer deutlicher, dass Kennzahlen eine risikoreiche Reduzierung der Komplexität darstellen können. Siehe dazu auch

Die Messbarmachung der Intelligenz: Ein Phänomen der Industrialisierung?

Künstliche Intelligenz und Menschliche Intelligenz

Künstliche Intelligenz – ein Kategorienfehler?

Sind wir nicht intelligent genug, um zu wissen, was Intelligenz ist?

Image by Gerd Altmann from Pixabay

Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).

Dass die Messbarmachung der Intelligenz in Zeiten von Künstlicher Intelligenz tückisch sein kann, habe ich in dem Beitrag OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler? erläutert. Hans Markus Enzensberger hat sich auch mit der IQ-Messung intensiv befasst, und ist zu folgendem Schluss gekommen:

Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).

Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.

Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.

Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch 

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Über den Unsinn von Intelligenztests

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Added Values: Nutzendimensionen, Wert und Werte

Krieg/Groß/Bauernhansl (2024) (Hrsg.): Einstieg in die Mass Personalization. Perspektiven für Entscheider

Wenn es um den Nutzen, oder den Wert, eines Produktes oder einer Dienstleistung geht, sollten grundsätzlich zwei Punkte beachtet werden.

(1) Die verschiedenen Dimensionen von Nutzen (Added Values)
In der Abbildung ist zu erkennen, dass Added Values fünf Dimensionen beinhalten. Neben dem funktionalen Nutzen, sind das natürlich der wirtschaftliche Nutzen, ein prozessoraler Nutzen und ein emotionaler Nutzen, Die Dimension, die stärker in den Fokus rücken sollte, ist der soziale Nutzen (eigene Hervorhebung in der Abbildung). Am Beispiel der Anwendung von Künstlichen Intelligenz wird deutlich, dass der Fokus in der aktuellen Diskussion zu sehr auf dem wirtschaftlichen Nutzen liegt, und zu wenig den sozialen Nutzen thematisiert.

(2) Nutzen, Wert und Werte
Bei einer ausgewogenen Betrachtung zur Nutzung Künstlicher Intelligenz auf der persönlichen Ebene, auf der Team-Ebene, auf der organisationalen Ebene oder auf gesellschaftlicher Ebene können Werte als Ordner dienen. „Der Begriff »Werte« unterscheidet sich vom Begriff »Wert« dadurch, dass der erste Begriff die Gründe beschreibt, warum etwas für jemanden wichtig ist. Werte repräsentieren normative Grundlagen, die als Leitprinzipien für individuelles Verhalten und gesellschaftliche Strukturen dienen. Sie bilden die Basis für die Bewertung von Wert und beeinflussen die Art und Weise, wie Individuen und Gesellschaften Güter, Dienstleistungen oder Handlungen priorisieren“ (Hämmerle et al. 2025, Fraunhofer HNFIZ).

Siehe dazu auch

Künstliche Intelligenz und Werte für das Zusammenleben in der Europäischen Union

Agile Organisation: Werte und Prinzipien als Hebelwirkung

Wirkungstreppe bei Not-for-Profit-Projekten: Output, Outcome und Impact

MCP: Konferenz zu Mass Customization and Personalization im September 2026

Open Source AI: Kimi K2 Thinking vorgestellt

Mit DeepSeek ist chinesischen Entwicklern ein Coup gelungen, denn sie konnten zeigen, dass ein KI-Modell nicht teuer sein muss. Die amerikanischen Tech-Giganten standen damals mit ihren Milliarden-Investitionen ziemlich schlecht dar.

Nun gibt es mit Kimi K2 Thinking ein weiteres Modell, mit dem chinesische Entwickler zeigen, wie mit relativ wenigen Ressourcen – und damit Kosten – ein leistungsfähiges Modell angeboten werden kann. Der Schwerpunkt des Modells liegt dabei auf „Coding“.

Es ist Open Source basiert und wurde unter der MIT-Lizenz veröffentlicht. Diese enthält eine interessante Klausel: Da amerikanische Konzerne chinesische Open Source Modelle gerne für ihre Entwicklungen nutzen – ohne das transparent zu machen – ist die freie kommerzielle Nutzung bis zu einem monatlichen Umsatz von 20 Millionen Dollar möglich.

Kimi K2 Thinking ist ein MoE-Modell, (for Coding) dessen Entwicklung nur 4,6 Millionen Dollar gekostet haben soll – wieder eine beeindruckende Kennzahl. Darüber hinaus zeigen Benchmarks, die enorme Leistungsfähigkeit des Modells. Weitere Informationen sind in dem folgenden Beitrag zusammengefasst:

Moonshot AI stellt Kimi K2 Thinking als „bestes Open-Source-Thinking-Modell“ vor (Krempler, J. 2025, in the decoder vom 07.11.2025).

Mal sehen, ob wir das Modell auch in LocalAI, bzw. in Ollama auf unseren Servern einbinden können. Bis dahin kann auf der Landingpage Kimi K2 Thinking getestet werden.

Emotionale Intelligenz und Künstliche Intelligenz am Arbeitsplatz

Wenn es um Künstliche Intelligenz geht, kommt auch immer öfter der Hinweis auf, dass Emotionale Intelligenz immer wichtiger wird. In dem Blogbeitrag AI City und Emotionale Intelligenz wird beispielsweise auf den Zusammenhang mit AI Citys verwiesen:

“For a smart city, having only “IQ” (intelligence quotient) is not enough; “EQ” (emotional quotient) is equally essential. (…) the emotions of citizen communities …“

Hier wird also vorgeschlagen, neben dem Intelligenz-Quotienten (IQ) noch einen Emotionalen Quotienten (EQ) bei der Betrachtung zu berücksichtigen.

Doch was verstehen wir unter „Emotionale Intelligenz“?

Ich beziehe mich hier auf eine Beschreibung von Salovay und Mayer, und bewusst nicht auf den populären Ansatz von Goleman:

“Emotional intelligence is a type of social intelligence that involves the ability to monitor one’s own and others’ emotions to discriminate among them, and to use the information to guide one’s thinking and actions (Salovey & Mayer 1990)”, cited in Mayer/Salovay 1993, p. 433).

Die Autoren sehen also Emotionale Intelligenz als Teil einer Sozialen Intelligenz. Spannend ist weiterhin, dass Mayer und Salovay ganz bewusst einen Bezug zur Multiplen Intelligenzen Theorie von Howard Gardner herstellen. Siehe Emotionale Intelligenz: Ursprung und der Bezug zu Multiplen Intelligenzen.

Betrachten wir nun Menschen und AI Agenten im Zusammenspiel, so muss geklärt werden, woran AI Agenten (bisher) bei Entscheidungen scheitern. Dazu habe ich folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Auch Daniel Goleman, der den Begriff „Emotionale Intelligenz“ populär gemacht hat, beschreibt den Zusammenhang von Emotionaler Intelligenz und Künstlicher Intelligenz am Arbeitsplatz, und weist auf die erforderliche Anpassungsfähigkeit (Adaptability) hin:

Adaptability: This may be the key Ei competence in becoming part of an AI workplace. Along with emotional balance, our adaptability lets us adjust to any massive transformation. The AI future will be different from the present in ways we can’t know in advance“ (EI in the Age of AI, Goleman via LinkedIn, 30.10.2025).

Was mir allerdings an der Formulierung nicht gefällt ist der Begriff „Ei competence“, denn Intelligenz und Kompetenz sind durchaus unterschiedlich. Siehe dazu Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Menschen und AI Agenten im Zusammenspiel

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Immer mehr Organisationen fragen sich, inwiefern Workflows und besonders AI Agenten die bisher von Menschen durchgeführten Arbeiten ersetzen werden. In dem Blogbeitrag The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen wird deutlich, was heute schon in einzelnen Branchen möglich ist.

Auch der Jobs Reports 2025 des WEF zeigt auf, dass bis 2030 wohl 172 Millionen neue Jobs entstehen, und 92 Millionen wegfallen werden. Es geht dabei nicht immer um komplette Jobs, sondern auch um Teilbereiche oder Tätigkeitsportfolios, die immer mehr von AI Agenten übernommen werden (können).

Alles was mit Logik und Speicherung zu tun hat, ist eher die Stärke von Künstlicher Intelligenz, den Workflows, bzw. den AI Agenten. Doch in welchen Bereichen versagen AI Agenten noch? Dazu habe ich den folgenden Text gefunden:

„AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second“ (Bornet 2025 via LinkedIn).

Dabei bezieht sich Bornet auf eine Veröffentlichung von Bang Liu et al. (2025:19-20), in dem die Autoren drei Hirnregionen in Bezug auf AI (Artificial Intelligence) untersuchten. L1: Well developed; L2: Partially developed; L3: Underexplored.

Das Ergebnis ist also, dass AI Agenten in den Ebenen Emotionen, Kontext und Motivation unterentwickelt sind (L3), wenn es um menschliche Entscheidungen geht.

Erkenntnis (Cognition) entsteht dabei nicht nur in einem Bereich im Gehirn, sondern durch das Zusammenspiel vieler unterschiedlich vernetzter Areale. Bei komplexen Problemlösungsprozesse (CPS: Complex Problem Solving) geht es verstärkt um Emotionen, Kontext und Motivation.

Im Idealfall könnten Menschen an diesen Stellen einen Mehrwert für eine qualitativ gute Problemlösung (Erkenntnis) einbringen. Es stellt sich dabei allerdings auch die Frage, wie stark sich Menschen an die Möglichkeiten einer Künstlichen Intelligenz (AI Agenten) anpassen sollen.

Zusätzlich können die in dem sehr ausführlichen wissenschaftlichen Paper von Bang Liu et al. (2025) erwähnten Zusammenhänge Hinweise geben, wie die Zusammenarbeit – das Zusammenspiel – zwischen Menschen und AI Agenten organisiert, ja ermöglicht werden kann.

Künstliche Intelligenz im Projektmanagement: Ethische Kompetenz für die Projektleitung?

In allen Projekten werden mehr oder weniger oft digitale Tools, bzw. komplette Kollaborationsplattformen eingesetzt. Hinzu kommen jetzt immer stärker die Möglichkeiten der Künstlicher Intelligenz im Projektmanagement (GenAI, KI-Agenten usw.).

Projektverantwortliche stehen dabei vor der Frage, ob sie den KI-Angeboten der großen Tech-Konzerne vertrauen wollen – viele machen das. Immerhin ist es bequem, geht schnell und es gibt auch gute Ergebnisse. Warum sollte man das hinterfragen? Möglicherweise gibt es Gründe.

Es ist schon erstaunlich zu sehen, wie aktuell Mitarbeiter ChatGPT, Gemini usw. mit personenbezogenen Daten (Personalwesen) oder auch unternehmensspezifische Daten (Expertise aus Datenbanken) füttern, um schnelle Ergebnisse zu erzielen – alles ohne zu fragen: Was passiert mit den Daten eigentlich? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Je innovativer ein Unternehmen ist, desto einzigartiger sind seine Daten. Was mit diesen Daten dann passiert, ist relativ unklar. Es wundert daher nicht, dass nur ein kleiner Teil der Unternehmensdaten in den bekannten LLM (Large Language Models) zu finden ist. Siehe dazu Künstliche Intelligenz: 99% der Unternehmensdaten sind (noch) nicht in den Trainingsdaten der LLMs zu finden.

Es stellt sich zwangsläufig die Frage, wie man diesen Umgang mit den eigenen Daten und das dazugehörende Handeln bewertet. An dieser Stelle kommt der Begriff Ethik ins Spiel, denn Ethik befasst sich mit der „Bewertung menschlichen Handelns“ (Quelle: Wikipedia). Dazu passt in Verbindung zu KI in Projekten folgende Textpassage:

„In vielen Projektorganisationen wird derzeit intensiv darüber diskutiert, welche Kompetenzen Führungskräfte in einer zunehmend digitalisierten und KI-gestützten Welt benötigen. Technisches Wissen bleibt wichtig – doch ebenso entscheidend wird die Fähigkeit, in komplexen, oft widersprüchlichen Entscheidungssituationen eine ethisch fundierte Haltung einzunehmen. Ethische Kompetenz zeigt sich nicht nur in der Einhaltung von Regeln, sondern vor allem in der Art, wie Projektleitende mit Unsicherheit, Zielkonflikten und Verantwortung umgehen“ (Bühler, A. 2025, in Projektmanagement Aktuell 4/2025).

Unsere Idee ist daher, eine immer stärkere eigene Digitale Souveränität – auch bei KI-Modellen. Nextcloud, LocalAI, Ollama und Langflow auf unseren Servern ermöglichen es uns, geeigneter KI-Modelle zu nutzen, wobei alle generierten Daten auf unseren Servern bleiben. Die verschiedenen KI-Modelle können farbig im Sinne einer Ethical AI bewertet werden::

Quelle: https://nextcloud.com/de/blog/nextcloud-ethical-ai-rating/