Menschen und AI Agenten im Zusammenspiel

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Immer mehr Organisationen fragen sich, inwiefern Workflows und besonders AI Agenten die bisher von Menschen durchgeführten Arbeiten ersetzen werden. In dem Blogbeitrag The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen wird deutlich, was heute schon in einzelnen Branchen möglich ist.

Auch der Jobs Reports 2025 des WEF zeigt auf, dass bis 2030 wohl 172 Millionen neue Jobs entstehen, und 92 Millionen wegfallen werden. Es geht dabei nicht immer um komplette Jobs, sondern auch um Teilbereiche oder Tätigkeitsportfolios, die immer mehr von AI Agenten übernommen werden (können).

Alles was mit Logik und Speicherung zu tun hat, ist eher die Stärke von Künstlicher Intelligenz, den Workflows, bzw. den AI Agenten. Doch in welchen Bereichen versagen AI Agenten noch? Dazu habe ich den folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Dabei bezieht sich Bornet auf eine Veröffentlichung von Bang Liu et al. (2025:19-20), in dem die Autoren drei Hirnregionen in Bezug auf AI (Artificial Intelligence) untersuchten. L1: Well developed; L2: Partially developed; L3: Underexplored.

Das Ergebnis ist also, dass AI Agenten in den Ebenen Emotionen, Kontext und Motivation unterentwickelt sind (L3), wenn es um menschliche Entscheidungen geht.

Erkenntnis (Cognition) entsteht dabei nicht nur in einem Bereich im Gehirn, sondern durch das Zusammenspiel vieler unterschiedlich vernetzter Areale. Bei komplexen Problemlösungsprozesse (CPS: Complex Problem Solving) geht es verstärkt um Emotionen, Kontext und Motivation.

Im Idealfall könnten Menschen an diesen Stellen einen Mehrwert für eine qualitativ gute Problemlösung (Erkenntnis) einbringen. Es stellt sich dabei allerdings auch die Frage, wie stark sich Menschen an die Möglichkeiten einer Künstlichen Intelligenz (AI Agenten) anpassen sollen.

Zusätzlich können die in dem sehr ausführlichen wissenschaftlichen Paper von Bang Liu et al. (2025) erwähnten Zusammenhänge Hinweise geben, wie die Zusammenarbeit – das Zusammenspiel – zwischen Menschen und AI Agenten organisiert, ja ermöglicht werden kann.

Künstliche Intelligenz im Projektmanagement: Ethische Kompetenz für die Projektleitung?

In allen Projekten werden mehr oder weniger oft digitale Tools, bzw. komplette Kollaborationsplattformen eingesetzt. Hinzu kommen jetzt immer stärker die Möglichkeiten der Künstlicher Intelligenz im Projektmanagement (GenAI, KI-Agenten usw.).

Projektverantwortliche stehen dabei vor der Frage, ob sie den KI-Angeboten der großen Tech-Konzerne vertrauen wollen – viele machen das. Immerhin ist es bequem, geht schnell und es gibt auch gute Ergebnisse. Warum sollte man das hinterfragen? Möglicherweise gibt es Gründe.

Es ist schon erstaunlich zu sehen, wie aktuell Mitarbeiter ChatGPT, Gemini usw. mit personenbezogenen Daten (Personalwesen) oder auch unternehmensspezifische Daten (Expertise aus Datenbanken) füttern, um schnelle Ergebnisse zu erzielen – alles ohne zu fragen: Was passiert mit den Daten eigentlich? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Je innovativer ein Unternehmen ist, desto einzigartiger sind seine Daten. Was mit diesen Daten dann passiert, ist relativ unklar. Es wundert daher nicht, dass nur ein kleiner Teil der Unternehmensdaten in den bekannten LLM (Large Language Models) zu finden ist. Siehe dazu Künstliche Intelligenz: 99% der Unternehmensdaten sind (noch) nicht in den Trainingsdaten der LLMs zu finden.

Es stellt sich zwangsläufig die Frage, wie man diesen Umgang mit den eigenen Daten und das dazugehörende Handeln bewertet. An dieser Stelle kommt der Begriff Ethik ins Spiel, denn Ethik befasst sich mit der “Bewertung menschlichen Handelns” (Quelle: Wikipedia). Dazu passt in Verbindung zu KI in Projekten folgende Textpassage:

“In vielen Projektorganisationen wird derzeit intensiv darüber diskutiert, welche Kompetenzen Führungskräfte in einer zunehmend digitalisierten und KI-gestützten Welt benötigen. Technisches Wissen bleibt wichtig – doch ebenso entscheidend wird die Fähigkeit, in komplexen, oft widersprüchlichen Entscheidungssituationen eine ethisch fundierte Haltung einzunehmen. Ethische Kompetenz zeigt sich nicht nur in der Einhaltung von Regeln, sondern vor allem in der Art, wie Projektleitende mit Unsicherheit, Zielkonflikten und Verantwortung umgehen” (Bühler, A. 2025, in Projektmanagement Aktuell 4/2025).

Unsere Idee ist daher, eine immer stärkere eigene Digitale Souveränität – auch bei KI-Modellen. Nextcloud, LocalAI, Ollama und Langflow auf unseren Servern ermöglichen es uns, geeigneter KI-Modelle zu nutzen, wobei alle generierten Daten auf unseren Servern bleiben. Die verschiedenen KI-Modelle können farbig im Sinne einer Ethical AI bewertet werden::

Quelle: https://nextcloud.com/de/blog/nextcloud-ethical-ai-rating/

Der Begriff “Sozial” – alles nur ein ein Marketingtrick?

Mitsui Garden Hotel Osaka Premier – unser Hotel in Osaka, Japan (20.-25.04.2025)

Heute scheint alles irgendwie “sozial” sein zu wollen. Die Politik will bei ihren Entscheidungen irgendwie “sozial” wirken, wir nutzen sogenannte “Soziale Netzwerke”, Unternehmen betonen ihre “Corporate Social Responsibility (CSR)” und auch einzelne Personen sehen sich als soziale Bürger. Doch: Was verbirgt sich eigentlich hinter dem Wort “sozial”? Dazu habe ich folgenden Text gefunden:

“Der Begriff sozial scheint als alltäglicher Begriff intuitiv verständlich; er weist auf das gemeinsame Handeln und Zusammenleben von Personen hin (vgl. Balog 2006, S. 12 ff.). Dieses Handeln hat sich als Selbstverständlichkeit in der Interaktion der Subjekte manifestiert, sodass es sich oft einer bewussten Ausführung entzieht (vgl. Schmidt 2012, S. 10” (Rathmann 2022).

Es geht also bei dem Begriff “sozial” darum, “gemeinsames Handeln und Zusammenleben” zu fördern. Wenn ich mir die oben genannten Beispiele ansehe, habe ich manchmal den Eindruck, dass der Begriff zwar verwendet, doch teilweise genau das Gegenteil von dem erreicht werden soll, was unter “sozial” zu verstehen ist.

In den sogenannten “Sozialen Netzwerken” geht es oftmals darum, Personen, oder auch Personengruppen, gegeneinander auszuspielen, statt das Zusammenleben zu fördern. Unternehmen nutzen das Lable CRS oft gerne, um ihre Verkäufe anzukurbeln – ähnlich wie bei Greenwashing etc.

Bei unserer Reise nach Taiwan, Japan und Singapur (April 2025) ist uns gerade in Japan das gesellschaftlich anerkannte soziale Verhalten aufgefallen. Beispielsweise wird kein Müll einfach so weggeworfen, oder der Platz am Frühstückstisch im Hotel “nicht verwüstet” verlassen, auch die Lautstärke in öffentlichen Räumen ist moderat usw. usw. – alles, um andere nicht zu stören.

Es geht bei der Verwendung des Begriffs “sozial” also nicht nur um mich, wobei andere sehen sollen, wie sie mit mir klar kommen – in dem Sinne “ist mir doch egal.”.. Es geht um soziales Verhalten, das ein angenehmes Zusammenleben ermöglicht – und das fängt bei jedem Einzelnen an.

Siehe dazu auch Beck: Individualisierung ist ein Unbegriff, ein Unding.

Lernkultur und organisatorische Leistungsfähigkeit hängen zusammen

Image by Ronald Carreño from Pixabay

Lernen wird immer noch zu sehr Schulen, Universitäten oder der beruflichen Weiterbildung zugeordnet. Man tut gerade so, als ob man außerhalb dieser Institutionen nicht lernen würde. In Abwandlung des Zitats “Man kann nicht nicht kommunizieren” des Kommunikationswissenschaftlers Paul Watzlawick kann man auch formulieren:

Man kann nicht nicht lernen“.

Gerade in Zeiten tiefgreifender Veränderungen kommt dem Lernen, z.B. in der Arbeitswelt, eine besondere Bedeutung zu. Lernen kann als eine Veränderung des Verhaltens eines Individuums durch Erfahrung und Training (vgl. E. A. Gates) gesehen werden. Solche Veränderungen in der Arbeitswelt hängen mit der Lernkultur zusammen. Siehe dazu auch Was hat der Wandel am Arbeitsplatz mit Lernkultur zu tun?

Dabei werden Kulturen oft in Bildern/Metaphern deutlich. Beispielsweise werden in traditionellen Arbeits- und Lernkulturen oft Zahnräder verwendet, wenn es um die Zusammenarbeit geht. In moderneren Organisationen würden eher verwobene Netze als Bild verwendet – was wiederum Auswirkungen auf das dazugehörende Lernen hat.

“Kulturen sind in undurchschaubarer Weise verwobene Netze von Handlungen, Gegenständen, Bedeutungen, Haltungen und Annahmen. Und eben keine mechanischen Uhrwerke, bei denen voraussehbar ist, welche Veränderung sich ergibt, wenn man bei einem Zahnrad die Anzahl der Zähne vergrößert oder verkleinert” (Meier 2022).

Eine moderne Lernkultur hat dann auch Auswirkungen auf die organisatorische Leistungsfähigkeit. Dieser Zusammenhang wurde schon vor mehr als 20 Jahren aufgezeigt:

“Daher überrascht es nicht, dass im Kontext von tiefgreifenden Veränderungen in der Arbeitswelt Lernkultur zu einem Thema wird (Foelsing und Schmitz 2021) und dass empirische Studien einen Zusammenhang von Lernkultur und organisationaler Leistungs- fähigkeit aufzeigen (McHargue 2003; Ellinger et al. 2003” (Meier 2022).

Siehe dazu auch Wie hängen Immaterielle Werte, Lernkultur, Kompetenzentwicklung und Organisationales Lernen zusammen?

Es wundert mich daher immer noch, dass Führungskräfte in Organisationen oftmals nichts (oder sehr wenig) über das Lernen von einzelnen Mitarbeitern, Teams, der gesamten Organisation und in Netzwerken wissen. Gerade in Zeiten von Künstlicher Intelligenz kommt dem schnellen, selbstorganisierten Lernen eine Schlüsselrolle bei den erforderlichen Transformationsprozessen zu.

Künstliche Intelligenz: Das menschliche Gehirn benötigt maximal 30 Watt für komplexe Problemlösungen

Weltweit werden KI-Giga-Factories gebaut, um den erforderlichen Rechenkapazitäten der großen Tech-Konzerne gerecht zu werden. Europa fällt auch hier immer weiter zurück, wodurch eine zusätzliche digitale Abhängigkeit entsteht.

Prof. Lippert vom Kernforschungszentrum hat das so ausgedrückt: “”Unser geistiges Eigentum geht in andere Länder” (MDR vom 05.09.2025). Teilweise wird prognostiziert, dass KI-Rechenzentren bis 2030 so viel Energie benötigen, wie ganz Japan.

Es stellt sich daher die Frage, ob das langfristig der richtige Weg ist. Eine Antwort liefert möglicherweise der Energieverbrauch eines menschlichen Gehirns:

“Das menschliche Gehirn leistet vieles, was Maschinen überfordert – und das mit minimalem Energieverbrauch. Im Durchschnitt verbraucht es nur etwa 20 Watt, so viel wie eine schwache Glühbirne” Knees (2025): Wie Forscher die Tech-Konzerne entmachten wollen, in Handelsblatt vom 11.10.2025.

“Unser Gehirn benötigt für hochkomplexe Informationsübertragungen und -verarbeitungen weniger Energie als eine 30-Watt-Glühbirne” (Prof. Dr. Amunts).

Mit so einer geringen Energiemenge leistet unser menschliches Gehirn erstaunliches. Es wundert daher nicht, dass die Entwicklung immer größerer Modelle (Large Language Models) infrage gestellt wird.

Forscher sind aktuell auf der Suche nach Modellen, die ganz anders aufgebaut sind und nur einen Bruchteil der aktuell benötigten Energie verbrauchen. Gerade in China gibt es dazu schon deutliche Entwicklungen. Auch in Deutschland befassen sich Forscher mit dem Thema neuroinspirierte Technologien.

Anmerkungen zu Closed-minded und Open-minded

Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.

In der aktuellen gesellschaftlichen Gesamtsituation habe ich manchmal den Eindruck, dass sich eine gewisse Engstirnigkeit in den Diskussionen verfestigt. Möglicherweise hat so ein Closed-minded auch etwas mit der Altersstruktur in Deutschland zu tun. Es ist ein geflügelter Spruch, dass Menschen wohl im Alter engstirniger werden.

Wenn jeder Einzelne, jede gesellschaftliche Gruppe (Landwirte, Mitarbeiter bei der Bahn oder im Gesundheitswesen usw.) nur auf sich schaut, kann es nur zu “Verteilungskämpfen” kommen, die zu Lasten derer geht, die keine Lobby haben.

Nutzen wir lieber diese ganze Energie für ein soziales Miteinander, bei dem die staatlichen Regeln und Gesetze natürlich eingehalten werden müssen. Dazu gehört auch eine gewisse Offenheit gegenüber anderen Ideen, Meinungen und Ansichten, obwohl man nicht immer mit diesen übereinstimmt. So ein Open-minded kann wie folgt charakterisiert werden:

“As a first pass at a definition, we might say that open mindedness, in its most general sense, is characterized by epistemic humility and adherence to a general ideal of intellectual honesty (…) Having an open mind involves, among other things, a specific way of being noncommittal with respect to the truth of a theoretical claim or proposition” (T. Metzinger & J. M. Windt (Eds). Open MIND: 0(I). Frankfurt am Main: MIND Group. doi: 10.15502/9783958571037).

Es geht also um eine “epistemische (erkenntnisbezogene) Bescheidenheit und das Festhalten an einem allgemeinen Ideal intellektueller Ehrlichkeit” was wiederum bedeutet, “sich in Bezug auf die Wahrheit einer theoretischen Behauptung oder eines Vorschlags unverbindlich zu verhalten”. Siehe dazu auch

Wie hängen Pessimismus und Fixed Mindset zusammen?

Wesentliche Eigenschaften eines Growth Mindset

Anmerkungen zu Growth Mindset, Intelligenz und Kompetenz

Mindset: Ein oft verwendeter Begriff etwas genauer betrachtet

Anmerkungen zum World Social Report 2025

Quelle: World Social Reports 2025

In der aktuellen Wahrnehmung der Themen in den öffentlichen und privaten Diskussionen geht es fast nur noch um die Möglichkeiten von technologischen Entwicklungen wie der Künstlichen Intelligenz. Es geht um die Entwicklung von Märkten, ganzer Branchen (Automobilindustrie, Landwirtschaft, Lebensmittel, Pharma…) und systemrelevanter Organisationen (Banken) usw. Darauf ist auch unsere Politik fokussiert. Lobbyisten gehen hier ein und aus, um die geplanten Gesetze im Sinne einer Branche oder eines großen Konzerns zu beeinflussen – was auch oft genug funktioniert. Es wundert einen schon, dass Politiker sich fragen, warum die Menschen kein Vertrauen mehr in ihre Arbeit haben.

An dieser Stelle muss ich etwas klarstellen: Ich bin Demokrat und überzeugter Europäer. Ich plädiere hier nicht für extreme politische Richtungen (links oder rechts).

All das ist eine Perspektive, in der sich einzelne Menschen, Gruppen von Menschen, oder auch ganze Gesellschaften anpassen, oder besser unterordnen sollen/müssen. Wehe, wenn sie das nicht machen, wie beispielsweise die Europäische Union, die sich doch mit dem EU AI ACT gegen die Forderungen der US-amerikanischen Politik und KI-Unternehmen stellt. Oder wenn sich kleine Künstler und Autoren darüber beschweren, dass ihnen die Large Language Models (LLMs) einfach so die Inhalte nehmen und damit Geld verdienen (Urheberrechte missachten). Aus den hier nur kurz zusammengefassten Entwicklungen, entsteht ein Bild, das in der eingangs dargestellten Grafik visualisiert ist.

Die Abbildung aus dem World Social Report 2025 der United Nations zeigt verschiedene Einflussfaktoren, die sich zu einem selbst-verstärkenden Generator vernetzen (Wirkungsnetz): Die aktuelle Situation in vielen Ländern hat zu immer mehr Misstrauen (Distrust) und zu mehr Polarisation (Polarization) geführt – und damit zu weniger Kooperationen (Lack of collective action) und zu einer politischen Lähmung (Policy paralysis). Daraus wiederum entstehen Ungleichheit (Inequality) und Unsicherheit (Unsecurity), was wieder zum Anfang führt usw.

Wie kommen wir aus dem Kreislauf heraus?

Es fängt damit an, auf allen Ebenen (Individuum, Gruppe, Organisation, Netzwerk, Gesellschaft) den Menschen mit seinen Anforderungen in den Mittelpunkt zu rücken.

Dass das aktuell nicht der Fall ist, möchte ich an einigen wenigen Beispielen aufzeigen: Ist es die Anforderung von Menschen, massenhaft industriell produzierte Lebensmittel angeboten zu bekommen, die teilweise krank machen, und bei dem ein großer Anteil auch noch weggeworfen wird? Im Gesundheitswesen bekommen viele Akteure nur Geld, wenn ich krank bin. Welches Interesse haben diese Akteure, dass ich gesund bin und gesund bleibe? Ähnliches kann man für das Bildungswesen oder für die politischen Strukturen formulieren. Ist es die Anforderung der Menschen, dass immer mehr politische Ebenen auf EU-, Bundes, Landes- und regionaler Ebene mit immer mehr Personal und unnötigen Schnittstellen aufgebaut werden? usw. usw. Es geht nicht um mehr Geld, sondern darum, die vorhandenen Ressourcen für das Wohl der menschlichen Gemeinschaft einzusetzen, und Strukturen, die im Industriezeitalter angemessen waren, an die heutige Lebenswirklichkeit anzupassen.

Heute können wir mit Hilfe neuer Technologien (Additive Manufacturing, Künstliche Intelligenz…) vieles davon erreichen. WIE so etwas aussehen kann, hat Japan schon vor einigen Jahren in der Society 5.0 skizziert und teilweise schon umgesetzt. Im April 2025 waren wir 10 Tage in Japan – auch auf der Expo 2025 in Osaka – wo Elemente des Konzepts gezeigt wurden.

Quelle: https://www8.cao.go.jp/cstp/english/society5_0/index.html (Abgerufen am 19.11.2022)

Barbara Geyer: Künstliche Intelligenz und Lernen

Barbara Geyer in diesem LinkedIn-Beitrag (August 2025)

In dem LinkedIn-Beitrag von Barbara Geyer (Hochschule Burgenland) erläutert die Autorin die Abbildung zu KI und Lernen noch etwas genauer. Es ist farblich gut zu erkennen, in welchen Bereichen Künstliche Intelligenz viel helfen kann (grün), begrenzt helfen kann (orange) und nicht helfen kann (rot). Dabei orientiert sich die Autorin an dem Helmke-Modell, einem Angebot-Nutzungs-Modell, und leitet die folgende zentrale Botschaft ab:

KI revolutioniert das ANGEBOT (Materialien, Tests, Feedback) aber LERNEN SELBST bleibt menschlich (Denken, Verstehen, Motivation).

In den Kommentaren zu dem LinkedIn-Beitrag gibt es viel Zustimmung, doch auch kritische Stimmen, die die Möglichkeiten Künstlicher Intelligenz in Lernprozessen hier eher unterschätzt sehen.

Ich finde diese Grafik zunächst einmal gut, da sie dazu anregt, darüber nachzudenken, was wir unter Lernen, bzw. unter menschlichem Lernen, verstehen, und wie wir damit umgehen wollen. Hinzu kommt dann noch die Einordnung Künstlicher Intelligenz als eine weitere Quelle zur Ermöglichung von Lernen – ganz im Sinne einer Ermöglichungsdidaktik. Siehe dazu auch Ist Wissenstransfer in ihrer Organisation wichtig? Wenn ja: Befassen Sie sich mit Erwachsenenbildung!

Cyberself, Persönlichkeit und analoges Selbst in digitalen Räumen

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Jede Person möchte seine Persönlichkeit, seine Kompetenz kommunizieren. Das passiert im analogen Raum genauso wie in digitalen Räumen. Mit Hilfe von digitalen Medien transportiert jeder moderne Mensch Fragmente seiner Persönlichkeit in unterschiedlichen digitalen Räumen. Dabei kann es durchaus passieren, dass die im Digitalen Raum 1 dargestellte Person, sich von der im Digitalen Raum 2 unterscheidet.

Andererseits ist diese Perspektive auch reflexiv zu sehen, denn die Interaktionen und Kommunikationen mit anderen wirken durchaus auch auf die eigene, digitale und analoge Person zurück. Dazu passt ganz gut der folgende Text:

“Das dadurch repräsentierte Selbst muss jedoch nicht zwangsläufig dem realen, analogen Selbst entsprechen, sondern kann auf eine bewusst optimierte Repräsentation hinauslaufen oder eine fiktive andere Gestalt annehmen. Zudem können sich Subjekte in diversen digitalen Netzwerken unterschiedlich repräsentieren. Auch Laura Robinson argumentiert, dass das Subjekt anhand der digitalen Elemente ein „self-ing“ betreibe und sich sodann als „Cyberself“ (2007, S. 98) hervorbringe. Das Cyberself sei ein ephemeres Selbst, so Robinson, welches nur für kurze Zeit beständig, rasch änderbar und ohne langfristige Bedeutung sei, da es sich stets in Abhängigkeit zu Handlungen bilde (vgl. ebd.)” (Rathmann 2022).

Es stellt sich für mich die Frage, wie sich beispielsweise die immer stärkere Nutzung von KI-Modellen auf das analoge Selbst und das Cyberself auswirkt. Wenn die Richtung der kommunikativen Wechselwirkungen auch reflexiv ist, sind KI-Modelle durchaus persönlichkeitsverändernd.

Das kann einerseits positiv zur eigenen Entwicklung beitragen, oder eben auch nicht. Bei den, von den amerikanischen Tech-Konzernen entwickelten Modellen, habe ich so meine Bedenken, da diese Modelle ein Mindset repräsentieren, dass für Menschen, und ganze Gesellschaften gravierende negative Folgen haben kann.

Die Intransparenz der bekannten Closed Sourced Modelle wie ChatGPT von OpanAI oder Gemini von Google etc. oder auch das von Elon Musk beeinflusste Modell Grok von X repräsentieren eine Denkhaltung, die auf ein von Technologie dominiertes Gesellschaftssystem ausgerichtet sind. Es stellt sich die Frage, ob wir das so wollen.

Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich und ausführlicher Maria Salvatrice Randazzo & Guzyal Hill (2025): Human dignity in the age of Artificial Intelligence: an overview of legal issues and regulatory regimes. Australien Journal of Human Rights, pages 386-408 | Received 28 Aug 2023, Accepted 12 Nov 2024, Published online: 23 Apr 2025

KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie

Wenn es darum geht, die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt zu prognostizieren, kommt es – wie immer – darauf an, wen man fragt.

Die eher technikorientierten Unternehmen verkaufen die angestrebte AGI (Artificial General Intelligence) als das non plus ultra der Intelligenzentwicklung. Dabei prognostizieren diese Unternehmen, dass AGI den menschlichen Fähigkeiten (Intelligenzen) überlegen sein wird. Daraus folgt zwingend, dass KI wohl alle arbeitsbezogenen Tätigkeiten in der nahen Zukunft übernehmen kann. Diese Argumentation erinnert mich an so viele Versprechen der Technik-Unternehmen; beispielsweise an die Unsinkbarkeit der Titanic oder die “100%-ige” Sicherheit von Kernkraftwerken, oder an die Verheißungen der Internetpioniere. Technologie muss wohl in dieser Form verkauft werden (Storytelling) – immerhin geht es ja um Investoren und sehr viel Geld. Ich weiß natürlich, dass diese Vergleiche “hinken”, dennoch …

Betrachten wir Künstliche Intelligenz mit seinen Möglichkeiten aus der eher gesamtgesellschaftlichen Perspektive, so sieht das etwas anders aus. Hier geht es darum, mit Hilfe der Künstlichen Intelligenz gesellschaftliche Probleme zu lösen, zum Wohle aller. Die Idee der japanischen Society 5.0 kommt diesem Anspruch sehr nahe. Da ich darüber schon verschiedene Blogbeiträge veröffentlich habe, gehe ich darauf nicht weiter ein. Siehe dazu beispielhaft Worin unterscheiden sich Industry 5.0 und Society 5.0?

Wie ist es dennoch möglich herauszufinden, wie sich Künstliche Intelligenz auf dem Arbeitsmarkt bemerkbar macht, bzw. machen wird?

Als Leser unseres Blogs wissen Sie, dass ich bei solchen Fragestellungen immer dazu tendiere, belastbare wissenschaftliche Studien von unabhängigen Forschern heranzuziehen. Eine dieser Studie ist folgende. Darin sind sehr ausführlich Vorgehensweise, Datenanalysen und Erkenntnisse dargestellt, mit einer zu beachtenden Einschränkung: Es geht um den amerikanischen Arbeitsmarkt.

“First, we find substantial declines in employment for early-career workers in occupations most exposed to AI, such as software development and customer support.

Second, we show that economy-wide employment continues to grow, but employment growth for young workers has been stagnant.

Third, entry-level employment has declined in applications of AI that automate work, with muted effects for those that augment it.

Fourth, these employment declines remain after conditioning on firm-time effects, with a 13% relative employment decline for young workers in the most exposed occupations

Fifth, these labor market adjustments are more visible in employment than in compensation.

Sixth, we find that these patterns hold in occupations unaffected by remote work and across various alternative sample constructions”

Source: Brynjolfsson et al. (2025): Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence | PDF

Herausheben möchte ich hier, dass gerade junge Menschen, die in den Arbeitsmarkt kommen und noch keine domänenspezifische Expertise entwickeln konnten, von Künstlicher Intelligenz betroffen sind. Das ist in mehrerer Hinsicht bemerkenswert.

Einerseits scheint Expertise nicht so leicht durch KI ersetzbar zu sein, was wiederum für erfahrene, auch ältere Mitarbeiter spricht. Diese sollten natürlich Künstliche Intelligenz nutzen und nicht ablehnen.

Weiterhin sind es ja gerade junge Menschen, die in ihren Jobs mit Digitalisierung und auch mit Künstlicher Intelligenz arbeiten möchten. Die Innovation “Künstliche Intelligenz” kann anhand der genannten Effekte durchaus als reflexiv angesehen werden. Siehe dazu auch  Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.