Was macht eine Arbeitsgesellschaft, der die Arbeit ausgeht?

Der Titel meines Beitrags bezieht sich auf die Philosophin Hannah Arendt, die vor Jahren die Frage stellte, was eine Arbeitsgesellschaft anstelle, der die Arbeit ausgehe (Arendt, H. (1981): Vita activa. Vom tätigen Leben, München),

Dabei ist zunächst einmal zu klären, was unter Arbeit zu verstehen ist, denn auch hier hat sich über die Zeit einiges verändert, was die Abkürzungen Arbeit 1.0, Arbeit 2.0, Arbeit 3.0 und Arbeit 4.0 beschreiben.

Ein wesentlicher Teil des heutigen Arbeitsverständnisses bezieht sich immer noch auf die Sicherung und Erweiterung des Lebensunterhaltes.

„Unter Arbeit verstehen wir die Vielfalt menschlicher Handlungen, deren Zweck die Sicherung und Erweiterung des Lebensunterhaltes der arbeitenden Individuen und ihrer Angehöriger ebenso beinhaltet wie die Reproduktion des gesellschaftlichen Zusammenhanges der Arbeitsteilung und hierüber der Gesellschaft selbst, Arbeit ist vergesellschaftetes Alltagsleben (von Ferber 1991)“ (Peter, G. (1992): Situation-Institution-System als Grundkategorien einer Arbeitsanalyse. In: ARBEIT 1/1992, Auszug aus S. 64-79. In: Meyn, C.; Peter, G. (Hrsg.) (2010)).

Dieses Verständnis von Arbeit kann dem Denken in einer Industriegesellschaft zugeordnet werden. Dazu gehören auch Entlohnungs-Systeme, Sozial-Systeme, Rechts-Systeme, Gesundheits-Systeme, Bildungs-Systeme usw.

Wenn sich also am Verständnis von Arbeit etwas ändert, hat das erhebliche Auswirkungen auf all die genannten, und nicht-genannten, gesellschaftlichen Systeme. Am Beispiel der Landwirtschaft kann das gut nachvollzogen werden: Nachdem hier automatisiert/industrialisiert wurde, gab es zwar weniger Arbeit in dem Bereich, doch mehr Arbeit in einem neuen Bereich, eben der Industrie.

Genau hier setzt ein neueres Verständnis Von Arbeit an, das sich aus dem Strukturbruch zwischen einfacher und reflexiver Modernisierung ableitet, und Arbeit ganzheitlicher betrachtet:

Arbeit, und zwar das „Ganze der Arbeit“ (Biesecker 2000), sollte deshalb neu bestimmt werden, zunächst verstanden als „gesamtgesellschaftlicher Leistungszusammenhang“ (Kambartel 1993) der Reproduktion, woraus sich spezifische Rechte und Pflichten, Einkommen sowie Entwicklungschancen für die Mitglieder einer Gesellschaft ergeben. Von einem Ende der Arbeitsgesellschaft ist nämlich keine Rede mehr, wohl aber von einem Epochenbruch und der Notwendigkeit einer umfassenden Neugestaltung der gesellschaftlichen Arbeit“ (Peter/Meyn 2010).

Wenn Arbeit nun eher als „gesamtgesellschaftlicher Leistungszusammenhang“ gesehen werden sollte, bedeutet das natürlich, dass die auf dem früheren Begriff der Arbeit basierenden gesellschaftlichen Systeme (Gesundheits-System, Sozial-System Wirtschafts-System usw.) angepasst werden sollten.

Hinzu kommt, dass schon die nächste, von den Möglichkeiten der Künstlicher Intelligenz getriebene, Entwicklung ansteht. Dabei wird KI viele bisher bekannte Tätigkeitsportfolios verändern, und auch neue Tätigkeitsportfolios schaffen – und das relativ schnell. Siehe dazu KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie.

Aktuell hat man den Eindruck, dass alle gesellschaftlichen Systeme von den technologischen Entwicklungen getrieben werden, ganz im Sinne von Technology first. Es ist an der Zeit, Prioritäten zu verschieben – und zwar in Richtung Human first. Das ist möglich. Wie? Ein Beispiel:

„By comparison, Society 5.0 is “A human-centred society that balances economic advancement with the resolution of social problems by a system that highly integrates cyberspace and physical space” (Japan Cabinet Office, 2016, zitiert in Nielsen & Brix 2023).

Auch hier geht es um einen menschenzentrierten Ansatz, der allerdings nicht auf den Industriearbeiter begrenzt ist, sondern alle Bürger generell mitnehmen will. Dabei sollen die konkreten Probleme der Menschen (endlich) gelöst werden.

Da gibt es noch viel zu tun. So verstandene Arbeit geht nicht aus, und sollte in allen gesellschaftlichen Bereichen angemessen entlohnt werden.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Die negativen und positiven Seiten von Routine

Image by Foundry Co from Pixabay

Der Trend in der Arbeitswelt geht dahin, Routinetätigkeiten zu reduzieren, um z.B. mehr Projekte durchführen zu können. Dabei werden Routinetätigkeiten oftmals durch Technologien ersetzt – ganz im Sinne der Wirtschaftlichkeit. Es ist verständlich, dass wir keine stupiden Handgriffe in der Produktion oder in der Verwaltung durchführen wollen.

Andererseits gibt es ja auch die liebgewonnenen Routinen, wie der morgendliche Kaffee, das gemeinsame Abendessen mit der Familie, der regelmäßige Sport mit anderen am Wochenende, usw. Solche Routinen sind eher positiv besetzt, da wir uns dabei wohl fühlen.

Betrachten wir also die Routine etwas umfassender, so können wir erkennen, dass Routine negative und positive Seiten hat. In der Geschichte sind daher auch zwei unterschiedliche Perspektiven zu erkennen:

„Die positive Seite der Routine wurde in Diderots großer Encyclopédie (1751-1772) dargestellt, die negative Seite der geregelten Arbeitszeit zeigte sich äußerst dramatisch in Adam Smiths Der Wohlstand der Nationen (1776). Diderot war der Meinung, die Arbeitsroutine könne wie jede andere Form des Auswendiglernens zu einem Lehrmeister der Menschen werden. Smith glaubte, Routine stumpfe den Geist ab. Heute steht die Gesellschaft auf der Seite von Smith. (…) Das Geheimnis der industriellen Ordnung lag im Prinzip in der Routine“ (Sennett 2002)

Routine ist also per se nicht geistlos, sie kann erniedrigen, sie kann aber auch beschützen. Routine kann die Arbeit zersetzen, aber auch ein Leben zusammenhalten (vgl. dazu Sennett 2002).

Diese Gedanken führen zwangläufig zu der aktuellen Diskussion um KI-.Agenten, die im einfachsten Fall darauf ausgerichtet sind, Abläufe zu automatisieren. Siehe dazu beispielsweise Mit Langflow einen einfachen Flow mit Drag & Drop erstellen.

Berücksichtigen wir die weiter oben von Sennett zusammengefassten Hinweise zur Routine, so sollten wir genau überlegen, welche Routinetätigkeiten durch Künstliche Intelligenz ersetzt werden, und welche Routinetätigkeiten eher nicht. Routine kann eben auch in einem turbulenten gesellschaftlichen Umfeld (emotional) stabilisieren, ja sogar schützen.

Flexibilität und der Ursprung des Wortes „Job“

In der Vergangenheit wurden immer wieder Begriffe/Wörter benutzt, die über die Zeit eine Wandlung/Weiterentwicklung erfahren haben. Das ist mit „Innovation“ oder auch mit „Qualität“ so – um nur diese beiden beispielhaft zu nennen.

Manchmal kann es auch sein, dass ein Wort wieder zu seiner ursprünglichen Bedeutung „zurückkehrt“. Schauen wir uns dazu einmal das Wort „Job“ an, das sehr oft benutzt wird, und heute auf eine Arbeitswelt trifft, in der Flexibilität eine große Rolle spielt.

„Das Wort „job“ bedeutete im Englischen des 14. Jahrhunderts einen Klumpen oder eine Ladung, die man herumschieben konnte. Die Flexibilität bringt diese vergessene Bedeutung zu neuen Ehren. Die Menschen verrichten Arbeiten wie Klumpen, mal hier, mal da. Es ist nur natürlich, dass diese Flexibilität Angst erzeugt. Niemand ist sich sicher, wie man mit dieser Flexibilität umgehen sollte, welche Risiken vertretbar sind, welchen Pfad man folgen sollte“ (Sennett 2002).

Es wird hier deutlich, dass Jobs im Vergleich zu eher langfristig angelegten Berufen kurzfristiger sind.: „Stellen werden durch Projekte und Arbeitsfelder ersetzt“ (ebd.). In der heutigen Arbeitswelt haben Jobs daher eine gute Passung zu iterativen, projektorientierten Arbeitsformen (New Work).

Das kommt den Unternehmen zu Gute, doch schüren Jobs auch Ängste, die in dem Zusammenhang zu wenig thematisiert werden.

Emotionale Intelligenz und Künstliche Intelligenz am Arbeitsplatz

Wenn es um Künstliche Intelligenz geht, kommt auch immer öfter der Hinweis auf, dass Emotionale Intelligenz immer wichtiger wird. In dem Blogbeitrag AI City und Emotionale Intelligenz wird beispielsweise auf den Zusammenhang mit AI Citys verwiesen:

“For a smart city, having only “IQ” (intelligence quotient) is not enough; “EQ” (emotional quotient) is equally essential. (…) the emotions of citizen communities …“

Hier wird also vorgeschlagen, neben dem Intelligenz-Quotienten (IQ) noch einen Emotionalen Quotienten (EQ) bei der Betrachtung zu berücksichtigen.

Doch was verstehen wir unter „Emotionale Intelligenz“?

Ich beziehe mich hier auf eine Beschreibung von Salovay und Mayer, und bewusst nicht auf den populären Ansatz von Goleman:

“Emotional intelligence is a type of social intelligence that involves the ability to monitor one’s own and others’ emotions to discriminate among them, and to use the information to guide one’s thinking and actions (Salovey & Mayer 1990)”, cited in Mayer/Salovay 1993, p. 433).

Die Autoren sehen also Emotionale Intelligenz als Teil einer Sozialen Intelligenz. Spannend ist weiterhin, dass Mayer und Salovay ganz bewusst einen Bezug zur Multiplen Intelligenzen Theorie von Howard Gardner herstellen. Siehe Emotionale Intelligenz: Ursprung und der Bezug zu Multiplen Intelligenzen.

Betrachten wir nun Menschen und AI Agenten im Zusammenspiel, so muss geklärt werden, woran AI Agenten (bisher) bei Entscheidungen scheitern. Dazu habe ich folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Auch Daniel Goleman, der den Begriff „Emotionale Intelligenz“ populär gemacht hat, beschreibt den Zusammenhang von Emotionaler Intelligenz und Künstlicher Intelligenz am Arbeitsplatz, und weist auf die erforderliche Anpassungsfähigkeit (Adaptability) hin:

Adaptability: This may be the key Ei competence in becoming part of an AI workplace. Along with emotional balance, our adaptability lets us adjust to any massive transformation. The AI future will be different from the present in ways we can’t know in advance“ (EI in the Age of AI, Goleman via LinkedIn, 30.10.2025).

Was mir allerdings an der Formulierung nicht gefällt ist der Begriff „Ei competence“, denn Intelligenz und Kompetenz sind durchaus unterschiedlich. Siehe dazu Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Lernkultur und organisatorische Leistungsfähigkeit hängen zusammen

Image by Ronald Carreño from Pixabay

Lernen wird immer noch zu sehr Schulen, Universitäten oder der beruflichen Weiterbildung zugeordnet. Man tut gerade so, als ob man außerhalb dieser Institutionen nicht lernen würde. In Abwandlung des Zitats „Man kann nicht nicht kommunizieren“ des Kommunikationswissenschaftlers Paul Watzlawick kann man auch formulieren:

Man kann nicht nicht lernen„.

Gerade in Zeiten tiefgreifender Veränderungen kommt dem Lernen, z.B. in der Arbeitswelt, eine besondere Bedeutung zu. Lernen kann als eine Veränderung des Verhaltens eines Individuums durch Erfahrung und Training (vgl. E. A. Gates) gesehen werden. Solche Veränderungen in der Arbeitswelt hängen mit der Lernkultur zusammen. Siehe dazu auch Was hat der Wandel am Arbeitsplatz mit Lernkultur zu tun?

Dabei werden Kulturen oft in Bildern/Metaphern deutlich. Beispielsweise werden in traditionellen Arbeits- und Lernkulturen oft Zahnräder verwendet, wenn es um die Zusammenarbeit geht. In moderneren Organisationen würden eher verwobene Netze als Bild verwendet – was wiederum Auswirkungen auf das dazugehörende Lernen hat.

„Kulturen sind in undurchschaubarer Weise verwobene Netze von Handlungen, Gegenständen, Bedeutungen, Haltungen und Annahmen. Und eben keine mechanischen Uhrwerke, bei denen voraussehbar ist, welche Veränderung sich ergibt, wenn man bei einem Zahnrad die Anzahl der Zähne vergrößert oder verkleinert“ (Meier 2022).

Eine moderne Lernkultur hat dann auch Auswirkungen auf die organisatorische Leistungsfähigkeit. Dieser Zusammenhang wurde schon vor mehr als 20 Jahren aufgezeigt:

„Daher überrascht es nicht, dass im Kontext von tiefgreifenden Veränderungen in der Arbeitswelt Lernkultur zu einem Thema wird (Foelsing und Schmitz 2021) und dass empirische Studien einen Zusammenhang von Lernkultur und organisationaler Leistungs- fähigkeit aufzeigen (McHargue 2003; Ellinger et al. 2003“ (Meier 2022).

Siehe dazu auch Wie hängen Immaterielle Werte, Lernkultur, Kompetenzentwicklung und Organisationales Lernen zusammen?

Es wundert mich daher immer noch, dass Führungskräfte in Organisationen oftmals nichts (oder sehr wenig) über das Lernen von einzelnen Mitarbeitern, Teams, der gesamten Organisation und in Netzwerken wissen. Gerade in Zeiten von Künstlicher Intelligenz kommt dem schnellen, selbstorganisierten Lernen eine Schlüsselrolle bei den erforderlichen Transformationsprozessen zu.

Digitale Souveränität: Wie kann ein KI-Modell aus LocalAI in den Nextcloud Assistenten eingebunden werden?

Um digital souveräner zu werden, haben wir seit einiger Zeit Nextcloud auf einem eigenen Server installiert – aktuell in der Version 32. Das ist natürlich erst der erste Schritt, auf den nun weitere folgen – gerade wenn es um Künstliche Intelligenz geht.

Damit wir auch bei der Nutzung von Künstlicher Intelligenz digital souverän bleiben, haben wir zusätzlich LocalAI installiert. Dort ist es möglich, eine Vielzahl von Modellen zu testen und auszuwählen. In der folgenden Abbildung ist zu sehen, dass wir das KI-Modell llama-3.2-3B-instruct:q4_k_m für einen Chat ausgewählt haben. In der Zeile „Send a massage“ wurde der Prompt „Nenne wichtige Schritte im Innovationsprozess“ eingegeben. Der Text wird anschließend blau hinterlegt angezeigt. In dem grünen Feld ist ein Teil der Antwort des KI-Modells zu sehen.

LocalAI auf unserem Server: Ein Modell für den Chat ausgewählt

Im nächsten Schritt geht es darum, das gleiche KI-Modell im Nextcloud Assistant zu hinterlegen. Der folgende Screenshot zeigt das Feld (rot hervorgehoben). An dieser Stelle werden alle in unserer LocalAI hinterlegten Modelle zur Auswahl angezeigt, sodass wir durchaus variieren könnten. Ähnliche Einstellungen gibt es auch für andere Funktionen des Nextcloud Assistant.

Screenshot: Auswahl des Modells für den Nextcloud Assistenten in unserer Nextcloud – auf unserem Server

Abschließend wollen wir natürlich auch zeigen, wie die Nutzung des hinterlegten KI-Modells in dem schon angesprochenen Nextcloud Assistant aussieht. Die folgende Abbildung zeigt den Nextcloud Assistant in unserer Nextcloud mit seinen verschiedenen Möglichkeiten – eine davon ist Chat mit KI. Hier haben wir den gleichen Prompt eingegeben, den wir schon beim Test auf LocalAI verwendet hatten (Siehe oben).

Screenshot von dem Nextcloud Assistant mit der Funktion Chat mit KI und der Antwort auf den eigegebenen Prompt

Der Prompt ist auf der linken Seite zu erkennen, die Antwort des KI-Modells (llama-3.2-3B-instruct:q4_k_m) ist rechts daneben wieder auszugsweise zu sehen. Weitere „Unterhaltungen“ können erstellt und bearbeitet werden.

Das Zusammenspiel der einzelnen Komponenten funktioniert gut. Obwohl wir noch keine speziellen KI-Server hinterlegt haben, sind die Antwortzeiten akzeptabel. Unser Ziel ist es, mit wenig Aufwand KI-Leistungen in Nextcloud zu integrieren. Dabei spielen auch kleine, spezielle KI-Modelle eine Rolle, die wenig Rechenkapazität benötigen.

Alles natürlich Open Source, wobei alle Daten auf unseren Servern bleiben.

Wir werden nun immer mehr kleine, mittlere und große KI-Modelle und Funktionen im Nextcloud Assistant testen. Es wird spanned sein zu sehen, wie dynamisch diese Entwicklungen von der Open Source Community weiterentwickelt werden.

Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Wissensarbeit: Bestehen 60% der Gesamtarbeit aus „Arbeit rund um die Arbeit“?

Industriearbeit wurde in der Vergangenheit akribisch (Stichwort: REFA) auf Verschwendungspotenziale untersucht. Ganze Wertstromanalysen wurden beispielsweise betrachtet, um Lean Production oder später Lean Management in der Organisation zu etablieren. Auch das Agile Arbeiten, beispielsweise in Form des Agilen Projektmanagements, hat das Ziel, sich nur auf den Value für den User (Scrum) zu fokussieren. Das Scrum-Framework entstand immerhin aus der Überlegungen, Wissensarbeit besser zu organisieren (Hirotaka Takeuchi und Ikujiro Nonaka).

Es verwundert daher doch etwas, dass aus einer Studie von Asana aus dem Jahr 2023 hervorgeht, dass der Anteil der „Arbeit rund um die Arbeit“ bei Wissensarbeit immer noch erheblich ist. In der genannten Studie wurden fast 10.000 Wissensarbeiter befragt.

Dabei wird der Begriff „Arbeit rund um die Arbeit“ wie folgt beschrieben: „Tätigkeiten, die der wichtigen Arbeit Zeit entziehen, darunter die Kommunikation über die Arbeit, die Suche nach Informationen, das Wechseln zwischen verschiedenen Apps, die Bewältigung wechselnder Prioritäten und die Statusnachverfolgung von Arbeitsvorgängen“ (Asana 2025).

„Laut dem Bericht zur Anatomie der Arbeit von Asana [Anmerkung Robert Freund: aus dem Jahr 2023] werden 60 % der Arbeitszeit einer Person für „Arbeit rund um die Arbeit“ und nicht für Facharbeit aufgewendet“ (ebd.).

Bei Studien sollte man immer etwas kritisch sein, denn Asana ist selbst Anbieter einer Work-Management Plattform mit vielen Apps – möglicherweise tragen diese sogar auch zu dem Verschwendungspotenzial bei.

KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie

Wenn es darum geht, die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt zu prognostizieren, kommt es – wie immer – darauf an, wen man fragt.

Die eher technikorientierten Unternehmen verkaufen die angestrebte AGI (Artificial General Intelligence) als das non plus ultra der Intelligenzentwicklung. Dabei prognostizieren diese Unternehmen, dass AGI den menschlichen Fähigkeiten (Intelligenzen) überlegen sein wird. Daraus folgt zwingend, dass KI wohl alle arbeitsbezogenen Tätigkeiten in der nahen Zukunft übernehmen kann. Diese Argumentation erinnert mich an so viele Versprechen der Technik-Unternehmen; beispielsweise an die Unsinkbarkeit der Titanic oder die „100%-ige“ Sicherheit von Kernkraftwerken, oder an die Verheißungen der Internetpioniere. Technologie muss wohl in dieser Form verkauft werden (Storytelling) – immerhin geht es ja um Investoren und sehr viel Geld. Ich weiß natürlich, dass diese Vergleiche „hinken“, dennoch …

Betrachten wir Künstliche Intelligenz mit seinen Möglichkeiten aus der eher gesamtgesellschaftlichen Perspektive, so sieht das etwas anders aus. Hier geht es darum, mit Hilfe der Künstlichen Intelligenz gesellschaftliche Probleme zu lösen, zum Wohle aller. Die Idee der japanischen Society 5.0 kommt diesem Anspruch sehr nahe. Da ich darüber schon verschiedene Blogbeiträge veröffentlich habe, gehe ich darauf nicht weiter ein. Siehe dazu beispielhaft Worin unterscheiden sich Industry 5.0 und Society 5.0?

Wie ist es dennoch möglich herauszufinden, wie sich Künstliche Intelligenz auf dem Arbeitsmarkt bemerkbar macht, bzw. machen wird?

Als Leser unseres Blogs wissen Sie, dass ich bei solchen Fragestellungen immer dazu tendiere, belastbare wissenschaftliche Studien von unabhängigen Forschern heranzuziehen. Eine dieser Studie ist folgende. Darin sind sehr ausführlich Vorgehensweise, Datenanalysen und Erkenntnisse dargestellt, mit einer zu beachtenden Einschränkung: Es geht um den amerikanischen Arbeitsmarkt.

„First, we find substantial declines in employment for early-career workers in occupations most exposed to AI, such as software development and customer support.

Second, we show that economy-wide employment continues to grow, but employment growth for young workers has been stagnant.

Third, entry-level employment has declined in applications of AI that automate work, with muted effects for those that augment it.

Fourth, these employment declines remain after conditioning on firm-time effects, with a 13% relative employment decline for young workers in the most exposed occupations

Fifth, these labor market adjustments are more visible in employment than in compensation.

Sixth, we find that these patterns hold in occupations unaffected by remote work and across various alternative sample constructions“

Source: Brynjolfsson et al. (2025): Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence | PDF

Herausheben möchte ich hier, dass gerade junge Menschen, die in den Arbeitsmarkt kommen und noch keine domänenspezifische Expertise entwickeln konnten, von Künstlicher Intelligenz betroffen sind. Das ist in mehrerer Hinsicht bemerkenswert.

Einerseits scheint Expertise nicht so leicht durch KI ersetzbar zu sein, was wiederum für erfahrene, auch ältere Mitarbeiter spricht. Diese sollten natürlich Künstliche Intelligenz nutzen und nicht ablehnen.

Weiterhin sind es ja gerade junge Menschen, die in ihren Jobs mit Digitalisierung und auch mit Künstlicher Intelligenz arbeiten möchten. Die Innovation „Künstliche Intelligenz“ kann anhand der genannten Effekte durchaus als reflexiv angesehen werden. Siehe dazu auch  Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.

Künstliche Intelligenz: LLM (Large Language Models) und Large Reasoning Models (LRMs) in Bezug auf komplexes Problemlösen

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

KI-Anwendungen basieren oft auf Trainingsdaten, sogenannter Large Language Models (LLM). Um die Leistungsfähigkeit und die Qualität der Antworten von solchen Systemen zu verbessern, wurde inzwischen ein „Denkprozess“ (Reasoning) vor der Ausgabe der Antwort vorgeschaltet. Siehe dazu ausführlicher What are Large Reasoning Models (LRMs)?

Die Frage stellt sich natürlich: Liefern LRMs wirklich bessere Ergebnisse als LLMs?

In einem von Apple-Mitarbeitern veröffentlichten, viel beachteten Paper wurde nun die Leistungsfähigkeit nicht aufgrund logisch-mathematischer Zusammenhänge alleine untersucht, sondern anhand von drei Komplexitätskategorien – mit überraschenden Ergebnissen:

„Recent generations of language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.. (…) By comparing LRMs with their standard LLM counterparts under same inference compute, we identify three performance regimes: (1) low-complexity tasks where standard models outperform LRMs, (2) medium-complexity tasks where LRMs demonstrates advantage, and (3) high-complexity tasks where both models face complete collapse

Source: Shojaee et al. (2025): The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.

In Zukunft werden immer mehr hoch-komplexe Problemlösungen in den Mittelpunkt von Arbeit rücken. Gerade in diesem Bereich scheinen LLMs und sogar LRMs allerdings ihre Schwierigkeiten zu haben. Ehrlich gesagt, wundert mich das jetzt nicht so sehr. Mich wundert eher, dass das genannte Paper die KI-Welt so aufgewühlt hat 🙂 Siehe dazu auch Was sind eigentlich Multi-Kontext-Probleme?

Sicher werden die Tech-Unternehmen der KI-Branche jetzt argumentieren, dass die nächsten KI-Modelle auch diese Schwierigkeiten meistern werden. Das erinnert mich an unseren Mercedes-Händler, der ähnlich argumentierte, sobald wir ihn auf die Schwachstellen des eingebauten Navigationssystems hingewiesen hatten: Im nächsten Modell ist alles besser.

Technologiegetriebene Unternehmen – insbesondere KI-Unternehmen – müssen wohl so argumentieren, und die Lösungen in die Zukunft projizieren – Storytelling eben, es geht immerhin um sehr viel Geld. Man muss also daran glauben….. oder auch nicht.

Möglicherweise handelt sich es hier um einen Kategorienfehler. Siehe dazu ausführlicher Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.