Es ist schon erstaunlich, was man alles mit Künstlicher Intelligenz (GenAI) machen kann. Der Schwerpunkt scheint aktuell darauf zu liegen, in Organisationen die Abläufe zu verbessern, um die Produktivität zu erhöhen.
Weiterhin werden die KI-Modelle immer intuitiver und einfacher, was die Anwendung von KI scheinbar immer leichter macht.
Eine aktuelle Studie (Liu et al. 2026) kommt allerdings zu dem Schluss, dass, je leichter KI (GenAI) angewendet werden kann, umso wichtiger ist der Mensch, der die „harte Arbeit“ erledigen muss.
„The uncomfortable truth: the easier AI gets, the more valuable the people who still do the hard work become — and the more urgently organisations need to protect the conditions that produce them“ (Liu et al 2026).
Weiterhin wird in der selben Studie auf den Zusammenhang zwischen der Produktivität bei der Nutzung von KI und Innovation durch KI eingegangen: Die Produktivität steigt, doch Innovation (das Innovations-Niveau) stagniert.
Das liegt laut Studie an den „good enough“ – Antworten der üblichen KI-Modelle, die zu wenig „Friktion“ bieten, um Innovationen zu pushen.
Wenn alles zu einfach und zu leicht ist, kann das dann jeder und es ist nichts Neues mehr im Sinne einer Innovation. Die Autoren empfehlen daher ein angemessenes Maß an Friktion in der Organisation zu etablieren. Dazu wurde auch ein erstes geeignetes Framework entwickelt.
Die Frage in meiner Blogüberschrift erscheint auf den ersten Blick etwas seltsam. Immerhin kommunizieren wir als Menschen doch permanent, oder? Schauen wir uns Kommunikation noch etwas genauer an, so ist die Frage gar nicht so leicht zu beantworten.
Bei Kommunikation geht es um den“ Austausch oder die Übertragung von Informationen“(Wikipedia). Dabei gibt es viele Facetten. die vom einfachen Sender-Empfänger-Modell, über die verschiedenen Ebenen von menschlicher und digitaler Kommunikation, bis hin zur Einordnung von Kommunikation in komplexen sozialen Systemen reichen.
Bei der Systembetrachtung gibt es Ansichten (z.B. von Luhmann), die der allgemeinen Auffassung von Kommunikation widersprechen. Die Systemtheorie von Niklas Luhmann geht zunächst einmal von der Kommunikation (nicht von Handlungen) aus und davon, dass „die Strukturen der Kommunikation in weitgehend allen sozialen Systemen vergleichbare Formen aufweisen“ (ebd.). Kommunikation ist also, so Luhmann, kein Ergebnis menschlichen Handelns, sondern ein Produkt sozialer Systeme (vgl. Dewe 2010).
Das gipfelt in der Aussage: „Der Mensch kann nicht kommunizieren, nur die Kommunikation kann kommunizieren“ (Krieger / Nassehi 1993:56).
Soziale Systeme tauschen also Informationen selbstreferentiell aus – sie kommunizieren, ohne dass der Mensch dafür erforderlich ist.
Der Mensch ist nach Luhmann konsequenterweise kein Bestandteil der sozialen Systeme, sondern Bestandteil der Umwelt. Die System-Umwelt-Kopplung macht die Kommunikation möglich. Wie am Anfang schon angedeutet, sind die Zusammenhänge nicht so einfach zu verstehen. Siehe dazu auch Künstliche Intelligenz: System – Umwelt – Mensch.
Top view of multiracial young creative people in modern office. Group of young business people are working together with laptop, tablet, smart phone, notebook. Successful hipster team in coworking. Freelancers.
KI-Modelle sind auch Systeme, die selbstorganisiert, autopoietisch agieren. Es wundert daher nicht, dass bei der Beschreibung von KI-Systemen die üblichen Begriffe aus der Systemtheorie verwendet werden. Doch schauen wir uns einmal an, was beispielsweise mit dem Begriff Autopoiesis ursprünglich gemeint war.
„Das Kunstwort Autopoiesis, das sich aus den griechischen Worten autos (selbst) und poiein (=machen) zusammensetzt, wurde übrigens von Maturana selbst geprägt und meint so viel wie Selbsterzeugung, Selbstherstellung. Maturana und Varela haben den Begriff benutzt, um die Eigenart der Organisation von Lebewesen zu beschreiben. Es geht ihnen um die Definition bzw. Theorie des Lebendigen“ (Maturana / Varela 1992:50f.), zitiert in Dewe 2010).
Es wundert nicht, dass Maturana und Varela als Biologen damit etwas Lebendiges im Sinn hatten.
Weiterhin sind autopoietische Systeme nicht nur selbstbezogen, und selbstherstellend, sondern auch selbstbegrenzend (vgl. dazu W. Krohn und G. Küppers (Hrsg.): Emergenz: Der Entstehung von Ordnung, Organisation und Bedeutung. Frankfurt am Main 1992, S. 394).
Damit ist man bei der Beziehung System – Umwelt. „Das System bezieht jedoch nichts Vorgefertigtes aus der Umwelt, sondern es schafft sich durch interne Unterscheidungen seine bestimmte Umweltsensibilität. (…) Das System verändert sich, indem es seine Strukturen verändert – es lernt. Es verändert sich, wie bereits beschrieben, nicht unendlich, sondern nur so lange, wie es die eigene Autopoiesis nicht gefährdet“ (Dewe 2010).
Ein KI-System lernt somit nur so lange, wie die eigene Autopoiese nicht gefährdet ist.
Welche Rolle spielt der Mensch in Bezug auf System und Umwelt?
Wenn sich alles selbstorganisiert und selbstbegrenzend entwickelt, stellt sich die Frage, ob der Mensch Bestandteil des (sozialen) Systems ist, oder eher zur Umwelt zählt.
„Das Herauslagern des Menschen aus dem sozialen System in die Umwelt des Systems (in Form des psychischen Systems) verringert nicht die Bedeutung des Menschen, sondern verstärkt und unterstreicht ihn, denn wäre der Mensch mit Haut und Haaren Bestandteil des Systems dann handelte es sich um ein totalitäres System. Wird der Mensch aber herausgenommen, so schützt gerade dies seine Autonomie und Eigenständigkeit“ (Dewe 2010).
Wenn wir uns die KI-Modelle ansehen, so ist deren Ziel, den Menschen mit seinen Daten und Profilen im System abzubilden. Der Mensch wird somit immer mehr zum Bestandteil des KI-Systems.
Das bedeutet wiederum, ein KI-System kann in diesem Sinne immer mehr zu einem totalitäres System werden.
Immer mehr Menschen nutzen Künstliche Intelligenz, um gesundheitliche, psychologische oder berufliche Themen zu analysieren. Der Ratgeber ist in diesen Fällen also nicht der Arzt, der Psychologe, oder ein Kollege am Arbeitsplatz, sondern ChatGPT oder andere bekannte KI-Modelle.
Es ist in dem Zusammenhang wichtig, welche Werte von dem KI-Modell „vertreten“ werden. Warum? In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Werte von KI-Modellen der US-amerikanischen Tech-Konzerne, chinesischen Modellen, und europäischen Modellen sein können.
Da wiederum Werte Ordner sozialer Komplexität sind, ermöglichen sie ein Handeln unter Unsicherheit und bestimmen die menschliche Selbstorganisation.
Systemische Sicht auf Werte: „Werte können als Ordnungsparameter (Ordner) selbstorganisierter komplexer biotischer, individueller, gruppenförmiger oder aggregierterer sozialhistorischer Systeme aufgefasst werden. Diese Ordner bestimmen oder beeinflussen zumindest stark die individuell-psychische und sozial-kooperativ kommunikative menschliche Selbstorganisation und ermöglichen eben damit jenes Handeln unter prinzipieller kognitiver Unsicherheit“ (Haken 1996).
Sir Roger Penrose ist u.a. Mathematiker und theoretischer Physiker. In 2020 hat er eine Hälfte des Nobelpreises für Physik erhalten. Penrose hat sich darüber hinaus recht kritisch mit Künstlicher Intelligenz auseinandergesetzt.
Er ist zu der Auffassung gelangt, dass man nicht von Künstlicher Intelligenz (Artificial Intelligence), sondern eher von Künstlicher Cleverness (Artificial Cleverness) sprechen sollte. Dabei leitet er seine Erkenntnisse aus den beiden Gödelschen Unvollständigkeitssätzen ab. In einem Interview hat Penrose seine Argumente dargestellt:
Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World. Available at: https://www.youtube.com/watch?v=biUfMZ2dts8
Da das alles ziemlich schwere Kost ist, hat Martin Chiupa (2026) via LinkedIn eine Übersicht (Abbildung) erstellt, die anhand verschiedener Kriterien Unterschiede zwischen Human Intelligence, AI Systems und Artificial Cleverness aufzeigt.
Der Wahlspruch der Aufklärung lautet: „Habe Mut, Dich Deines eigenen Verstandes zu bedienen!“ Die Aufklärung stellt somit die eigene Wissenskonstruktion in den Mittelpunkt. Was würde also passieren, wenn sich jeder seines eigenen Verstandes bedienen, und sich nicht mehr so abhängig machen würde?
Immerhin ist es den meisten Menschen in Europa heute viel problemloser als früher möglich, seinen eigenen Verstand zu nutzen, doch die meisten machen es einfach nicht. Warum nur? Eine Antwort darauf finden wir schon bei Immanuel Kant, der am Ende des 18. Jahrhunderts folgende Erkenntnis formulierte:
Immanuel Kant schrieb schon 1784 in seiner Streitschrift: „Beantwortung der Frage: Was ist Aufklärung?“: „Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Faulheit und Feigheit sind die Ursachen, warum ein so großer Teil erwachsener Menschen, nachdem sie die Natur längst von fremder Leitung freigesprochen hat, dennoch gerne zeitlebens unmündig bleiben, und warum es anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein!“ (Fuchs, J.; Stolorz, C. (2001): Produktionsfaktor Intelligenz. Wiesbaden).
In Bezug auf aktuelle geopolitische, gesellschaftliche oder technologische Entwicklungen sehen wir heute, wie falsch es war, dass wir uns in Europa in alle möglichen und unmöglichen Abhängigkeiten begeben haben – es war eben alles so bequem. Dafür haben wir bewusst eine Unmündigkeit in Kauf genommen, die uns jetzt und in Zukunft teuer zu stehen kommt.
Auch bei der oftmals unreflektierten Nutzung der marktführenden KI-Modelle sehen wir wieder eine Entwicklung, die zur Unmündigkeit führt – ist ja alles so bequem. Siehe dazu beispielhaft: Digitale Souveränität: Europa, USA und China im Vergleich.
Alternativ zu den marktführenden KI-Modellen könnte man sich mit den Möglichkeiten von Open Source KI-Modellen befassen, was natürlich unbequemer sein kann, doch andererseits zu mündigen (aufgeklärten) Bürgern führt. In diesem Sinne: Sapere aude!
Der Titel meines Beitrags bezieht sich auf die Philosophin Hannah Arendt, die vor Jahren die Frage stellte, was eine Arbeitsgesellschaft anstelle, der die Arbeit ausgehe (Arendt, H. (1981): Vita activa. Vom tätigen Leben, München),
Dabei ist zunächst einmal zu klären, was unter Arbeit zu verstehen ist, denn auch hier hat sich über die Zeit einiges verändert, was die Abkürzungen Arbeit 1.0, Arbeit 2.0, Arbeit 3.0 und Arbeit 4.0 beschreiben.
Ein wesentlicher Teil des heutigen Arbeitsverständnisses bezieht sich immer noch auf die Sicherung und Erweiterung des Lebensunterhaltes.
„Unter Arbeit verstehen wir die Vielfalt menschlicher Handlungen, deren Zweck die Sicherung und Erweiterung des Lebensunterhaltes der arbeitenden Individuen und ihrer Angehöriger ebenso beinhaltet wie die Reproduktion des gesellschaftlichen Zusammenhanges der Arbeitsteilung und hierüber der Gesellschaft selbst, Arbeit ist vergesellschaftetes Alltagsleben (von Ferber 1991)“ (Peter, G. (1992): Situation-Institution-System als Grundkategorien einer Arbeitsanalyse. In: ARBEIT 1/1992, Auszug aus S. 64-79. In: Meyn, C.; Peter, G. (Hrsg.) (2010)).
Dieses Verständnis von Arbeit kann dem Denken in einer Industriegesellschaft zugeordnet werden. Dazu gehören auch Entlohnungs-Systeme, Sozial-Systeme, Rechts-Systeme, Gesundheits-Systeme, Bildungs-Systeme usw.
Wenn sich also am Verständnis von Arbeit etwas ändert, hat das erhebliche Auswirkungen auf all die genannten, und nicht-genannten, gesellschaftlichen Systeme. Am Beispiel der Landwirtschaft kann das gut nachvollzogen werden: Nachdem hier automatisiert/industrialisiert wurde, gab es zwar weniger Arbeit in dem Bereich, doch mehr Arbeit in einem neuen Bereich, eben der Industrie.
„Arbeit, und zwar das „Ganze der Arbeit“ (Biesecker 2000), sollte deshalb neu bestimmt werden, zunächst verstanden als „gesamtgesellschaftlicher Leistungszusammenhang“ (Kambartel 1993) der Reproduktion, woraus sich spezifische Rechte und Pflichten, Einkommen sowie Entwicklungschancen für die Mitglieder einer Gesellschaft ergeben. Von einem Ende der Arbeitsgesellschaft ist nämlich keine Rede mehr, wohl aber von einem Epochenbruch und der Notwendigkeit einer umfassenden Neugestaltung der gesellschaftlichen Arbeit“ (Peter/Meyn 2010).
Wenn Arbeit nun eher als „gesamtgesellschaftlicher Leistungszusammenhang“ gesehen werden sollte, bedeutet das natürlich, dass die auf dem früheren Begriff der Arbeit basierenden gesellschaftlichen Systeme (Gesundheits-System, Sozial-System Wirtschafts-System usw.) angepasst werden sollten.
Aktuell hat man den Eindruck, dass alle gesellschaftlichen Systeme von den technologischen Entwicklungen getrieben werden, ganz im Sinne von Technology first. Es ist an der Zeit, Prioritäten zu verschieben – und zwar in Richtung Human first. Das ist möglich. Wie? Ein Beispiel:
„By comparison, Society 5.0 is “A human-centred society that balances economic advancement with the resolution of social problems by a system that highly integrates cyberspace and physical space” (Japan Cabinet Office, 2016, zitiert in Nielsen & Brix 2023).
Auch hier geht es um einen menschenzentrierten Ansatz, der allerdings nicht auf den Industriearbeiter begrenzt ist, sondern alle Bürger generell mitnehmen will. Dabei sollen die konkreten Probleme der Menschen (endlich) gelöst werden.
Da gibt es noch viel zu tun. So verstandene Arbeit geht nicht aus, und sollte in allen gesellschaftlichen Bereichen angemessen entlohnt werden.
Es ist deutlich zu erkennen, dass Künstliche Intelligenz in seinen verschiedenen Formen (GenAI, AI Agenten usw.) Berufsbilder, Lernen, Wissens- und Kompetenzentwicklung beeinflusst, bzw. in Zukunft noch stärker beeinflussen wird. Siehe dazu beispielsweise WEF Jobs Report 2025.
Auch Strukturen im Bildungsbereich müssen sich daher fragen, welche Berechtigung sie noch in Zukunft haben werden, da sich der aktuelle Bildungssektor in fast allen Bereichen noch stark an den Anforderungen der Industriegesellschaft orientiert. Wenn es beispielsweise um Schulen geht, hat sich seit mehr als 100 Jahren nicht viel geändert. Siehe dazu Stundenplan von 1906/1907: Geändert hat sich bis heute (fast) nichts. Dazu passt folgendes Zitat:
„Every time I pass a jailhouse or a school, I feel sorry for the people inside.“ — Jimmy Breslin, Columnist, New York Post (Quelle)
Wohin sollen sich die Bildungsstrukturen – hier speziell Schulen – entwickeln?
(1) Wir können die Technologischen Möglichkeiten von Künstlicher Intelligenz in den Mittelpunkt stellen, und Menschen als nützliches Anhängsel von KI-Agenten verstehen. Dabei werden Menschen auf die KI-Technologie trainiert,, weiter)gebildet, geschult.
(2) Wir können alternativ Menschen und ihr soziales Zusammenleben in den Mittelpunkt stellen, bei dem Künstliche Intelligenz einen wertvollen Beitrag liefern kann. Ganz im Sinne einer Society 5.0.
Aktuell dominiert fast ausschließlich die Nummer (1) der genannten Möglichkeiten, was dazu führen kann, dass der Bildungsbereich Menschen so trainiert, dass sie zu den von Tech-Giganten entwickelten Technologien passen.
Möglicherweise hilft es in der Diskussion, wenn man den Ursprung des Wortes „Schule“ betrachtet. Der Begriff geht auf das griechische Wort „Skholè“ zurück, was ursprünglich „Müßiggang“, „Muße“, bedeutet und später zu „Studium“ und „Vorlesung“ wurde (Quelle: Wikipedia).
Bei Forschungen zur Künstlichen Intelligenz sind Autoren genau darauf eingegangen, weil sie vermuten, dass gerade diese ursprüngliche Perspektive besser zu den aktuellen Entwicklung passen kann:
„We find this etymology deeply revealing because it undercovers a profound truth about education´s original purpose: it wasn´t about preparing workers for jobs, but about providing space for thoughtful reflection and exploration of life´s fundamental questions. What inspires us about the ancient´s Greek approach is how they saw education as a means to help people find their purpose and develop their full potential as human beings“ (Bornet et al. 2025).
Auch der Jobs Reports 2025 des WEF zeigt auf, dass bis 2030 wohl 172 Millionen neue Jobs entstehen, und 92 Millionen wegfallen werden. Es geht dabei nicht immer um komplette Jobs, sondern auch um Teilbereiche oder Tätigkeitsportfolios, die immer mehr von AI Agenten übernommen werden (können).
Alles was mit Logik und Speicherung zu tun hat, ist eher die Stärke von Künstlicher Intelligenz, den Workflows, bzw. den AI Agenten. Doch in welchen Bereichen versagen AI Agenten noch? Dazu habe ich den folgenden Text gefunden:
„AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second“ (Bornet 2025 via LinkedIn).
Dabei bezieht sich Bornet auf eine Veröffentlichung von Bang Liu et al. (2025:19-20), in dem die Autoren drei Hirnregionen in Bezug auf AI (Artificial Intelligence) untersuchten. L1: Well developed; L2: Partially developed; L3: Underexplored.
Das Ergebnis ist also, dass AI Agenten in den Ebenen Emotionen, Kontext und Motivation unterentwickelt sind (L3), wenn es um menschliche Entscheidungen geht.
Erkenntnis (Cognition) entsteht dabei nicht nur in einem Bereich im Gehirn, sondern durch das Zusammenspiel vieler unterschiedlich vernetzter Areale. Bei komplexen Problemlösungsprozesse (CPS: Complex Problem Solving) geht es verstärkt um Emotionen, Kontext und Motivation.
Im Idealfall könnten Menschen an diesen Stellen einen Mehrwert für eine qualitativ gute Problemlösung (Erkenntnis) einbringen. Es stellt sich dabei allerdings auch die Frage, wie stark sich Menschen an die Möglichkeiten einer Künstlichen Intelligenz (AI Agenten) anpassen sollen.
Zusätzlich können die in dem sehr ausführlichen wissenschaftlichen Paper von Bang Liu et al. (2025) erwähnten Zusammenhänge Hinweise geben, wie die Zusammenarbeit – das Zusammenspiel – zwischen Menschen und AI Agenten organisiert, ja ermöglicht werden kann.
Weltweit werden KI-Giga-Factories gebaut, um den erforderlichen Rechenkapazitäten der großen Tech-Konzerne gerecht zu werden. Europa fällt auch hier immer weiter zurück, wodurch eine zusätzliche digitale Abhängigkeit entsteht.
Prof. Lippert vom Kernforschungszentrum hat das so ausgedrückt: „“Unser geistiges Eigentum geht in andere Länder“ (MDR vom 05.09.2025). Teilweise wird prognostiziert, dass KI-Rechenzentren bis 2030 so viel Energie benötigen, wie ganz Japan.
Es stellt sich daher die Frage, ob das langfristig der richtige Weg ist. Eine Antwort liefert möglicherweise der Energieverbrauch eines menschlichen Gehirns:
„Unser Gehirn benötigt für hochkomplexe Informationsübertragungen und -verarbeitungen weniger Energie als eine 30-Watt-Glühbirne“ (Prof. Dr. Amunts).
Mit so einer geringen Energiemenge leistet unser menschliches Gehirn erstaunliches. Es wundert daher nicht, dass die Entwicklung immer größerer Modelle (Large Language Models) infrage gestellt wird.
Forscher sind aktuell auf der Suche nach Modellen, die ganz anders aufgebaut sind und nur einen Bruchteil der aktuell benötigten Energie verbrauchen. Gerade in China gibt es dazu schon deutliche Entwicklungen. Auch in Deutschland befassen sich Forscher mit dem Thema neuroinspirierte Technologien.
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.