Künstliche Intelligenz: Enormer Ressourcenverbrauch großer KI-Modelle

Image by Jonathan Hammond from Pixabay

Wenn es um Künstliche Intelligenz geht, lesen wir in letzter Zeit immer häufiger, dass für die großen KI-Modelle „unbedingt“ größere Rechenzentren benötigt werden. Dafür wurden auch schon hohe Milliarden-Beträge auf dem Kapitalmarkt eingesammelt. Es scheint hier kein Limit zu geben.

Andererseits stehen allerdings auch Fragen zu den dafür benötigten Ressourcen im Raum. In einer modernen Welt geht es nicht mehr alleine um die Bedürfnisse von Tech-Konzernen, sondern auch darum, eine lebenswerte Umwelt zu erhalten. In dem Zusammenhang geht es somit auch um den CO2-Verbauch und um den Bedarf an Wasser. Dazu findet man im Aktuellen AI Report folgendes:

„AI’s environmental footprint is expanding alongside its capabilities. Grok 4’s estimated training emissions reached 72,816 tons of CO2 equivalent. AI data center power capacity rose to 29.6 GW, comparable to New York state at peak demand, and annual GPT-4o inference water use alone may exceed the drinking water needs of 12 million people“ (AI Report 2026).

Es ist schon erstaunlich, welche Ressourcen die hier genannten KI-Modelle verschlingen. Dabei streben die großen KI-Systeme eine übergreifende Art von Intelligenz an: Artificial General Intelligence (AGI), die der menschlichen Intelligenz weit überlegen sein soll. Betrachten wir daher einmal, wie viel Energie ein Mensch für eine komplexe Problemlösung benötigt:

„Das menschliche Gehirn leistet vieles, was Maschinen überfordert – und das mit minimalem Energieverbrauch. Im Durchschnitt verbraucht es nur etwa 20 Watt, so viel wie eine schwache Glühbirne“ Knees (2025): Wie Forscher die Tech-Konzerne entmachten wollen, in Handelsblatt vom 11.10.2025.

„Unser Gehirn benötigt für hochkomplexe Informationsübertragungen und -verarbeitungen weniger Energie als eine 30-Watt-Glühbirne“ (Prof. Dr. Amunts).

Es wird deutlich, dass der Energieverbrauch der großen Tech-KI-Modelle weniger intelligent ist, als man es uns weismachen möchte. Es wundert daher nicht, dass die Entwicklung immer größerer Modelle (Large Language Models) infrage gestellt wird.

Forscher sind aktuell auf der Suche nach Modellen, die ganz anders aufgebaut sind und nur einen Bruchteil der aktuell benötigten Energie verbrauchen. Gerade in China gibt es dazu schon deutliche Entwicklungen. Auch in Deutschland befassen sich Forscher mit dem Thema neuroinspirierte Technologien.

Everyone is a genius …

Image by StockSnap from Pixabay

In der aktuellen Diskussion um Künstliche Intelligenz kann man das Gefühl bekommen, dass KI-Modelle alles besser machen, als es der Mensch kann. Als Mensch fühlt man sich vergleichsweise dumm.

Auf der einen Seite also die „überlegene“ Künstliche Intelligenz und auf der anderen Seite die menschliche Dummheit.

In der Zwischenzeit gibt es natürlich auch Belege dafür, dass KI-Modelle die für Menschen ausgedachten Intelligenz-Tests zur Bestimmung des Intelligenz-Quotienten meistern. Doch sollten wir solche Vergleiche überhaupt ziehen? Sind sie eher eine Art Kategorienfehler?

Everyone is a genius, but if you judge a fish on its ability to climb a tree, it will live his whole life believing it is stupid – Albert Einstein.

Was ist, wenn wir die menschliche Intelligenz in den Mittelpunkt stellen und künstliche Intelligenz dazu verwenden, die Probleme der Menschen zu lösen?

Der Intelligenz-Quotient (IQ) scheint kein geeignetes Instrument zu sein, menschliche Intelligenz darzustellen. Siehe dazu OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler?

Möglicherweise ist die Definition von Intelligenz nach Howard Gardner treffender:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner 2002:46-47).

Wenn wir die Perspektive auf Menschliche Intelligenz und Künstliche Intelligenz anpassen, kann die technologische Entwicklung zum Vorteil ganzer Gesellschaften sein. Das Beispiel Society 5.0 zeigt, wie das aussehen kann. Siehe dazu auch

Künstliche Cleverness statt Künstliche Intelligenz?

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Künstliche Intelligenz – Ein Kategorienfehler nach Luhmann

Warum es nicht angemessen erscheint, Künstliche Intelligenz und Menschliche Intelligenz zu verwechseln

Künstliche Intelligenz und Bewusstsein

Quelle: Bahnsen/Schnabel (2012(; (c) Dr. Robert Freund

Ein wichtiges Element, worin sich Künstliche Intelligenz und Menschliche Intelligenz unterscheiden, soll das Bewusstsein sein (Penrose 2025). Schauen wir uns zunächst einmal an, was das menschliche Bewusstsein ausmacht. In einem Artikel von Bahnsen und Schnabel (2012) wird u.a. der Entwicklungspsychologe Tomasello wie folgt zitiert:

„Das menschliche Selbstbewusstsein existiert nicht für sich allein, behauptet Michael Tomasello, Leiter der Abteilung Entwicklungspsychologie. Es ist wesentlich ein Produkt der Interaktion mit anderen“ (ebd.).

Es geht hier um die Interaktion mit und zwischen Menschen – unter weiter:

„Ihr Bewusstsein entsteht durch spezielle und hoch entwickelte Formen sozialer Fähigkeiten bei der Interaktion mit anderen – etwas was Tomasello „kulturelle Intelligenz“ nennt“ (ebd.).

Die vernetzten Interaktionsformen bei Menschen weisen auf eine Dynamik bei dem Bewusstsein hin, die in der Abbildung beispielhaft in Bezug zu Wachheit zu erkennen ist. Da diese Argumente sehr stark auf Menschen bezogen sind, ergibt sich in der Zwischenzeit die Frage, ob auch Künstliche Intelligenz so eine Art von Bewusstsein haben kann.

Nobelpreisträger Sir Roger Penrose hat hier eine deutliche und klare Meinung. Da Künstliche Intelligenz nach seiner Auffassung kein Bewusstsein haben wird, sollten wir nicht von Künstlicher Intelligenz, sondern eher von Künstlicher Cleverness sprechen. Sie dazu Künstliche Cleverness statt Künstliche Intelligenz?

Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World.
Available at: https://www.youtube.com/watch?v=biUfMZ2dts8

AI will not have conscious – Künstliche Intelligenz wird kein Bewusstsein haben.

In seiner Argumentation verwendet Penrose Gödels Theorem, was als Penrose-Lucas Argument (englisch) durchaus auf Kritik in der Wissenschaftswelt gestoßen ist. Was erwartbar war – so ist eben spannende, lebendige Wissenschaft.

Künstliche Intelligenz und „grausamer Optimismus“

Der Begriff „Cruel Optimism“ (Grausamer Optimismus) wurde von Lauren Berlant geprägt und ist in Berlant, L. (2011): Cruel optimism ausführlich erläutert. Was ist nach Berlant unter „Grausamer Optimismus“ zu verstehen?

„A relation of cruel optimism exists when something you desire is actually an obstacle to your flourishing“. (…) They become cruel only when the object that draws your attachment actively impedes the aim that brought you to it initially.

Nicht jede optimistische Wunschvorstellung ist per se grausam. Sie wird allerdings zu einem Grausamen Optimismus (Cruel Optimism), wenn das Objekt, an dem Ihre Zuneigung hängt, das Ziel, das Sie ursprünglich dazu geführt hat, aktiv behindert. Das ist nicht ganz leicht zu verstehen. Zwei Beispiele können möglicherweise helfen:

„Zwei hervorragende Beispiele dafür sind die Diätindustrie und die kulturelle Besessenheit von Produktivitätstricks: Anstatt unsere maroden Ernährungssysteme oder die schleichende Kultur von Burnout und Überarbeitung zu betrachten, schieben wir die Verantwortung für eine gesündere Ernährung und ein effizienteres Zeitmanagement auf den Einzelnen ab. Dadurch blenden wir die tieferliegenden Ursachen systemischer Probleme aus. Und wenn die Lösung dann scheitert, geben sich die Betroffenen selbst die Schuld, nicht genug Willenskraft gehabt zu haben“ (Goleman, D. (2026): How AI Could Produce ‘Cruel Optimism’, deutschsprachige Übersetzung mit Google Translate).

Goleman sieht hier auch einen Zusammenhang zwischen Künstlicher Intelligenz und dem von Berlant angesprochenen „Grausamen Optimismus“. Auch Künstliche Intelligenz weckt Wünsche und Sehnsüchte, und verheißt eine optimistische, effiziente Zukunft, da KI alle möglichen Probleme der Menschen lösen kann, bzw. lösen wird.

Wenn wir also mit den KI-Modellen und KI-Agenten die Probleme nicht lösen können, so sind wir Menschen eben die Dummen. Auch hier geben sich die einzelnen Personen, oder Gruppen von Personen, oder sogar Organisationen die Schuld, nicht gut genug zu sein in der Nutzung von Künstlicher Intelligenz. Diese Logik führt zwangsläufig zu einem „Grausamen Optimismus“ in der die Betroffenen sich selbst die Schuld geben. Der oben verlinkte Beitrag von Daniel Goleman enthält noch weitere (englischsprachige) Details dazu.

Interessant ist hier auch, dass Daniel Goleman 1995 den Bestseller Emotional Intelligence. Why it can matter more than IQ (Quelle: Wikipedia) geschrieben hat und Goleman sich in der Tradition von Howard Gardner´s Theorie der Multiplen Intelligenzen versteht.

Kollektive Intelligenz: Voraussetzungen sind gegenseitige Anerkennung und Bereicherung

Quelle: Feldhusen, B. (2021)

In dem Blogbeitrag Wisdom of Crowds – Schwarm Intelligenz – Kollektive Intelligenz bin ich schon einmal intensiver auf die Unterscheidung der jeweiligen Ansätze eingegangen. Darin zitiere ich Feldhusen (2021), der sich wiederum auf Lévy vom MIT Center of Collective Intelligence bezieht. Es lohnt sich, dessen Auffassung noch etwas genauer zu betrachten:

„Die Netzwerkgesellschaft wird nicht von einer Expertenintelligenz getragen, die für andere denkt, sondern von einer kollektiven Intelligenz, die die Mittel erhalten hat, sich auszudrücken. Der Anthropologe des Cyberspace, Pierre Lévy, hat sie untersucht: »Was ist kollektive Intelligenz? Es ist eine Intelligenz, die überall verteilt ist, sich ununterbrochen ihren Wert schafft, in Echtzeit koordiniert wird und Kompetenzen effektiv mobilisieren kann. Dazu kommt ein wesentlicher Aspekt: Grundlage und Ziel der kollektiven Intelligenz ist gegenseitige Anerkennung und Bereicherung …« (Lévy, 1997, S. 29). Um allen Missverständnissen zuvor zu kommen, richtet er sich ausdrücklich gegen einen Kollektivismus nach dem Bild des Ameisenstaates. Vielmehr geht es ihm um eine Mikrovernetzung des Subjektiven. »Es geht um den aktiven Ausdruck von Singularitäten, um die systematische Förderung von Kreativität und Kompetenz, um die Verwandlung von Unterschiedlichkeit in Gemeinschaftsfähigkeit« (ebd., S. 66)“ (zitiert in Grassmuck 2004).

L ÉVY, PIERRE (1997): Die Kollektive Intelligenz. Eine Anthropologie des Cyberspace, Bollmann Verlag, Mannheim.

In der Grafik ist zu erkennen, dass es bei Kollektiver Intelligenz auch um diverse, unabhängige Agenten geht, die komplex gekoppelt sind. Aus der heutigen Perspektive können damit auch KI-Agenten im Netzwerk diverser Akteure gemeint sein. Auch in so einem Netzwerk würde es also nicht DIE Expertenintelligenz geben. Intelligenz (menschliche, künstliche, hybride Formen) würde sich also im Netzwerk verteilt, immer wieder neu bilden.

Um das zu erreichen, müssen allerdings Voraussetzungen erfüllt sein, die von den Tech-Konzernen mit ihren KI-Agenten manchmal „vergessen“ werden. Grundlage und Ziel der Kollektiven Intelligenz sind nach Lévy „gegenseitige Anerkennung und Bereicherung“. Bei diesen Punkten habe ich bei den proprietären KI-Modellen so meine Zweifel.

Warum es nicht angemessen erscheint, Künstliche Intelligenz und Menschliche Intelligenz zu verwechseln

Image by StockSnap from Pixabay

Seit langem geht es um die Frage, ob es möglich ist, Künstliche Intelligenz mit Menschlicher Intelligenz zu vergleichen. In der Zwischenzeit mehren sich dazu die Meinungen, dass dieser Vergleich ein Kategorienfehler sein kann. Siehe dazu beispielhaft Künstliche Cleverness statt Künstliche Intelligenz?

Auch Walter Quattrociocchi, Full Professor of Computer Science at Sapienza University, hat in verschiedenen psychologischen Tests Unterschiede zwischen Künstlicher Intelligenz und Menschlicher Intelligenz herausgefunden.

Quattrociocchi, W. (2026): What we risk when we confuse AI and human intelligence. Putting humans and LLMs head-to-head in classic tests of judgment from human psychology underscores the differences between them. Scientific American, 18.02.2026.

Zunächst beschreibt Quattrociocchi die Ausbildung von Ärzten, die über Jahre nicht nur lesen, sondern auch mit und an menschlichen Körpern arbeiten, Diagnosen stellen und Behandlungen durchführen. Wenn man das mit den Antworten der Künstlichen Intelligenz (genauer: Antworten auf Basis der Large Language Models) vergleicht, wird deutlich, dass etwas Wesentliches fehlt.

„Across all the tasks we have studied, a consistent pattern emerges. Large language models can often match human responses but for reasons that bear no resemblance to human reasoning. Where a human judges, a model correlates. Where a human evaluates, a model predicts. When a human engages with the world, a model engages with a distribution of words. Their architecture makes them extraordinarily good at reproducing patterns found in text. It does not give them access to the world those words refer to“ (ebd.).

Der Autor weist auf die Stärken von KI-Modellen hin, die er „linguistic automation“ nennt. Weiterhin wird im Artikel auch hervorgehoben, dass den KI-Modellen ein wichtiges Element fehlt: die Verbindung zur realen Welt. Siehe dazu auch Rent a Human: KI-Agenten bieten Arbeit für Menschen an.


Chaos macht das Leben und die Intelligenz möglich

Image by Miroslaw Miras from Pixabay

Keiner will Chaos! Es geht um Kontrolle über Abläufe, die Umwelt, das eigene Leben usw. Doch lernen wir langsam (sehr langsam), dass das Leben mit seiner Entwicklung in den letzten Milliarden von Jahren immer wieder überraschende Sprünge gemacht hat. Siehe dazu auch Die Selbstorganisation des Universums.

Solche Bifurkationspunkte in komplexen Systemen (siehe Synergetik nach Haken) haben in Summe eben auch dazu geführt, dass es uns Menschen gibt. Es scheint so zu sein, als ob es in manchen Situationen gut ist, wenn etwas regelmäßig passiert, in anderen Situationen eben nicht. Das kann man sich am eigenen Körper gut klarmachen:

„Es ist wohlbekannt, dass das Herz im Prinzip regelmäßig schlagen muss, weil wir sonst stürben. Das Hirn aber muss im Prinzip unregelmäßig arbeiten, sonst würden wir epileptisch. Dies zeigt, dass Unregelmäßigkeit, Chaos, zu komplexen Systemen führt. Das bedeutet nicht etwa Unordnung, im Gegenteil, ich würde sagen, gerade das Chaos macht das Leben und die Intelligenz möglich“ (Prigogine, zitiert in Briggs, J.; Peat, F. D. (1999): Die Entdeckung des Chaos. Eine Reise durch die Chaos-Theorie).

Wenn Chaos allerdings Leben und die Intelligenz möglich macht, dann ist Chaos eben nicht nur negativ, sondern auch positiv zu sehen. Das entspricht leider nicht der umgangssprachigen Interpretation des Wortes Chaos, das fast immer dann gebraucht wird, um etwas negativ darzustellen. Wir tun gut daran, diese Interpretation zu ändern, denn immerhin sind wir als Menschen aus einem Chaos entstanden.

Künstliche Cleverness statt Künstliche Intelligenz?

Eigene Darstellung, vgl. Martin Chiupa (2026) via LinkedIn

Sir Roger Penrose ist u.a. Mathematiker und theoretischer Physiker. In 2020 hat er eine Hälfte des Nobelpreises für Physik erhalten. Penrose hat sich darüber hinaus recht kritisch mit Künstlicher Intelligenz auseinandergesetzt.

Er ist zu der Auffassung gelangt, dass man nicht von Künstlicher Intelligenz (Artificial Intelligence), sondern eher von Künstlicher Cleverness (Artificial Cleverness) sprechen sollte. Dabei leitet er seine Erkenntnisse aus den beiden Gödelschen Unvollständigkeitssätzen ab. In einem Interview hat Penrose seine Argumente dargestellt:

Sir Roger Penrose, Gödel’s theorem debunks the most important AI myth. AI will not be conscious, Interview, YouTube, 22 February 2025. This Is World.
Available at: https://www.youtube.com/watch?v=biUfMZ2dts8

Da das alles ziemlich schwere Kost ist, hat Martin Chiupa (2026) via LinkedIn eine Übersicht (Abbildung) erstellt, die anhand verschiedener Kriterien Unterschiede zwischen Human Intelligence, AI Systems und Artificial Cleverness aufzeigt.

Penrose steht mit seiner Auffassung nicht alleine. Siehe dazu auch Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler.

Soziale Kompetenz – eine Einordnung

Kanning, U. P. (2005): Soziale Kompetenzen. Göttingen: Hofgrefe.

In vielen Diskussionen verwenden Teilnehmer gleichlautende Begriffe, deren Bedeutungen allerdings unterschiedlich interpretiert werden. Weiterhin kann es vorkommen, dass Begriffe synonym verwendet werden, wodurch auch ein ziemliches Durcheinander entstehen kann.

In der Abbildung ist beispielsweise zu erkennen, dass der Oberbegriff Soziale Kompetenz, die Bereiche Soziale Intelligenz, Emotionale Intelligenz und auch Soziale Fertigkeiten umfasst – mit diesen Begriffen somit nicht gleichzusetzen ist.

Weiterhin können auch Emotionale Intelligenz und Emotionale Kompetenz unterschieden werden.

Ähnlich sieht es bei Persönlichkeitseigenschaften, -fähigkeiten und Kompetenzen aus.

Auch sollte bedacht werden, dass wir bei Intelligenz oft and den Intelligenz-Quotienten denken, was gerade in der Diskussion um Künstliche Intelligenz tückisch sein kann: OpenAI Model “o1” hat einen IQ von 120 – ein Kategorienfehler? Hier hat die Multiple Intelligenzen Theorie möglicherweise eine bessere Passung.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenzen auf den Ebenen Individuum, Gruppe, Organisation und Netzwerk.

Emotionale Intelligenz: Der Begriff hat eine recht lange und bewegte Geschichte

Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.

In der heutigen Diskussion um „Intelligenz“ geht es gerade in Bezug auf Künstliche Intelligenz auch um Emotionale Intelligenz. Die meisten werden den Begriff von der Veröffentlichungen Daniel Golemans kennen. Stellvertretend möchte ich sein Buch „Emotional Intelligence“ aus dem Jahr 1995 nennen.

Goleman, D. (1995): Emotional Intelligence. Why It Can Matter More Than IQ.

Wenn man sich allerdings etwas genauer mit dem Begriff befasst, stößt man recht schnell auf Salovay/Meyer, die schon 1990 von „Emotionaler Intelligenz“ geschrieben haben.

Salovey, P.; Mayer, J. D. (1990): Emotional Intelligence. In: Imagination, Cognition and Personality. 9. Jg. Heft 3, S. 185-211.

Dabei ist interessant, dass sich die beiden bei ihren Überlegungen schon 1993 direkt auf die Multiple Intelligenzen Theorie bezogen haben. Was bedeutet, dass Emotionale Intelligenz als Teil der von Howard Gardner angenommenen Multiplen Intelligenzen Theorie gesehen werden kann.

In der Zwischenzeit habe ich in einer weiteren Quelle eine Notiz gefunden, die besagt, dass der Schwede Björn Rosendal schon 1976 den Begriff „Emotional Intelligence“ geprägt hat. Manchmal ist es gut, sich die Historie eines oft verwendeten Begriffs klar zu machen.

„He coined the term „emotional intelligence“ in 1976″
Rosendal , Björn (1981): The Emotional Intelligence, Edition Sellem.

Der Hinweis auf Rosendal fehlt auf der Wikipedia-Seite zu Emotionale Intelligenz. Dort gibt es allerdings noch zwei weitere Quellen:

„The term „emotional intelligence“ may have first appeared in a 1964 paper by Michael Beldoch. and a 1966 paper by B. Leuner“ (ebd.).

Möglicherweise gibt es noch weitere, frühere Erwähnungen von Emotionaler Intelligenz. Das Konstrukt hat sich – wie viele – über die Jahrzehnte weiterentwickelt. Das zu analysieren, würde allerdings diesen Beitrag sprengen.