Von der Wissensgesellschaft über die Kompetenzgesellschaft zur Wertegesellschaft?

Von der eher landwirtschaftlich geprägten Gesellschaft, über die Industriegesellschaft und einer in den 1960er Jahren propagierten Wissensgesellschaft sind wir nach Erpenbeck/Heyse (2019) in einer Kompetenzgesellschaft gelandet. Siehe dazu auch Der Strukturbruch zwischen einfacher und reflexiver Modernisierung.

Kompetenzen als Selbstorganisationsdispositionen enthalten nach Erpenbeck (2012) „konstitutiv interiorisierte Regeln, Werte und Normen als Kompetenzkerne“.

Wenn Werte gleichzeitig als Ordner sozialer Komplexität angesehen werden können, liegt der Schluss nahe, dass wir uns stärker zu einer Art Wertegesellschaft entwickeln.

Da der Kern von Kompetenz also auch Werte beinhaltet, ist eine Kompetenzgesellschaft auch in gewisser Weise eine Wertegesellschaft.

Die Wertesystem der Europäischen Union ist die Basis für unser Zusammenleben – auch in Bezug auf Künstliche Intelligenz, oder in Abgrenzung zu anderen Wertesystemen weltweit.

Oxford Insights (2025): Government AI Readiness Index 2025

Quelle: https://oxfordinsights.com/ai-readiness/government-ai-readiness-index-2025/

Im Dezember 2025 hat Oxford Insights den Government AI Readiness Index 2025 veröffentlicht. Darin wurde die Fähigkeit von 195 Regierungen bewertet, Künstliche Intelligenz zum Wohle der Öffentlichkeit einzusetzen:

„This year, we assess 195 governments worldwide by their capacity to harness AI to benefit the public“ (ebd.).

Es wird deutlich, dass wir in einer bi-polaren Welt leben, wenn es um Künstliche. Intelligenz geht. Die beiden Pole sind dabei die USA und China.

Dennoch ist auch ersichtlich, dass sich sehr viele regionale und nationale Initiativen damit befassen, wie die Möglichkeiten der Künstlichen Intelligenz für eine Gesellschaft nutzbar gemacht werden können.

Einige Zahlen zum Jahresende 2025

Das Jahr 2025 neigt sich dem Ende zu, und es ist Zeit, das Jahr Revue passieren zu lassen. Dazu zählt natürlich auch, einige Zahlen zu unserem Blog und zu den Aktivitäten in Sozialen Medien zusammenzustellen.

Um es gleich vorweg zu sagen: Uns geht es dabei nicht alleine um Reichweite, sondern um Qualität. Alle Blogbeiträge enthalten daher Quellenangaben, sodass klar wird, was aus der Quelle stammt, und was unsere Meinung dazu ist. Darüber hinaus haben wir uns von Anfang an entschiedenen, unseren Blog ohne nervige Werbung anzubieten.

Durch diese Arbeitsweise haben wir von Anfang an auf Vertrauen gesetzt. Genau das macht unseren Blog in der Zwischenzeit zu einem Qualitätsprodukt, das sich von der massenhaften Produktion von Content durch Künstliche Intelligenz unterscheidet.

Es ist toll zu sehen, dass unsere Blogbeiträge und Themen auch im Jahr 2025 beachtet wurden. Die folgenden Zahlen sollen das verdeutlichen:

Insgesamt finden Sie bei uns jetzt 4.377 Blogbeiträge. Davon sind 288 im Jahr 2025 hinzugekommen.

Beiträge wurden in diesem Jahr knapp 45.000 mal aufgerufen – JetPack-Statistik in WordPress.

Die Anzahl der Besucher wieder ein hohes Niveau erreicht : 20.000 Besucher aus dem In- und Ausland sind an unseren Blogbeiträgen interessiert – JetPack-Statistik in WordPress.

Bei LinkedIn besteht mein Netzwerk aktuell aus 736 Kontakten.

Bei Facebook habe ich 345 Follower und Jutta 1.680 Freunde.

Mein X-Account (vormals Twitter) hat aktuell 1.207 Follower, wobei das nicht unserer bevorzugter Kanal ist.

Wir sehen diese Zahlen als Ansporn, auch im Neuen Jahr 2026 auf allen Kanälen weiterhin aktiv zu sein.

„McKinsey just killed Agile“ – eine interessante Perspektive

Source: Montagne, J. McKinsey just killed Agile,, 26.12.2025

In der Softwareentwicklung war es schon früh klar, dass Projekte mit unklaren Anforderungen anders abgewickelt werden müssen, als gut planbare Projekte. Aus diesen Überlegungen heraus hat sich das Agile Manifest ergeben, und haben sich verschiedene Vorgehensmodelle entwickelt, wie z.B. KANBAN in der IT, Scrum oder auch Design Thinking.

Es wundert weiterhin nicht, dass Künstliche Intelligenz rasch in der Softwareentwicklung – z.B. auch im Scrum Framework – angewendet wurde, und auch noch wird. An dieser Stelle wird klar, dass bestehende Prozesse mit KI effizienter durchgeführt werden sollen. In dem Beitrag von Montagne (2025) wird in Bezug auf eine McKinsey-Studie erwähnt, dass durch diese Vorgehensweise durchaus Produktivitätsvorteile in Höhe von 10-15% erzielt werden können.

„Old Model (Standard Agile + AI): ~10-15% productivity gain“ (ebd.).

Demgegenüber weist Montagne allerdings auch darauf hin, dass durch eine andere Vorgehensweise – also ohne das Scrum Framework – plus KI ganz andere Produktivitätsvorteile erzielt werden können.

„New Model (Small Pods + Agentic Workflows): Transformational gains (500%+)“ (ebd.).

Die Abbildung weiter oben zeigt in der Gegenüberstellung die immensen Vorteile einer Vorgehensweise, die sich von Scrum unterscheidet und Agentic AI mit Kiro nutzt.

Es stellt sich natürlich gleich die Frage, ob dieses Learning aus der Softwareentwicklung auch auf andere Bereiche übertragbar ist. Antwort: Ja, das ist es.

In dem Blogbeitrag Warum wird GESCHÄFTSMODELL + AI nicht ausreichen? habe ich die Gründe dafür beschrieben.

Added Values: Nutzendimensionen, Wert und Werte

Krieg/Groß/Bauernhansl (2024) (Hrsg.): Einstieg in die Mass Personalization. Perspektiven für Entscheider

Wenn es um den Nutzen, oder den Wert, eines Produktes oder einer Dienstleistung geht, sollten grundsätzlich zwei Punkte beachtet werden.

(1) Die verschiedenen Dimensionen von Nutzen (Added Values)
In der Abbildung ist zu erkennen, dass Added Values fünf Dimensionen beinhalten. Neben dem funktionalen Nutzen, sind das natürlich der wirtschaftliche Nutzen, ein prozessoraler Nutzen und ein emotionaler Nutzen, Die Dimension, die stärker in den Fokus rücken sollte, ist der soziale Nutzen (eigene Hervorhebung in der Abbildung). Am Beispiel der Anwendung von Künstlichen Intelligenz wird deutlich, dass der Fokus in der aktuellen Diskussion zu sehr auf dem wirtschaftlichen Nutzen liegt, und zu wenig den sozialen Nutzen thematisiert.

(2) Nutzen, Wert und Werte
Bei einer ausgewogenen Betrachtung zur Nutzung Künstlicher Intelligenz auf der persönlichen Ebene, auf der Team-Ebene, auf der organisationalen Ebene oder auf gesellschaftlicher Ebene können Werte als Ordner dienen. „Der Begriff »Werte« unterscheidet sich vom Begriff »Wert« dadurch, dass der erste Begriff die Gründe beschreibt, warum etwas für jemanden wichtig ist. Werte repräsentieren normative Grundlagen, die als Leitprinzipien für individuelles Verhalten und gesellschaftliche Strukturen dienen. Sie bilden die Basis für die Bewertung von Wert und beeinflussen die Art und Weise, wie Individuen und Gesellschaften Güter, Dienstleistungen oder Handlungen priorisieren“ (Hämmerle et al. 2025, Fraunhofer HNFIZ).

Siehe dazu auch

Künstliche Intelligenz und Werte für das Zusammenleben in der Europäischen Union

Agile Organisation: Werte und Prinzipien als Hebelwirkung

Wirkungstreppe bei Not-for-Profit-Projekten: Output, Outcome und Impact

MCP: Konferenz zu Mass Customization and Personalization im September 2026

Warum öffnet OpenAI mit GPT OSS die Tür zu Open Source?

Quelle; https://openai.com/de-DE/index/introducing-gpt-oss/

In dem Kontinuum der KI-Modelle sind die Übergänge zwischen den Polen fließend. Immer mehr große Modelle bieten daher neben den Closed Models (Proprietäre Modelle) sogenannte Open Weights Modelle an.

OpenAI hat am 05.08.2025 GPT OSS veröffentlicht, das in der kleinsten Version mit 20B z.B. über Huggingface genutzt werden kann. Grundsätzlich erscheint diese Öffnung gut zu sein. Der Beitrag OpenAI Cracks The Door With GPT OSS vom 11.08.2025 geht darauf detaillierter ein. Ich möchte dazu folgende Punkte anmerken:

(1) OpenAI suggerierte bei der Gründung mit dem Namen, dass man sich den Open Source Werten verpflichtet fühlt. Seit 2019 ist OpenAI allerdings vorwiegend ein kommerzielles Unternehmen, das den Firmennamen für geschicktes Marketing nutzt.

(2) Der Modellname GPT OSS weist zunächst darauf hin, dass es sich um Open Source Software (OSS) handelt, was grundsätzlich zu begrüßen ist.

(3) Möglicherweise werden viele GTP OSS mit Open Source AI verwechseln, was möglicherweise auch gewollt ist. Ansonsten hätte das Unternehmen auch einen anderen Namen verwenden können.

(4) Bei GPT OSS handelt es sich nicht um Open Source AI, sondern um einen Open Weight Model: „Among the Big AI companies, attitudes towards openness vary. Some, like OpenAI or Anthropic, do not release any of their models openly. Others, like Meta, Mistral or Google, release some of their models. These models — for example, Llama, Mistral or Gemma — are typically shared as open weights models“ (Tarkowski, A. (2025): Data Governance in Open Source AI. Enabling Responsible and Systemic Access. In Partnership with the Open Source Initiative).

(5) Dabei ist zu beachten, dass man sich mit proprietärer Künstlicher Intelligenz (KI) immer noch die Denkwelt der Eigentümer einkauft.

Siehe dazu auch

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Buyl et al. (2024): Large Language Models Reflect the Ideology of their Creators

Mass Intelligence: Wenn mehr als 1 Mrd. Menschen Zugang zu leistungsfähiger KI haben

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Wenn wir uns die Entwicklungen der Künstlichen Intelligenz in der letzten Zeit ansehen, so fällt auf, dass es mehrere Trends gibt.

Neben den dominierenden wenigen großen Large Language Models (LLMs) der Tech-Konzerne gibt es immer mehr kleine Modelle (Small Language Models), die je nach Anwendungsfall ausgewählt werden können. Solche SLM sind flexibler, kostengünstiger und in bestimmten Bereichen sogar besser. Siehe dazu auch KI-Modelle: Von „One Size Fits All“ über Variantenvielfalt in die Komplexitätsfalle?

Weiterhin wird für solche Problemlösungen auch viel weniger Energie benötigt, was die weltweiten, aber auch die unternehmensspezifischen Ressourcen/Kosten schont, Siehe dazu auch Künstliche Intelligenz: Das menschliche Gehirn benötigt maximal 30 Watt für komplexe Problemlösungen.

Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI

Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.

Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.

„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).

Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.

Künstliche Intelligenz und Lernzieltaxonomie

Die Lernzieltaxonomie von Bloom et al. aus dem Jahr 1956 wird heute noch in ihrer ursprünglichen Fassung benutzt, obwohl es schon zeitgemäßere Weiterentwicklungen gibt.

Zunächst einmal ist der Vorschlag von Anderson und Krathwohl aus dem Jahr 2001 zu nennen, bei dem die oberste Ebene in Evaluieren umbenannt wurde, und eine weitere Ebene „Erschaffen“ hinzugekommen ist.

Auf Basis dieser Weiterentwicklung hat die Oregon State University 2024 eine englischsprachige Darstellung unter der Lizenz CC BY-NC 4.0 veröffentlicht, die die jeweiligen Ebenen mit den Möglichkeiten der Künstlicher Intelligenz ergänzt.

Das Trendscouting-Team der PHBern hat die gesamte Übersicht ins Deutsche übersetzt (Abbildung).

Künstliche Intelligenz, Agiles Manifest, Scrum und Kanban

Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:

Agiles Manifest: Individuen und Interaktionen mehr als Prozesse und Werkzeuge
In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden
Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

KANBAN basiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt.
Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.

In einem anderen Blogbeitrag hatte ich dazu schon einmal darauf hingewiesen, dass man sich mit proprietärer Künstlicher Intelligenz (KI) auch die Denkwelt der Eigentümer einkauft.

Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.

Es liegt an uns, ob wir uns von den Tech-Giganten weiter in eine immer stärker werdende Abhängigkeit treiben lassen, oder andere Wege gehen – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Wie geht Indien mit Künstlicher Intelligenz um?

Quelle: https://static.pib.gov.in/WriteReadData/specificdocs/documents/2025/nov/doc2025115685601.pdf

In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Herangehensweisen in den USA, in China und in Europa sind, wenn es um Künstliche Intelligenz geht. Darüber hinaus hat auch Japan mit dem Ansatz einer Society 5.0 beschrieben, dass Künstliche Intelligenz dazu dienen soll, die Herausforderungen einer modernen Gesellschaft zu lösen.

Auch das aufstrebende Indien hat nun seine Richtlinien für die gesellschaftliche Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) veröffentlicht. Dabei werden gleich zu Beginn folgende 7 Prinzipien genannt:

01 Trust is the Foundation
Without trust, innovation and adoption will stagnate.
02 People First
Human-centric design, human oversight, and human empowerment.
03 Innovation over Restraint
All other things being equal, responsible innovation should be prioritised over cautionary restraint.
04 Fairness & Equity
Promote inclusive development and avoid discrimination.
05 Accountability
Clear allocation of responsibility and enforcement of regulations.
06 Understandable by Design
Provide disclosures and explanations that can be understood by the intended user and regulators.
07 Safety, Resilience & Sustainability
Safe, secure, and robust systems that are able to withstand systemic shocks and are environmentally sustainable.

Source: Ministry of Electronics and Information Technology (2025): India AI Governance Guidelines. Enabling Safe and Trusted AI Innovation (PDF)

Bemerkenswert finde ich, dass an erster Stelle steht, dass Vertrauen die Grundlage für Innovationen bildet. Vertrauen in die Möglichkeiten der Künstlichen Intelligenz kann man meines Erachtens nur durch Transparenz erreichen. Proprietäre KI-Systeme, bei denen unklar ist, wo die Daten herkommen und wie mit (auch eigenen) Daten umgegangen wird, sind unter der genannten Bedingung (Trust) mit Vorsicht zu genießen.

Siehe dazu auch Digitale Souveränität: Open Source KI-Systeme fördern Innovationen für die gesamte Gesellschaft.