Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht

In den letzten Jahrhunderten hat sich angedeutet, dass einmal Erlerntes immer wieder aktualisiert werden musste (Abbildung). In manchen Bereichen kommt es auch vor, dass das Erlernte gar nicht mehr benötigt wurde, und Mitarbeiter von Unternehmen ganz neue Themen lernen mussten.

Diese Entwicklung nimmt nun mit den Möglichkeiten der Künstlichen Intelligenz noch einmal Fahrt auf. Klassische Abschlüssen und Zertifikate können durchaus schnell an Wert verlieren. Die Beratungsgesellschaft McKinsey verkündet sogar das Ende der klassischen Ausbildung – ganz im Sinne des Lebenslangen Lernens. In einem Artikel dazu findet man folgenden Kommentar:

Für Arbeitnehmer bedeutet dies, dass die eigene Lernfähigkeit zum wichtigsten Kapital wird, während Unternehmen ihre Personalstrategien grundlegend neu ausrichten müssen, um in einer KI-getriebenen Umgebung wettbewerbsfähig zu bleiben“ (Niels Matthiesen, Golem vom 07.01.2025).

Organisationen müssen verstehen, wie ihre Mitarbeiter, wie Teams (Projektteams), die gesamte Organisation und ihr Netzwerk lernen – ganz im Sinne einer Lernenden Organisation.

Dabei stellt sich natürlich gleich die Frage, ob Organisationen überhaupt etwas über Lernen wissen. Wie in der Abbildung zu erkennen ist, geht es in Zukunft nicht mehr um Sicherheitslernen, sondern um Unsicherheitslernen, was eine Kompetenzstärkung bedeutet.

Führungskräfte ermöglichen dabei Lernprozesse. Genau das ist die Aufgabe der Erwachsenenbildung. Führungskräfte sollten daher wissen, was unter moderner Erwachsenenbildung zu verstehen ist.

Siehe dazu auch Agiles Lernen und selbstorganisierte Kompetenzentwicklung.

Von der Wissensgesellschaft über die Kompetenzgesellschaft zur Wertegesellschaft?

Von der eher landwirtschaftlich geprägten Gesellschaft, über die Industriegesellschaft und einer in den 1960er Jahren propagierten Wissensgesellschaft sind wir nach Erpenbeck/Heyse (2019) in einer Kompetenzgesellschaft gelandet. Siehe dazu auch Der Strukturbruch zwischen einfacher und reflexiver Modernisierung.

Kompetenzen als Selbstorganisationsdispositionen enthalten nach Erpenbeck (2012) „konstitutiv interiorisierte Regeln, Werte und Normen als Kompetenzkerne“.

Wenn Werte gleichzeitig als Ordner sozialer Komplexität angesehen werden können, liegt der Schluss nahe, dass wir uns stärker zu einer Art Wertegesellschaft entwickeln.

Da der Kern von Kompetenz also auch Werte beinhaltet, ist eine Kompetenzgesellschaft auch in gewisser Weise eine Wertegesellschaft.

Die Wertesystem der Europäischen Union ist die Basis für unser Zusammenleben – auch in Bezug auf Künstliche Intelligenz, oder in Abgrenzung zu anderen Wertesystemen weltweit.

OECD (2025): OECD Skills Outlook 2025

Source: OECD Skills Outlook 2025 (PDF)

Der OECD Skills Outlook 2025 (PDF) enthält unter anderem eine Übersicht zu den 21 st-century skills. In der Abbildung ist einmal der Kern (Core) mit Literacy, Numeracy und Adaptive problem solving zu erkennen. Ergänzend sind auch noch untergeordnete Skills für Erwachsene und Jugendliche aufgelistet.

In dem heute sehr turbulenten Umfeld ist es oft schwer, Voraussagen zu machen. Dennoch können gerade so umfassende Untersuchungen wie die von der OECD eine erste Orientierung geben. Siehe dazu auch

DigComp 3.0: European Digital Competence Framework 2025

WEF (2025): Future of Jobs Report – Project Manager auf Platz 12 der „growing jobs“

Oxford Insights (2025): Government AI Readiness Index 2025

Quelle: https://oxfordinsights.com/ai-readiness/government-ai-readiness-index-2025/

Im Dezember 2025 hat Oxford Insights den Government AI Readiness Index 2025 veröffentlicht. Darin wurde die Fähigkeit von 195 Regierungen bewertet, Künstliche Intelligenz zum Wohle der Öffentlichkeit einzusetzen:

„This year, we assess 195 governments worldwide by their capacity to harness AI to benefit the public“ (ebd.).

Es wird deutlich, dass wir in einer bi-polaren Welt leben, wenn es um Künstliche. Intelligenz geht. Die beiden Pole sind dabei die USA und China.

Dennoch ist auch ersichtlich, dass sich sehr viele regionale und nationale Initiativen damit befassen, wie die Möglichkeiten der Künstlichen Intelligenz für eine Gesellschaft nutzbar gemacht werden können.

ResearchGate: 19.803 reads – thanks to my colleagues and co-authors

Eigene Darstellung

Meine Veröffentlichungen sind zum größten Teil auch auf ResearchGate zu finden. Darunter sind eigene Paper/Chapter und auch gemeinsame Veröffentlichungen mit Kollegen.

Thanks to my colleagues and co-authors!

Im Vergleich zum Januar 2023 haben sich die „reads“ bis zum Januar 2025 auf 19.803 erhöht – ein sattes Plus von 4.777.

20.01.2023: 15.026 reads

02.01.2026: 19.803 reads

Organisationale Daten-Souveränität bedeutet nicht unbedingt Digitale Souveränität

Image by Tumisu from Pixabay

Digitale Souveränität wird oftmals mit Daten-Souveränität in Organisationen verwechselt. Es ist daher wichtig zu verstehen, was Organisationale Daten-Souveränität ausmachen kann. Dazu habe ich folgenden Vorschlag in einem Paper gefunden:

„We define organizational data sovereignty as the self-determined and deliberate exercise of control over an organization’s data assets, which includes the recognition of their value, the proactive management of data activities (collection, storage, sharing, analysis, and interpretation), and the ability to assimilate and apply these data to drive value creation through interorganizational collaboration“ (Moschko et al. 2024).

In dem Paper geht es den Autoren um Organisationale Daten-Souveränität in Bezug auf Open Value Creation (OVC) in offenen Innovationsprozessen (Open Innovation).

Die hier angesprochene eigene (organisationale) Kontrolle der Daten würde durch den Einsatz von proprietären (Closed Models) KI-Anwendungen konterkariert, da man bei deren Nutzung nicht wirklich weiß, was mit den eigenen Daten passiert. Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

In dem Blogbeitrag Digitale Souveränität, oder doch nur Souveränitäts-Washing? finden Sie eine Definition von Digitaler Souveränität. Dabei werden Sie feststellen, dass Digitale Souveränität in diesem Sinne nur möglich ist, wenn Open Source AI – Modelle verwendet werden.

Digitale Souveränität, oder doch nur Souveränitäts-Washing?

Nachdem viele europäische und nationale Institutionen erkannt haben, wie abhängig wir in der Europäischen Union von US-amerikanischen und chinesischen Tech-Konzernen geworden sind, gibt es einen starken Trend zur Digitalen Souveränität

Das Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS GmbH) stellt dazu fest, dass der Begriff der Digitalen Souveränität oftmals irreführend verwendet wird, und es sich oftmals eher ein Souveränitäts-Washing handelt.

In einem Whitepaper wurden dazu verschiedene Beispiele genannt, die das illustrieren. Weiterhin wurde auch noch einmal klargestellt, was unter Digitale Souveränität zu verstehen ist.

„Ein Höchstmaß an Digitaler Souveränität bietet eine digitale Lösung dann, wenn sie:

rechtssicher/DSGVO-konform betrieben werden kann (bspw. ohne Zugriff durch ausländische Behörden auf Daten),

Wechselfähigkeit ermöglicht (d. h. kein Vendor-Lock-in besteht),

Kontrolle sichert (auch bei Ausfall, Sperrung oder Wechsel von Dienstleistern),

Transparenz bietet (z. B. durch einsehbaren Quellcode)

und anpassbar und gestaltbar ist (z. B. durch Weiterentwicklung in der Community oder durch Dienstleister).“

Quelle: Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) GmbH (2025): Souveränitäts-Washing bei Cloud-Diensten erkennen. Warum Digitale Souveränität mehr ist als ein Standortversprechen | Whitepaper (PDF).

Anhand dieser Kriterien kann nun jeder Einzelne, jedes Unternehmen und jede Öffentliche Verwaltung prüfen, ob es sich bei einem Angebot um Digitale Souveränität oder doch eher um Souveränitäts-Washing handelt. Ähnliche Entwicklungen gibt es ja auch beim Green-Washing.

Einige Zahlen zum Jahresende 2025

Das Jahr 2025 neigt sich dem Ende zu, und es ist Zeit, das Jahr Revue passieren zu lassen. Dazu zählt natürlich auch, einige Zahlen zu unserem Blog und zu den Aktivitäten in Sozialen Medien zusammenzustellen.

Um es gleich vorweg zu sagen: Uns geht es dabei nicht alleine um Reichweite, sondern um Qualität. Alle Blogbeiträge enthalten daher Quellenangaben, sodass klar wird, was aus der Quelle stammt, und was unsere Meinung dazu ist. Darüber hinaus haben wir uns von Anfang an entschiedenen, unseren Blog ohne nervige Werbung anzubieten.

Durch diese Arbeitsweise haben wir von Anfang an auf Vertrauen gesetzt. Genau das macht unseren Blog in der Zwischenzeit zu einem Qualitätsprodukt, das sich von der massenhaften Produktion von Content durch Künstliche Intelligenz unterscheidet.

Es ist toll zu sehen, dass unsere Blogbeiträge und Themen auch im Jahr 2025 beachtet wurden. Die folgenden Zahlen sollen das verdeutlichen:

Insgesamt finden Sie bei uns jetzt 4.377 Blogbeiträge. Davon sind 288 im Jahr 2025 hinzugekommen.

Beiträge wurden in diesem Jahr knapp 45.000 mal aufgerufen – JetPack-Statistik in WordPress.

Die Anzahl der Besucher wieder ein hohes Niveau erreicht : 20.000 Besucher aus dem In- und Ausland sind an unseren Blogbeiträgen interessiert – JetPack-Statistik in WordPress.

Bei LinkedIn besteht mein Netzwerk aktuell aus 736 Kontakten.

Bei Facebook habe ich 345 Follower und Jutta 1.680 Freunde.

Mein X-Account (vormals Twitter) hat aktuell 1.207 Follower, wobei das nicht unserer bevorzugter Kanal ist.

Wir sehen diese Zahlen als Ansporn, auch im Neuen Jahr 2026 auf allen Kanälen weiterhin aktiv zu sein.

Herausforderungen bei der Nutzung von KI-Agenten

Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität

Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:

„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).

Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.

Ethisch bedeutet hier, innerhalb eines gesellschaftlich akzeptierten Wertesystems – beispielsweise des Wertesystems der Europäischen Union.