Von Kunden, Nicht-Kunden und schwachen Signalen

Image by Ludovic Charlet from Pixabay

Alle Unternehmen wollen auf ihre Kunden, ihre User ausgerichtet sein, um Wert für diese, und für das eigene Unternehmen zu generieren. Dazu werden die Kunden befragt und analysiert, beispielsweise in Kaufhäusern. Dass das nicht immer zum Erfolg führt, hat Peter Drucker schon vor 30 Jahren erkannt:

„Doch die ersten Anzeichen fundamentaler Veränderungen sind kaum innerhalb der eigenen Firma oder den eigenen Kunden auszumachen. Fast immer zeigen sie sich unter den Nichtkunden eines Unternehmens, denn ihre Zahl ist immer größer als die der Kunden“ (Drucker 1996).

Er weist berechtigt auf die große Anzahl von Nichtkunden hin. Wenn also ein Unternehmen einen Marktanteil von 20% hat, heißt das, dass 80 Prozent des Marktes aus Nichtkunden besteht.

Kaufhäuser beispielsweise befragen und analysieren schon lange ihre Kunden. Die Nichtkunden, die in der Zwischenzeit immer mehr online einkauften, wurden über eine lange Zeit ignoriert, bis es jetzt fast zu spät ist.

Auch bei diesem Thema geht es darum, die schwachen Signale des Marktes aufzunehmen und angemessen zu interpretieren. Das ist eines von 9 Anzeichen für einen falschen Umgang mit Komplexität im Unternehmen. Hier möchte ich beispielhaft die Nummer 8 hervorheben:

(8) Feedback wird weder gehört noch verstanden
Der wichtigste Regelungsmechanismus für komplexe Systeme wird nicht verwendet. Man überhört jede Form von Kritik, Bestätigung, Ideen, Hinweisen und schwachen Signalen und nichts davon findet Eingang in das System.
Quelle: Stephanie Borgert (2015) : Irrtümer der Komplexität. Gabal, Offenbach.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Die negativen und positiven Seiten von Routine

Image by Foundry Co from Pixabay

Der Trend in der Arbeitswelt geht dahin, Routinetätigkeiten zu reduzieren, um z.B. mehr Projekte durchführen zu können. Dabei werden Routinetätigkeiten oftmals durch Technologien ersetzt – ganz im Sinne der Wirtschaftlichkeit. Es ist verständlich, dass wir keine stupiden Handgriffe in der Produktion oder in der Verwaltung durchführen wollen.

Andererseits gibt es ja auch die liebgewonnenen Routinen, wie der morgendliche Kaffee, das gemeinsame Abendessen mit der Familie, der regelmäßige Sport mit anderen am Wochenende, usw. Solche Routinen sind eher positiv besetzt, da wir uns dabei wohl fühlen.

Betrachten wir also die Routine etwas umfassender, so können wir erkennen, dass Routine negative und positive Seiten hat. In der Geschichte sind daher auch zwei unterschiedliche Perspektiven zu erkennen:

„Die positive Seite der Routine wurde in Diderots großer Encyclopédie (1751-1772) dargestellt, die negative Seite der geregelten Arbeitszeit zeigte sich äußerst dramatisch in Adam Smiths Der Wohlstand der Nationen (1776). Diderot war der Meinung, die Arbeitsroutine könne wie jede andere Form des Auswendiglernens zu einem Lehrmeister der Menschen werden. Smith glaubte, Routine stumpfe den Geist ab. Heute steht die Gesellschaft auf der Seite von Smith. (…) Das Geheimnis der industriellen Ordnung lag im Prinzip in der Routine“ (Sennett 2002)

Routine ist also per se nicht geistlos, sie kann erniedrigen, sie kann aber auch beschützen. Routine kann die Arbeit zersetzen, aber auch ein Leben zusammenhalten (vgl. dazu Sennett 2002).

Diese Gedanken führen zwangläufig zu der aktuellen Diskussion um KI-.Agenten, die im einfachsten Fall darauf ausgerichtet sind, Abläufe zu automatisieren. Siehe dazu beispielsweise Mit Langflow einen einfachen Flow mit Drag & Drop erstellen.

Berücksichtigen wir die weiter oben von Sennett zusammengefassten Hinweise zur Routine, so sollten wir genau überlegen, welche Routinetätigkeiten durch Künstliche Intelligenz ersetzt werden, und welche Routinetätigkeiten eher nicht. Routine kann eben auch in einem turbulenten gesellschaftlichen Umfeld (emotional) stabilisieren, ja sogar schützen.

Flexibilität und der Ursprung des Wortes „Job“

In der Vergangenheit wurden immer wieder Begriffe/Wörter benutzt, die über die Zeit eine Wandlung/Weiterentwicklung erfahren haben. Das ist mit „Innovation“ oder auch mit „Qualität“ so – um nur diese beiden beispielhaft zu nennen.

Manchmal kann es auch sein, dass ein Wort wieder zu seiner ursprünglichen Bedeutung „zurückkehrt“. Schauen wir uns dazu einmal das Wort „Job“ an, das sehr oft benutzt wird, und heute auf eine Arbeitswelt trifft, in der Flexibilität eine große Rolle spielt.

„Das Wort „job“ bedeutete im Englischen des 14. Jahrhunderts einen Klumpen oder eine Ladung, die man herumschieben konnte. Die Flexibilität bringt diese vergessene Bedeutung zu neuen Ehren. Die Menschen verrichten Arbeiten wie Klumpen, mal hier, mal da. Es ist nur natürlich, dass diese Flexibilität Angst erzeugt. Niemand ist sich sicher, wie man mit dieser Flexibilität umgehen sollte, welche Risiken vertretbar sind, welchen Pfad man folgen sollte“ (Sennett 2002).

Es wird hier deutlich, dass Jobs im Vergleich zu eher langfristig angelegten Berufen kurzfristiger sind.: „Stellen werden durch Projekte und Arbeitsfelder ersetzt“ (ebd.). In der heutigen Arbeitswelt haben Jobs daher eine gute Passung zu iterativen, projektorientierten Arbeitsformen (New Work).

Das kommt den Unternehmen zu Gute, doch schüren Jobs auch Ängste, die in dem Zusammenhang zu wenig thematisiert werden.

Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht

In den letzten Jahrhunderten hat sich angedeutet, dass einmal Erlerntes immer wieder aktualisiert werden musste (Abbildung). In manchen Bereichen kommt es auch vor, dass das Erlernte gar nicht mehr benötigt wurde, und Mitarbeiter von Unternehmen ganz neue Themen lernen mussten.

Diese Entwicklung nimmt nun mit den Möglichkeiten der Künstlichen Intelligenz noch einmal Fahrt auf. Klassische Abschlüssen und Zertifikate können durchaus schnell an Wert verlieren. Die Beratungsgesellschaft McKinsey verkündet sogar das Ende der klassischen Ausbildung – ganz im Sinne des Lebenslangen Lernens. In einem Artikel dazu findet man folgenden Kommentar:

Für Arbeitnehmer bedeutet dies, dass die eigene Lernfähigkeit zum wichtigsten Kapital wird, während Unternehmen ihre Personalstrategien grundlegend neu ausrichten müssen, um in einer KI-getriebenen Umgebung wettbewerbsfähig zu bleiben“ (Niels Matthiesen, Golem vom 07.01.2025).

Organisationen müssen verstehen, wie ihre Mitarbeiter, wie Teams (Projektteams), die gesamte Organisation und ihr Netzwerk lernen – ganz im Sinne einer Lernenden Organisation.

Dabei stellt sich natürlich gleich die Frage, ob Organisationen überhaupt etwas über Lernen wissen. Wie in der Abbildung zu erkennen ist, geht es in Zukunft nicht mehr um Sicherheitslernen, sondern um Unsicherheitslernen, was eine Kompetenzstärkung bedeutet.

Führungskräfte ermöglichen dabei Lernprozesse. Genau das ist die Aufgabe der Erwachsenenbildung. Führungskräfte sollten daher wissen, was unter moderner Erwachsenenbildung zu verstehen ist.

Siehe dazu auch Agiles Lernen und selbstorganisierte Kompetenzentwicklung.

Von der Wissensgesellschaft über die Kompetenzgesellschaft zur Wertegesellschaft?

Von der eher landwirtschaftlich geprägten Gesellschaft, über die Industriegesellschaft und einer in den 1960er Jahren propagierten Wissensgesellschaft sind wir nach Erpenbeck/Heyse (2019) in einer Kompetenzgesellschaft gelandet. Siehe dazu auch Der Strukturbruch zwischen einfacher und reflexiver Modernisierung.

Kompetenzen als Selbstorganisationsdispositionen enthalten nach Erpenbeck (2012) „konstitutiv interiorisierte Regeln, Werte und Normen als Kompetenzkerne“.

Wenn Werte gleichzeitig als Ordner sozialer Komplexität angesehen werden können, liegt der Schluss nahe, dass wir uns stärker zu einer Art Wertegesellschaft entwickeln.

Da der Kern von Kompetenz also auch Werte beinhaltet, ist eine Kompetenzgesellschaft auch in gewisser Weise eine Wertegesellschaft.

Die Wertesystem der Europäischen Union ist die Basis für unser Zusammenleben – auch in Bezug auf Künstliche Intelligenz, oder in Abgrenzung zu anderen Wertesystemen weltweit.

OECD (2025): OECD Skills Outlook 2025

Source: OECD Skills Outlook 2025 (PDF)

Der OECD Skills Outlook 2025 (PDF) enthält unter anderem eine Übersicht zu den 21 st-century skills. In der Abbildung ist einmal der Kern (Core) mit Literacy, Numeracy und Adaptive problem solving zu erkennen. Ergänzend sind auch noch untergeordnete Skills für Erwachsene und Jugendliche aufgelistet.

In dem heute sehr turbulenten Umfeld ist es oft schwer, Voraussagen zu machen. Dennoch können gerade so umfassende Untersuchungen wie die von der OECD eine erste Orientierung geben. Siehe dazu auch

DigComp 3.0: European Digital Competence Framework 2025

WEF (2025): Future of Jobs Report – Project Manager auf Platz 12 der „growing jobs“

Mass Intelligence: Wenn mehr als 1 Mrd. Menschen Zugang zu leistungsfähiger KI haben

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Wenn wir uns die Entwicklungen der Künstlichen Intelligenz in der letzten Zeit ansehen, so fällt auf, dass es mehrere Trends gibt.

Neben den dominierenden wenigen großen Large Language Models (LLMs) der Tech-Konzerne gibt es immer mehr kleine Modelle (Small Language Models), die je nach Anwendungsfall ausgewählt werden können. Solche SLM sind flexibler, kostengünstiger und in bestimmten Bereichen sogar besser. Siehe dazu auch KI-Modelle: Von „One Size Fits All“ über Variantenvielfalt in die Komplexitätsfalle?

Weiterhin wird für solche Problemlösungen auch viel weniger Energie benötigt, was die weltweiten, aber auch die unternehmensspezifischen Ressourcen/Kosten schont, Siehe dazu auch Künstliche Intelligenz: Das menschliche Gehirn benötigt maximal 30 Watt für komplexe Problemlösungen.

Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI

Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.

Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.

„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).

Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.

Werte als Ordner sozialer Komplexität

Image by Gerd Altmann from Pixabay

Alles ist heute mit allem irgendwie vernetzt, sodass auf allen Ebenen Entgrenzung stattfindet, die wiederum zu Komplexität in allen Bereichen einer Gesellschaft führt. Dabei sollten wir die eher „technische“ Komplexität von der sozialen Komplexität unterscheiden.

Es ist in dem Zusammenhang interessant, dass „Geistes- und Sozialwissenschaften besonders gut geeignet sind, (1) die Entwicklung sozialer Komplexität zu beschreiben und (2) das gesellschaftliche Schema, innerhalb dessen die Sinngebung erfolgt, neu zu gestalten“ (Blogbeitrag).

Dabei stellt sich sofort die Frage: Wie kann soziale Komplexität bewältigt werden? Dazu habe ich bei bei John Erpenbeck folgendes gefunden:

„Ein besonderer Anstoß für mich war Hermann Hakens Artikel „Synergetik und Sozialwissenschaften“ in der Zeitschrift Ethik und Sozialwissenschaften (Haken / Wunderlin 2014). Er legte nahe, Werte als – von ihm so genannte – „Ordner“ sozialer Komplexität zu verstehen. Ohne solche Ordner wird Komplexität nicht beherrschbar. Sie sind zugleich zufällig und notwendig. Sie haben ihre Wirklichkeit jedoch nur, wenn sie durch Einzelne verinnerlicht und gelebt werden. Werte sind damit stets Ordner individueller oder kollektiver, physischer oder geistiger menschlicher Selbstorganisation. Kurz: Werte sind Ordner menschlicher Selbstorganisation (Haken 1996). Nicht alle Ordner sind Werte, aber alle Werte sind Ordner im Sinne von Haken (1983)“ (Erpenbeck, J. (2024): Werte als Inseln zeitlicher Stabilität im Fluss selbstorganisierter sozialer Entwicklungen, in Störl (Hrsg.) (2024): Zeit als Existenzform der Materie).

Es wundert daher nicht, dass Werte in allen möglichen Zusammenhängen thematisiert werden. Aktuell geht es beispielsweise bei der Nutzung der Künstlicher Intelligenz darum zu klären, ob wir die Werte der amerikanischen Tech-Konzerne, die Werte der chinesischen Politik oder unsere europäischen Werte als Ordner für soziale Komplexität nutzen wollen.

Siehe dazu beispielhaft auch Digitale Souveränität: Europa, USA und China im Vergleich und  Open Source Community und die United Nations teilen die gleichen Werte.

Generative Künstliche Intelligenz und generative Kompetenzentwicklung

Klassische Kompetenzentwicklung versteht Kompetenz nach Erpenbeck und Heyse als Selbstorganisationsdisposition, die entwickelt werden kann und sollte. Mit dem Aufkommen von Künstlicher Intelligenz kommt auch immer stärker der Ruf nach einer entsprechenden Kompetenz auf – einer Digitalen Kompetenz oder auch KI-Kompetenz. Dabei sollte unter Künstlicher Intelligenz und Generativer Künstlicher Intelligenz unterschieden werden.

„Der Begriff generativ bedeutet bei künstlicher Intelligenz (KI), dass KI-Systeme aus Eingaben mittels generativer Modelle und gespeicherter Lerndaten neue Ergebnisse/Ausgaben wie Texte, Sprachaussagen, Vertonungen, Bilder oder Videos erzeugen“ (Quelle: Wikipedia).

Es handelt sich bei Generativer Intelligenz (GenAI) also auch um eine Art von Kreativität, die entsteht und die beispielsweise von Menschen bewertet werden kann, bzw. sollte. Es wundert daher nicht, dass vorgeschlagen wird, so eine „evaluative Kreativität“ – und in dem Zusammenhang auch generative Kompetenzen – zu entwickeln:

„Entwickle Deine evaluative Kreativität, entwickle Deine generativen Kompetenzen. (…) Generative Kompetenzen: die Fähigkeit, sich in neuen Technologien kreativ und selbstorganisiert mit einer klaren Wertorientierung zu bewegen“ (Erpenbeck und Sauter 2025).

Bemerkenswert ist hier, dass es nicht nur darum geht, mit KI-Modellen sebstorganisiert umgehen zu können, sondern auch wichtig ist, dass das mit einer klaren Wertorientierung erfolgen soll.

Dabei stellt sich gleich die Frage: Welche Werte kaufe ich mir denn ein, wenn ich ein KI-Modell der US-amerikanischen Tech-Konzerne oder KI-Modelle chinesischer Anbieter nutze? Siehe dazu auch Mit proprietärer Künstlicher Intelligenz (KI) kauft man sich auch die Denkwelt der Eigentümer ein.