Behandelt die Wissensgesellschaft ihr vermeintlich höchstes Gut „Wissen“ angemessen?

Image by Bruno from Pixabay

Die heute propagierte Wissensgesellschaft wird oft kritisiert. Beispielsweise findet man in Liessmann (2008): Theorie der Unbildung den Hinweis, dass Wissen im Gegensatz zu Information nicht unbedingt zweckorientiert ist:

„Wissen lässt sich viel, und ob dieses Wissen unnütz ist, entscheidet sich nie im Moment der Herstellung oder Aufnahme des Wissens“ (ebd.).

Der Autor treibt seine Kritik an der Entwicklung bei den Themen, Wissen, Wissen als Ressource und Wissensmanagement mit einer These auf die Spitze, indem er formuliert:

„Man könnte die These riskieren, dass in der Wissensgesellschaft das Wissen gerade keinen Wert an sich darstellt. Indem das Wissen als ein nach externen Kriterien wie Erwartungen, Anwendungen und Verwertungsmöglichkeiten hergestelltes Produkt definiert wird, ist es naheliegend, dass es dort, wo es diese Kriterien nicht entspricht, auch rasch wieder entsorgt werden muss. Gerne spricht man von der Beseitigung des veralteten Wissens, vom Löschen der Datenspeicher und vom Abwerfen unnötigen Wissensballasts. Mit anderen Worten: Die Wissensgesellschaft behandelt ihr vermeintlich höchstes Gut mitunter so, als wäre es der letzte Dreck“ (Liessmann 2008).

Wissen, immer und überall unter Nutzengesichtspunkten zu sehen, ist fatal. Wissen um seiner selbst willen kann durch überraschende Neukombinationen zu kreativen Gedanken und Problemlösungen führen. Grenzen wir dieses Wissen aus, wird alles Wissen beliebig, und damit auch weniger kreativ, bzw. innovativ, was uns wider zu den kritisierten Nutzengesichtspunkten führt.

Es scheint paradox zu sein: Wissen ohne Nutzengesichtspunkte zuzulassen, führt zu einer besseren Nutzung von Wissen.

Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, Wissen gut zu verstehen, um den Umgang damit angemessen zu ermöglichen. Bei einer einseitig nutzenorientierten Betrachtung von Wissen, kann es gesellschaftlich zu Verwerfungen kommen – gerade so, als ob ein Sportler nur den rechten Arm trainieren würde.

Sind wir nicht intelligent genug, um zu wissen, was Intelligenz ist?

Image by Gerd Altmann from Pixabay

Der Intelligenz-Begriff wird schon fast inflationär verwendet. Es geht um „intelligente Produkte“, „Künstliche Intelligenz“, und im Zusammenhang mit Menschen um einen scheinbar messbaren Intelligenz-Quotienten (IQ).

Dass die Messbarmachung der Intelligenz in Zeiten von Künstlicher Intelligenz tückisch sein kann, habe ich in dem Beitrag OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler? erläutert. Hans Markus Enzensberger hat sich auch mit der IQ-Messung intensiv befasst, und ist zu folgendem Schluss gekommen:

Enzensberger: (…) Das ist genauso ein heikles Wort, kernprägnant und randunscharf, wie „Intelligenz“. Ich habe mich mit Fragen der IQ-Messung beschäftigt. Die Quantifizierung des IQ ist schwierig. Wir sind einfach nicht intelligent genug, um zu wissen, was Intelligenz ist. Als weitere Falle kommt die Subjektivität hinzu. Intelligenztests messen das, was der Tester darunter versteht. Ein Indio aus dem Amazonas wird dabei ebenso schlecht abschneiden wie umgekehrt ein Psychologe, wenn er sich im Regenwald einer Prüfung seiner Fähigkeiten unterzieht“ (Pöppel/Wagner 2012:91).

Es kommt somit darauf an, was wir unter „Intelligenz“ verstehen (wollen). Es ist eine Annahme, ein Konstrukt, das zu der Lebenswirklichkeit dann eine Passung hat – oder eben nicht.

Es scheint so, dass die Bestimmung (Messung) eines Intelligenz-Quotienten in dem Umfeld einer Industriegesellschaft geeignet war. In den letzten Jahrzehnten hat sich das Umfeld allerdings sehr dynamisch verändert, sodass sich möglicherweise auch das Intelligenz-Verständnis erweitern sollte, damit es wieder eine bessere Passung zum komplexen Umfeld mit seiner Lebenswirklichkeit hat.

Meines Erachtens kann es daher Sinn machen, das Verständnis der Menschlichen Intelligenz im Sinne von Multiplen Intelligenzen nach Howard Gardner zu erweitern – auch in Bezug zur Künstlichen Intelligenz. Siehe dazu auch 

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Über den Unsinn von Intelligenztests

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Künstliche Intelligenz: Wenn die Lösung das Problem ist

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Aktuell kann man den Eindruck gewinnen, dass alle Aufgaben oder Probleme mit Künstlicher Intelligenz angegangen werden, um Lösungen zu generieren.

Im Zusammenspiel zwischen Lösung und Problem hat Paul Watzlawick auf die Fehllogik und die zirkulare Kausalität hingewiesen.

Das oft genannte Beispiel von jemanden mit Schlafproblemen, der versucht, krampfhaft einzuschlafen, und damit die Situation eher verschlechtert, illustriert das etwas.

„Was Menschen tun, um ein Problem zu lösen, ist oft genau das, was das Problem hervorruft“ nach Paul Watzlawick, zitiert in Hartkemeyer/Freeman/Dhority (2006): Miteinander Denken. Das Geheimnis des Dialogs,

Ich frage mich: Kann es sein, dass die Nutzung der bekannten KI-Modelle nicht nur zur Lösung eines Problems führt (führen kann), sondern diese Problemlösung das ursprüngliche Problem noch verstärkt?

In einer abgewandelten Eigenfassung des Textes von Paul Watzlawick würde das wie folgt aussehen:

„Was Menschen tun, um ein Problem zu lösen (RF: z.B. ChatGPT nutzen…), ist oft genau das, was das Problem hervorruft (RF: z.B. ChatGPT nutzen….. ) – frei von mir nach Paul Watzlawick geändert. Ich hoffe er sieht mir das nach.

Es ist gut, wenn wir die enormen Möglichkeiten von KI nutzen, und kritisch hinterfragen (Kritisches Denken)

Open Source AI: Molmo 2 mit Schwerpunkt auf Videos

Auf die Omo 3 Familie von AI2 hatte ich ja schon in dem Beitrag vom 06.12.205 hingewiesen. Es geht dabei um frei verfügbare KI-Modelle, die auf der Website im Playground getestet, oder auch auf dem eigenen Server genutzt werden können.

Im Dezember 2025 wurde darüber hinaus auch noch die Modell-Familie Molmo 2 mit dem veröffentlicht. Der besondere Schwerpunkt der Modell-Familie sind Videos:

Molmo 2 (8B) is Qwen 3-based and our best overall model for video grounding and QA. 

Molmo 2 (4B) – also Qwen 3-based – is optimized for efficiency. 

Molmo 2-O (7B) is built on Olmo, offering a fully open end-to-end model flow including the underlying LLM. This Olmo-backed variant is particularly useful for researchers who want full control over every part of the stack—vision encoder, connector, and language model.

Die verschiedenen Modelle bieten auch wieder die Möglichkeit, je nach technischer Ausstattung, diese auf den eigenen Servern, oder im Playground zu testen – probieren Sie es doch einfach einmal aus.

Alle Modelle von AI2 sind Open Soirce AI – ganz im Sinner einer Digitalen Souveränität.

Mass Customization und Quantenmechanik

In verschiedenen Blogbeiträgen habe ich immer wieder darauf hingewiesen, dass wir uns von den in vielen Bereichen diskutierten Dichotomien (Entweder-oder) verabschieden sollten. Im Wissensmanagement beispielsweise haben wir es mit den beiden Polen implizites Wissen oder explizites Wissen zu tun. Zwischen beiden Polen gibt es allerdings ein Kontinuum des „sowohl-als-auch“. Ähnlich sieht es in anderen Bereichen aus.

Im Innovationsmanagement kennen wir die Extreme Closed Innovation oder Open Innovation. Beim Projektmanagement gibt es nicht nur das klassische Projektmanagement oder das agile Projektmanagement, sondern zwischen beiden Polen ein Kontinuum. Ähnlich sieht es bei der Künstlichen Intelligenz aus, wo es von Closed AI Models über Open Weight AI Models bis zu Open Source AI Models auch ein Kontinuum der Möglichkeiten gibt.

Diese Entwicklung deutet schon darauf hin, dass es in vielen Bereichen nicht mehr um ein „entweder-oder“, sondern um ein angemessenes „sowohl-als-auch“ geht. Vor über 30 Jahren hat B. Joseph Pine II schon darauf hingewiesen, und dabei eine Verbindung von der Quantenmechanik zu Mass Customization als hybride Wettbewerbsstrategie hergestellt:

„Today management has much the same problem: We still build most of our models around false dichotomies. To name but a few, we speak of strategy versus operations, cost versus quality, and centralized versus decentralized. The way out of this dilemma for scientist, finally, was to abandon the perspective of irreconcilable opposites, and to embrace interpretations that accept contradictions without trying to resolve them. Quantum mechanics does that in physics, mass customization does that in business“ (Pine 1993).

Die hybriden Möglichkeiten zur Schaffung von Werten für Kunden (User) sind heute (nach mehr als 30 Jahre nach der Veröffentlichung) in vielen Organisationen immer noch nicht bekannt.

Auf der nächsten MCP 2026 – Konferenz, im September in Balatonfüred (Ungarn), haben Sie die Chance, mit führenden Forschern und Praktikern über die Themen Mass Customization, Mass Personalization und Open Innovation zu sprechen.

Als Initiator der Konferenzreihe stehe ich Ihnen gerne für weitere Fragen zur Verfügung.

Von KI-Agenten zu Personalized AI Twins

Die aktuelle Diskussion zu Künstlicher Intelligenz befasst sich u.a. mit den Möglichkeiten generativer Künstlicher Intelligenz (GenAI) und den Entwicklungen bei KI-Agenten (AI Agents). KI-Agenten können in Zukunft viele Tätigkeiten/Jobs in Organisationen übernehmen, und so deren Effektivität und Effizienz steigern.

Solche Entwicklungen sind allerdings nicht alleine auf Organisationen begrenzt. Auf der individuellen, persönlichen Ebene entwickeln sich KI-Agenten immer mehr zu persönlichen Agenten, oder sogar zu Personal AI Twins:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Die hier angesprochene Entwicklung von generischen KI-Agenten zu personalisierten KI-Agenten (personal ai twins) ist bemerkenswert. Es stellt sich natürlich gleich die Frage, ob eine Person solche Personal AI Twins nur für ihre Arbeit, oder auch für alle ihre Aktivitäten nutzen möchte. Dabei kommt es immer wieder zu Überschneidungen zwischen der beruflichen Domäne und den privaten Kontexten.

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins ihre eigenen Ideen besser selbst entwickeln oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

Die negativen und positiven Seiten von Routine

Image by Foundry Co from Pixabay

Der Trend in der Arbeitswelt geht dahin, Routinetätigkeiten zu reduzieren, um z.B. mehr Projekte durchführen zu können. Dabei werden Routinetätigkeiten oftmals durch Technologien ersetzt – ganz im Sinne der Wirtschaftlichkeit. Es ist verständlich, dass wir keine stupiden Handgriffe in der Produktion oder in der Verwaltung durchführen wollen.

Andererseits gibt es ja auch die liebgewonnenen Routinen, wie der morgendliche Kaffee, das gemeinsame Abendessen mit der Familie, der regelmäßige Sport mit anderen am Wochenende, usw. Solche Routinen sind eher positiv besetzt, da wir uns dabei wohl fühlen.

Betrachten wir also die Routine etwas umfassender, so können wir erkennen, dass Routine negative und positive Seiten hat. In der Geschichte sind daher auch zwei unterschiedliche Perspektiven zu erkennen:

„Die positive Seite der Routine wurde in Diderots großer Encyclopédie (1751-1772) dargestellt, die negative Seite der geregelten Arbeitszeit zeigte sich äußerst dramatisch in Adam Smiths Der Wohlstand der Nationen (1776). Diderot war der Meinung, die Arbeitsroutine könne wie jede andere Form des Auswendiglernens zu einem Lehrmeister der Menschen werden. Smith glaubte, Routine stumpfe den Geist ab. Heute steht die Gesellschaft auf der Seite von Smith. (…) Das Geheimnis der industriellen Ordnung lag im Prinzip in der Routine“ (Sennett 2002)

Routine ist also per se nicht geistlos, sie kann erniedrigen, sie kann aber auch beschützen. Routine kann die Arbeit zersetzen, aber auch ein Leben zusammenhalten (vgl. dazu Sennett 2002).

Diese Gedanken führen zwangläufig zu der aktuellen Diskussion um KI-.Agenten, die im einfachsten Fall darauf ausgerichtet sind, Abläufe zu automatisieren. Siehe dazu beispielsweise Mit Langflow einen einfachen Flow mit Drag & Drop erstellen.

Berücksichtigen wir die weiter oben von Sennett zusammengefassten Hinweise zur Routine, so sollten wir genau überlegen, welche Routinetätigkeiten durch Künstliche Intelligenz ersetzt werden, und welche Routinetätigkeiten eher nicht. Routine kann eben auch in einem turbulenten gesellschaftlichen Umfeld (emotional) stabilisieren, ja sogar schützen.

IPMA Leitfaden zum ethischen Einsatz Künstlicher Intelligenz im Projektmanagement

Quelle: Link (PDF)

Es liegt natürlich auf der Hand die für die bestehenden projektmanagement-Standards und Vorgehensmodelle Künstliche Intelligenz einzusetzen. Interessant dabei ist, dass das weltweit führende Institut empfiehlt, ethisch vorzugehen und dazu noch einen Leitfaden herausgebracht hat.

IPMA (2025): IPMA Guidelines on Applying AI in Project Management. Moving the profession forward by acting ethically! | PDF

Auf knapp 30 Seiten wird der Bezug zum professionellen Projektmanagement hergestellt und hervorgehoben, anhand welcher Kriterien Künstliche Intelligenz beurteilt werden sollten (ebd.):

„Selecting the right AI tools is a critical step for project managers. Commercially available AI tools vary in functionality, quality, and ethical considerations. When selecting and using these tools, project managers should evaluate them based on the following criteria:
» Alignment with Project Goals
» Vendor Transparency:
» Ethical and Social Impact:
» Adaptability and Scalability

Wenn Projektmanager weltweit diese Hinweise beachten, so kommen aus meiner Sicht die häufig genutzten, kommerziellen KI-Apps wie ChatGPT, Grok, Gemini etc. nicht infrage, da sie die Punkte „Vendor Transparency“ (Transparent der Anbieter) und „Ethical and Social Impact“ (Ethische und Soziale Auswirkungen) nicht, oder nur wenig berücksichtigen.

Aus meiner Sicht kommen daher hauptsächlich KI-Apps infrage, die der Open Source AI – Definition entsprechen. – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch

Das Kontinuum zwischen Closed Source AI und Open Source AI

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Spannend: Ältere Bücher „neu“ lesen

(c) Dr. Robert Freund

Ende des alten Jahres 2025, und zu Beginn des Neuen Jahres 2026 habe ich mal wieder meine Bücher durchgesehen und feststellt, dass ich viele der alten Bücher in den letzten Jahren aus einer bestimmten Perspektive gelesen habe.

Es lohnt sich auf jeden Fall, das eine oder andere Buch „neu“ zu lesen, da sie aus heutiger Sicht spannende Erkenntnisse beinhalten können. Beispielsweise das Buch von B. Joseph Pine II aus dem Jahr 1993 zur hybriden Wettbewerbsstrategie Mass Customization.

Alle sprechen über Hybrid Work, Hybrides Projektmanagement usw., doch wer kennt schon die hybride Wettbewerbsstrategie Mass Customization?

Dabei sind Mass Customization und Mass Personalization (Megatrends) in Zeiten von Künstlicher Intelligenz aktueller denn je. Solche Themen stellen wir auf der von mir initiierten Konferenzreihe MCP im September in Balatonfüred (Ungarn) vor. Sprechen Sie mich gerne an, wenn Sie dazu weitere Informationen haben möchten.

https://mcp-ce.org/

Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht

In den letzten Jahrhunderten hat sich angedeutet, dass einmal Erlerntes immer wieder aktualisiert werden musste (Abbildung). In manchen Bereichen kommt es auch vor, dass das Erlernte gar nicht mehr benötigt wurde, und Mitarbeiter von Unternehmen ganz neue Themen lernen mussten.

Diese Entwicklung nimmt nun mit den Möglichkeiten der Künstlichen Intelligenz noch einmal Fahrt auf. Klassische Abschlüssen und Zertifikate können durchaus schnell an Wert verlieren. Die Beratungsgesellschaft McKinsey verkündet sogar das Ende der klassischen Ausbildung – ganz im Sinne des Lebenslangen Lernens. In einem Artikel dazu findet man folgenden Kommentar:

Für Arbeitnehmer bedeutet dies, dass die eigene Lernfähigkeit zum wichtigsten Kapital wird, während Unternehmen ihre Personalstrategien grundlegend neu ausrichten müssen, um in einer KI-getriebenen Umgebung wettbewerbsfähig zu bleiben“ (Niels Matthiesen, Golem vom 07.01.2025).

Organisationen müssen verstehen, wie ihre Mitarbeiter, wie Teams (Projektteams), die gesamte Organisation und ihr Netzwerk lernen – ganz im Sinne einer Lernenden Organisation.

Dabei stellt sich natürlich gleich die Frage, ob Organisationen überhaupt etwas über Lernen wissen. Wie in der Abbildung zu erkennen ist, geht es in Zukunft nicht mehr um Sicherheitslernen, sondern um Unsicherheitslernen, was eine Kompetenzstärkung bedeutet.

Führungskräfte ermöglichen dabei Lernprozesse. Genau das ist die Aufgabe der Erwachsenenbildung. Führungskräfte sollten daher wissen, was unter moderner Erwachsenenbildung zu verstehen ist.

Siehe dazu auch Agiles Lernen und selbstorganisierte Kompetenzentwicklung.