Mass Intelligence: Wenn mehr als 1 Mrd. Menschen Zugang zu leistungsfähiger KI haben

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Wenn wir uns die Entwicklungen der Künstlichen Intelligenz in der letzten Zeit ansehen, so fällt auf, dass es mehrere Trends gibt.

Neben den dominierenden wenigen großen Large Language Models (LLMs) der Tech-Konzerne gibt es immer mehr kleine Modelle (Small Language Models), die je nach Anwendungsfall ausgewählt werden können. Solche SLM sind flexibler, kostengünstiger und in bestimmten Bereichen sogar besser. Siehe dazu auch KI-Modelle: Von „One Size Fits All“ über Variantenvielfalt in die Komplexitätsfalle?

Weiterhin wird für solche Problemlösungen auch viel weniger Energie benötigt, was die weltweiten, aber auch die unternehmensspezifischen Ressourcen/Kosten schont, Siehe dazu auch Künstliche Intelligenz: Das menschliche Gehirn benötigt maximal 30 Watt für komplexe Problemlösungen.

Darüber hinaus gibt es auch immer mehr leistungsfähige Open Source KI-Modelle, die jedem zur Verfügung stehen, und beispielsweise eher europäischen Werten entsprechen. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI

Wenn also in Zukunft mehr als 1 Milliarde Menschen Künstliche Intelligenz nutzen, stellt sich gleich die Frage, wie Unternehmen damit umgehen. Immerhin war es üblich, dass so eine Art der intelligenten komplexen Problemlösung bisher nur spärlich – und dazu auch noch teuer – zur Verfügung stand.

Nun werden Milliarden von einzelnen Personen die Möglichkeit haben, mit geringen Mitteln komplexe Problemlösungen selbst durchzuführen. Prof. Ethan Mollick nennt dieses Phänomen in einem Blogbeitrag Mass Intelligence.

„The AI companies (whether you believe their commitments to safety or not) seem to be as unable to absorb all of this as the rest of us are. When a billion people have access to advanced AI, we’ve entered what we might call the era of Mass Intelligence. Every institution we have — schools, hospitals, courts, companies, governments — was built for a world where intelligence was scarce and expensive. Now every profession, every institution, every community has to figure out how to thrive with Mass Intelligence“ (Mollick, E. (2025): Mass Intelligence, 25.08.2025).

Ich bin sehr gespannt, ob sich die meisten Menschen an den proprietären großen KI-Modellen der Tech-Konzerne orientieren werden, oder ob es auch einen größeren Trend gibt, sich mit KI-Modellen weniger abhängig zu machen – ganz im Sinne einer Digitalen Souveränität.

Künstliche Intelligenz und Lernzieltaxonomie

Die Lernzieltaxonomie von Bloom et al. aus dem Jahr 1956 wird heute noch in ihrer ursprünglichen Fassung benutzt, obwohl es schon zeitgemäßere Weiterentwicklungen gibt.

Zunächst einmal ist der Vorschlag von Anderson und Krathwohl aus dem Jahr 2001 zu nennen, bei dem die oberste Ebene in Evaluieren umbenannt wurde, und eine weitere Ebene „Erschaffen“ hinzugekommen ist.

Auf Basis dieser Weiterentwicklung hat die Oregon State University 2024 eine englischsprachige Darstellung unter der Lizenz CC BY-NC 4.0 veröffentlicht, die die jeweiligen Ebenen mit den Möglichkeiten der Künstlicher Intelligenz ergänzt.

Das Trendscouting-Team der PHBern hat die gesamte Übersicht ins Deutsche übersetzt (Abbildung).

Werte als Ordner sozialer Komplexität

Image by Gerd Altmann from Pixabay

Alles ist heute mit allem irgendwie vernetzt, sodass auf allen Ebenen Entgrenzung stattfindet, die wiederum zu Komplexität in allen Bereichen einer Gesellschaft führt. Dabei sollten wir die eher „technische“ Komplexität von der sozialen Komplexität unterscheiden.

Es ist in dem Zusammenhang interessant, dass „Geistes- und Sozialwissenschaften besonders gut geeignet sind, (1) die Entwicklung sozialer Komplexität zu beschreiben und (2) das gesellschaftliche Schema, innerhalb dessen die Sinngebung erfolgt, neu zu gestalten“ (Blogbeitrag).

Dabei stellt sich sofort die Frage: Wie kann soziale Komplexität bewältigt werden? Dazu habe ich bei bei John Erpenbeck folgendes gefunden:

„Ein besonderer Anstoß für mich war Hermann Hakens Artikel „Synergetik und Sozialwissenschaften“ in der Zeitschrift Ethik und Sozialwissenschaften (Haken / Wunderlin 2014). Er legte nahe, Werte als – von ihm so genannte – „Ordner“ sozialer Komplexität zu verstehen. Ohne solche Ordner wird Komplexität nicht beherrschbar. Sie sind zugleich zufällig und notwendig. Sie haben ihre Wirklichkeit jedoch nur, wenn sie durch Einzelne verinnerlicht und gelebt werden. Werte sind damit stets Ordner individueller oder kollektiver, physischer oder geistiger menschlicher Selbstorganisation. Kurz: Werte sind Ordner menschlicher Selbstorganisation (Haken 1996). Nicht alle Ordner sind Werte, aber alle Werte sind Ordner im Sinne von Haken (1983)“ (Erpenbeck, J. (2024): Werte als Inseln zeitlicher Stabilität im Fluss selbstorganisierter sozialer Entwicklungen, in Störl (Hrsg.) (2024): Zeit als Existenzform der Materie).

Es wundert daher nicht, dass Werte in allen möglichen Zusammenhängen thematisiert werden. Aktuell geht es beispielsweise bei der Nutzung der Künstlicher Intelligenz darum zu klären, ob wir die Werte der amerikanischen Tech-Konzerne, die Werte der chinesischen Politik oder unsere europäischen Werte als Ordner für soziale Komplexität nutzen wollen.

Siehe dazu beispielhaft auch Digitale Souveränität: Europa, USA und China im Vergleich und  Open Source Community und die United Nations teilen die gleichen Werte.

Generative Künstliche Intelligenz und generative Kompetenzentwicklung

Klassische Kompetenzentwicklung versteht Kompetenz nach Erpenbeck und Heyse als Selbstorganisationsdisposition, die entwickelt werden kann und sollte. Mit dem Aufkommen von Künstlicher Intelligenz kommt auch immer stärker der Ruf nach einer entsprechenden Kompetenz auf – einer Digitalen Kompetenz oder auch KI-Kompetenz. Dabei sollte unter Künstlicher Intelligenz und Generativer Künstlicher Intelligenz unterschieden werden.

„Der Begriff generativ bedeutet bei künstlicher Intelligenz (KI), dass KI-Systeme aus Eingaben mittels generativer Modelle und gespeicherter Lerndaten neue Ergebnisse/Ausgaben wie Texte, Sprachaussagen, Vertonungen, Bilder oder Videos erzeugen“ (Quelle: Wikipedia).

Es handelt sich bei Generativer Intelligenz (GenAI) also auch um eine Art von Kreativität, die entsteht und die beispielsweise von Menschen bewertet werden kann, bzw. sollte. Es wundert daher nicht, dass vorgeschlagen wird, so eine „evaluative Kreativität“ – und in dem Zusammenhang auch generative Kompetenzen – zu entwickeln:

„Entwickle Deine evaluative Kreativität, entwickle Deine generativen Kompetenzen. (…) Generative Kompetenzen: die Fähigkeit, sich in neuen Technologien kreativ und selbstorganisiert mit einer klaren Wertorientierung zu bewegen“ (Erpenbeck und Sauter 2025).

Bemerkenswert ist hier, dass es nicht nur darum geht, mit KI-Modellen sebstorganisiert umgehen zu können, sondern auch wichtig ist, dass das mit einer klaren Wertorientierung erfolgen soll.

Dabei stellt sich gleich die Frage: Welche Werte kaufe ich mir denn ein, wenn ich ein KI-Modell der US-amerikanischen Tech-Konzerne oder KI-Modelle chinesischer Anbieter nutze? Siehe dazu auch Mit proprietärer Künstlicher Intelligenz (KI) kauft man sich auch die Denkwelt der Eigentümer ein.

Künstliche Intelligenz, Agiles Manifest, Scrum und Kanban

Bei Künstlicher Intelligenz denken aktuell die meisten an die KI-Modelle der großen Tech-Konzerne. ChatGPT, Gemini, Grok etc sind in aller Munde und werden immer stärker auch in Agilen Organisationen eingesetzt. Wie in einem anderen Blogbeitrag erläutert, sind in Agilen Organisationen Werte und Prinzipien mit ihren Hebelwirkungen die Basis für Praktiken, Methoden und Werkzeuge. Dabei beziehen sich viele, wenn es um Werte und Prinzipien geht, auf das Agile Manifest, und auf verschiedene Vorgehensmodelle wie Scrum und Kanban. Schauen wir uns einmal kurz an, was hier jeweils zum Thema genannt wird:

Agiles Manifest: Individuen und Interaktionen mehr als Prozesse und Werkzeuge
In der aktuellen Diskussion über die Möglichkeiten von Künstlicher Intelligenz werden die Individuen eher von den technischen Möglichkeiten (Prozesse und Werkzeuge) getrieben, wobei die Interaktion weniger zwischen den Individuen, sondern zwischen Individuum und KI-Modell stattfindet. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

SCRUM: Die Werte Selbstverpflichtung, Fokus, Offenheit, Respekt und Mut sollen durch das Scrum Team gelebt werden
Im Scrum-Guide 2020 wird erläutert, was die Basis des Scrum Frameworks ist. Dazu sind die Werte genannt, die u.a. auch die Offenheit thematisieren, Ich frage mich allerdings, wie das möglich sein soll, wenn das Scrum Team proprietäre KI-Modelle wie ChatGPT, Gemini, Grok etc. nutzt, die sich ja gerade durch ihr geschlossenes System auszeichnen? Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

KANBAN basiert auf folgenden Werten: Transparenz, Balance, Kooperation, Kundenfokus, Arbeitsfluss, Führung, Verständnis, Vereinbarung und Respekt.
Bei den proprietären KI-Modellen ist die hier angesprochene Transparenz kaum vorhanden. Nutzer wissen im Detail nicht, mit welchen Daten das Modell trainiert wurde, oder wie mit eingegebenen Daten umgegangen wird, etc.

In einem anderen Blogbeitrag hatte ich dazu schon einmal darauf hingewiesen, dass man sich mit proprietärer Künstlicher Intelligenz (KI) auch die Denkwelt der Eigentümer einkauft.

Um agile Arbeitsweisen mit Künstlicher Intelligenz zu unterstützen, sollte das KI-Modell den genannten Werten entsprechen. Bei entsprechender Konsequenz, bieten sich also KI-Modelle an, die transparent und offen sind. Genau an dieser Stelle wird deutlich, dass das gerade die KI-Modelle sind, die der Definition einer Open Source AI entsprechen – und davon gibt es in der Zwischenzeit viele. Es wundert mich daher nicht, dass die Open Source Community und die United Nations die gleichen Werte teilen.

Es liegt an uns, ob wir uns von den Tech-Giganten weiter in eine immer stärker werdende Abhängigkeit treiben lassen, oder andere Wege gehen – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Mit proprietärer Künstlicher Intelligenz (KI) kauft man sich auch die Denkwelt der Eigentümer ein

In dem Blogbeitrag Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century hatte ich schon einmal darauf hingewiesen, dass es nicht richtig ist, dass Europa „nur“ reguliert und die USA „nur“ innovativ sind.

In Europa, und gerade in Deutschland, möchten wir, dass der Rechtsstaat weiter existiert und die Gesellschaft nicht nur als Business Case gesehen wird. Der immer größer werdende Einfluss von aktuell Künstlicher Intelligenz auf eine Gesellschaft kann diese überfordern, denn mit jeder Software geht auch eine bestimmte Denkhaltung einher.

Auf solche Entwicklungen macht ein aktueller Kommentar im Handelsblatt aufmerksam. Hier geht es um die Denkwelt des Firmenchefs von Palantir, die man sich mit der Software mit einkauft:

„Palantir passt nicht zum deutschen Rechtsstaat. Das US-Unternehmen mag für Sicherheitsbehörden eine Hilfe sein. Doch die Haltung des Firmenchefs macht die Software zu einem Risiko für die politische Stabilität in Deutschland“ (Kommentar von Dieter Neuerer im Handelsblatt vom 12.12.2025).

Es stellen sich natürlich gleich weitere Fragen, wie z.B.: Stellen die Karten von Google Maps die Realität dar, oder sind „unliebsame“ Gebiete nicht verzeichnet? Enthalten die bekannten proprietäten KI-Modelle (Closed Models) Einschränkungen, die Ergebnisse tendenziell beeinflussen? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Proprietäre Software im Vergleich zu Open Source Software

Quelle: SFLC vom 11.11.2025

Digitale Souveränität fängt damit an, sich von propritärer Software unabhängiger zu machen. Proprietäre Software ist Software, deren Quellcode nicht öffentlich ist, und die Unternehmen gehört (Closed Software). Dazu zählen einerseits die verschiedenen Anwendungen von Microsoft, aber auch die von Google oder ZOHO usw.

Demgegenüber gibt es in der Zwischenzeit leistungsfähige Open Source Software. Die indische Organisation SFLC hat am 11. November eine Übersicht veröffentlicht, die Google Workplace, ZOHO Workplace und Nextcloud Office/ProtonMail/BigBlueButton gegenüberstellt – die Abbildung zeigt einen Ausschnitt aus der Tabelle, die in diesem Beitrag zu finden ist.

„The purpose of this comparison is to assess the different approaches, features, and trade-offs each solution presents and to help organizations make informed decisions based on their operational requirements, technical capabilities, and priorities around privacy, flexibility, and cost“ (ebd.).

Wir nutzen seit einiger Zeit Nextcloud mit seinen verschiedenen Möglichkeiten, inkl. Nextcloud Talk (Videokonferenzen), sodass BigBlueButton nicht separat erforderlich ist.

Darüber hinaus nutzen wir LocalAI über den Nextcloud Assistenten, haben OpenProject integriert und erweitern diese Möglichkeiten mit Langflow und Ollama, um KI-Agenten zu entwickeln.

Alles basiert auf Open Source Software, die auf unseren Servern laufen, sodass auch alle Daten auf unseren Servern bleiben – ganz im Sinne einer stärkeren Digitalen Souveränität.

Eine soziologische Perspektive auf „Gemeinschaft“ und „Gemeinsinn“

Image by louisehoffmann83 from Pixabay

In einer heute komplexen Welt wird gesellschaftlich auf allen Ebenen versucht, den Gemeinsinn oder die Gemeinschaft zu beschwören, obwohl das der Realität nicht entspricht.

In den Unternehmen wird oft die Gemeinschaft oder der Gemeinsinn sogar noch mit weiteren Metaphern – wie z.B. „Familie“ – auf die Spitze getrieben. Der Soziologe Armin Nassehi sieht solche Entwicklungen kritisch:

„Wer auf die Gemeinschaft setzt, muss sagen, wer nicht dazugehört. Appelle ans Wir-Gefühl haben immer auch etwas Ausschließendes. Wenn man in einem Unternehmen von der Belegschaft einen starken Gemeinsinn einfordert, riskiert man, dass sich niemand mehr traut, zu widersprechen. Das ist tödlich für alle Kreativität, die man im Unternehmen dringend braucht. Der ausgerufene Gemeinsinn hat eine kompensatorische Funktion, damit soll ein Versagen zum Beispiel des Managements oder der Politik kaschiert werden“ (Nassehi in brand eins 12/2024).

Daraus leitet sich ab, dass Unternehmen bei der Verwendung der genannten Begriffe vorsichtiger sein sollten, wenn sie Kreativität und Innovation in ihrer Organisation benötigen. Siehe dazu auch

Anders über gesellschaftliche Transformation nachdenke

Blockiert die Ausrichtung auf Kernkompetenzen Innovationen?

 

Digitale Souveränität: Nuudle – ein nicht-trackendes Termintool

Screenshot: https://nuudel.digitalcourage.de//

Viele Menschen nutzen Doodle für die einfache Terminabstimmung. Im Sinne einer Digitalen Souveränität kann alternativ Nuudle genutzt werden. Wie die Abbildung zeigt, können über Termine hinaus auch noch klassische Umfragen erstellt werden.

Nuudle ist ein datensparsames Termintool und unterstützt daher Personen und Organisationen, die ihre Daten schützen möchten.

Das Tool ist auf der Website von digitalcourage zu finden, auf der es viele Hinweise dazu gibt, wie man seine eigenen Daten schützen kann. Manches finde ich gut, manches etwas überzogen – wie immer…

Siehe dazu auch Welche Open Source Alternativen gibt es?

Projekt: Wissen, Kostenverlauf und Entscheidungsspielraum über die Zeit

Eigene Darstellung (vgl. Platz 2004)

Betrachten wir die Projektkosten, so steigen diese meistens über die Zeit an (Kostenverlauf). Die Kostenbeeinflussung nimmt demgegenüber mit der Zeit ab, sodass der Entscheidungsspielraum auch immer kleiner wird. Gleichzeitig generiert man über den Projektzeitraum immer mehr Wissen über das Projekt.

Es ist immer wieder erstaunlich, dass Unternehmen die hohen Kosten eines Projekts in der Umsetzung (Steuerungsphase) bemängeln, obwohl an dieser Stelle kaum noch Einfluss genommen werden kann.

Weiterhin wird hier deutlich, wie wichtig es wäre, Wissen aus anderen (ähnlichen) Projekten mit in den Start eines Projektes zu integrieren. Das Erfahrungswissen ist zwar nicht immer 1:1 übertragbar, kann allerdings dennoch zur besseren Entscheidungsfindung in den frühen Phasen eines Projekts beitragen.

Das Erfahrungswissen eines Projekts in der Abschlussphase zu erschließen ist allerdings ein Schwachpunkt im Projektablauf, da es am Ende eines Projekts oftmals nur noch um die Nachkalkulation und um die Verträge geht – jeder ist froh, dass das Projekt zu Ende ist und sagt: Beim nächsten Projekt wird alles besser. Doch beim nächsten Projekt werden die gleichen Fehler gemacht: Projekte lernen (sehr) schlecht.