Enshittification: Was ist das schon wieder?

Image by Tumisu from Pixabay

Möglicherweise ist es Ihnen ja auch schon so ergangen; Sie finden einen Onlinedienst oder eine Onlineplattform mit einer guten Bedienbarkeit, die Angebote sind OK, und die Lieferung stimmt.

Nach einer gewissen Zeit stellen Sie allerdings fest, dass die Leistungen nach und nach schlechter, und oftmals auch teurer werden. Das ist ungewöhnlich, wenn man bedenkt, dass ein Unternehmen über die Zeit eine Lernkurve durchläuft, die es dem Unternehmen ermöglicht, Prozesse zu verbessern, und somit Kosten zu sparen. In der Zwischenzeit habe ich erfahren, dass es für diesen Effekt seit 2022 sogar einen Begriff gibt: Enshittification.

“Der Begriff Enshittification (englisch wörtlich etwa Verscheißerung), auch bekannt als Crapification oder Platform decay (deutsch Plattformverfall), beschreibt ein Muster, bei dem digitale Angebote, d.h. Onlinedienste und -plattformen, oft mit der Zeit an Qualität verlieren” (Wikipedia).

Auf der Wikipedia-Seite finden Sie weitere interessante Beispiele für den Effekt, der einen Interessenkonflikt zwischen Unternehmen und Nutzern widerspiegelt. Das Unternehmen ist so profitorientiert, dass es sogar Nachteile für den Nutzer in Kauf nimmt, damit die Rendite stimmt.

Qualität bedeutet ja, dass “inhärente Merkmale Anforderungen erfüllen” (ISO 9001:2015) – und zwar Anforderungen der Kunden/Nutzer. Siehe dazu auch

Produkte und Dienstleistungen als Mehrwert für Kunden: Warum funktioniert das einfach nicht?

Der Geschäftswert aus Kundensicht – wirklich?

Anmerkung: Normalerweise verwenden wir in unseren Blogbeiträgen keine vulgären Ausdrücke – hier machen wir eine Ausnahme.

UNESCO (2025): AI and the future of education

Ausschnitt von der Titelseite

Es ist deutlich zu erkennen, dass die Entwicklungen im Bereich der Künstlichen Intelligenz Auswirkungen auf den Bildungssektor haben. Die Frage ist nur, ob die sich daraus entstehenden Fragen nur aus der Perspektive von Tech-Unternehmen beantwortet werden sollten. Es ist meines Erachtens in diesem Zusammenhang gut, dass sich die UNESCO diesem Thema ausgewogen und unter einer globalen Perspektive angenommen hat.

UNESCO (2025): AI and the future of education. Disruptions, dilemmas and directions | LINK

Gleich im einleitenden Summary weist die UNESCO darauf hin, dass ein Drittel der Weltbevölkerung offline ist. Das wiederum hat Auswirkungen darauf, welches Wissen, welche Werte und welche Sprachen in den KI-Systemen, und somit auch in der KI-unterstützten Bildung, dominieren.

“Artificial intelligence (AI) is reshaping the way we learn, teach and make sense of the world around us, but it is doing so unequally. While one-third of humanity remains offline, access to the most cutting-edge AI models is reserved for those with subscriptions, infrastructure and linguistic advantage. These disparities not only restrict who can use AI, but also determine whose knowledge, values and languages dominate the systems that increasingly influence education. This anthology explores the philosophical, ethical and pedagogical dilemmas posed by disruptive influence of AI in education” (UNESCO 2025).

Künstliche Intelligenz: Mit der OLMo2 Modell-Familie offene Forschung an Sprachmodellen vorantreiben

Eigener Screenshot: olmo2 istalliert in Ollama auf unserem Server

Auf unseren Servern haben wir LocalAI installiert, das wir über den Nextcloud Assistenten in allen Nextcloud-Anwendungen nutzen können. Dabei bleiben alle Daten auf unserem Server.

Weiterhin arbeiten wir an KI-Agenten, die wir in Langflow entwickeln. Dazu greifen wir auf Modelle zurück, die wir in Ollama installiert haben. Auch Langflow und Ollama sind auf unserem Servern installiert, sodass auch hier alle Daten bei uns bleiben.

In Ollama haben wir nun ein weiteres Modell installiert, das aus einer ganzen OLMo2-Familie stammt. In der Abbildung ist zu erkennen, dass wir OLMo2:latest installiert haben. Wir können nun auch das Modell in Ollama testen und dann später – wie schon angesprochen – in Langflow in KI-Agenten einbinden.

Alle Modelle, die wir auf unseren Servern installieren, sollen den Anforderungen einer Open Source AI entsprechen. Manchmal nutzen wir auch Open Weights Models, um zu Testzwecken die Leistungsfähigkeit verschiedener Modelle zu vergleichen. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.

Das Modell OLMo2:latest ist ein Modell, aus einer Modell-Familie, dass im wissenschaftlichen Umfeld / Forschung eingesetzt werden kann.

“OLMo is Ai2’s first Open Language Model framework, intentionally designed to advance AI through open research and to empower academics and researchers to study the science of language models collectively” (Ai2-Website).

An diesem Beispiel zeigt sich, dass es einen Trend gibt: Weg von einem Modell, das alles kann – one size fits all. In Zukunft werden immer mehr Modelle gefragt und genutzt werden. die sich auf eine bestimmte berufliche Domäne (Forschung, Wissenschaft etc.) fokussieren und dadurch bessere Ergebnisse erzielen und weniger Ressourcen benötigen.

Siehe dazu auch KI-Modelle: Von “One Size Fits All” über Variantenvielfalt in die Komplexitätsfalle?

Bureaucratic Mass Index (BMI) bestimmen – ganz einfach

Ergebnis einer kleinen Befragung zum BMI in einer Organisation.

Jeder von uns kennt den Body Mass Index (BMI). Bei der Techniker Krankenkasse können Sie beispielsweise Ihren Body Mass Index online berechnen lassen: BMI-Rechner der TK. Dabei geht es – vereinfacht ausgedrückt – um das Verhältnis zwischen Körpergröße und Gewicht. Das Ergebnis zeigt beispielsweise an, ob jemand “übergewichtig” ist

Kann auch eine Organisation “übergewichtig” sein?

Bei einer Organisation wären das Verschwendungen in allen Bereichen, denen ja das Lean Management auf der Spur ist. Siehe dazu beispielsweise Lean Project Management: Mit dem Project Management Waste Index (PMWI) den Grad der Verschwendung in Projekten identifizieren.

Solche Verschwendungen stellen in vielen Organisationen eine Art “Übergewicht” auf allen Ebenen dar, die Gary Hamel und Michele Zanini als unnötige Bürokratie bezeichnen. Bürokratie bedeutet ja “Herrschaft der Verwaltung” (Quelle: Wikipedia). Bürokratische Strukturen sind nicht per se schlecht, sie sind nur dann ein Übel, wenn sie sich sich immer weiter unnötig verselbständigen.

“Unfortunately”, when confronted by unprecedented challenges, most companies and institutions prove timid, plodding and orthodox. The culprit is bureaucracy.” (Source: Gary Hamel and Michele Zanini).

Wenn also Bürokratie nach den beiden Autoren die Schuldige (culprit) ist, schlagen Hamel und Zanini vor, den Bureaucratic Mass Index (BMI) einer Organisation zu bestimmen. Dazu bieten sie eine einfache englischsprachige Website an. Starten Sie einfach, es sind keine persönlichen Daten einzugeben.

Website: https://www.humanocracy.com/course/BMI

In der Abbildung oben finden Sie das Ergebnis, das sich für eine fiktive Organisation ergeben hat. Es ist zwar zugegebenermaßen eine sehr grobe Einschätzung, doch regt es an, weiter an weniger Bürokratie in der Organisation zu arbeiten. Nicht morgen oder übermorgen, sondern möglichst jetzt, denn die Dynamik im Umfeld Ihrer Organisation nicht nicht ab, sondern eher zu.

Shisa kanko – Gibt es das in Japan wirklich?

Das Foto der Yamanote-Line haben wir auf unserer Japan-Reise im April 2025 aufgenommen

Im April waren wir insgesamt 10 Tage in Japan (Tokyo-Kyoto-Osaka). Dabei haben wir viele neue, positive Eindrücke mitgenommen. Für mich bemerkenswert und überraschend war, dass Shisa kanko wirklich praktiziert wird.

Bei Shisa kanko handelt es sich um eine Maßnahme des Arbeitsschutzes, bei der die Mitarbeiter “zeigen und benennen”. Beispielsweise “benennen” Zugbegleiter an Haltestationen die nächste Aktion und “zeigen” in die entsprechende Richtung.

Wir haben die Yamanote-Line und auch andere Verbindungen genutzt. Shisa kanko ist uns dabei mehrmals aufgefallen. Anfangs dachten wir, das wäre eine Ausnahme, doch weit gefehlt.

Wenn man das Schauspiel aus unserer westlichen Perspektive betrachtet, erscheinen die lauten Ansagen und das fast übertriebene Zeigen durchaus etwas “komisch”. Nachdem ich nachgelesen hatte, kam mir das gar nicht mehr “komisch” vor, denn es wurde nachgewiesen, dass Shisa kanko bei einfachen Aufgabenstellungen die “Fehlerquote um bis zu 85 % reduzieren konnte” (Quelle: Wikipedia).

Die Antwort auf die in der Überschrift des Beitrags gestellten Frage lautet also: Ja, Shisa kanko wird in Japan praktiziert. Möglicherweise hauptsächlich im Eisenbahnsektor, der für seine Sicherheit und Pünktlichkeit weltbekannt ist. Außerhalb von Japan findet man Shisa kanko selten. Warum eigentlich?

Anmerkungen zum World Social Report 2025

Quelle: World Social Reports 2025

In der aktuellen Wahrnehmung der Themen in den öffentlichen und privaten Diskussionen geht es fast nur noch um die Möglichkeiten von technologischen Entwicklungen wie der Künstlichen Intelligenz. Es geht um die Entwicklung von Märkten, ganzer Branchen (Automobilindustrie, Landwirtschaft, Lebensmittel, Pharma…) und systemrelevanter Organisationen (Banken) usw. Darauf ist auch unsere Politik fokussiert. Lobbyisten gehen hier ein und aus, um die geplanten Gesetze im Sinne einer Branche oder eines großen Konzerns zu beeinflussen – was auch oft genug funktioniert. Es wundert einen schon, dass Politiker sich fragen, warum die Menschen kein Vertrauen mehr in ihre Arbeit haben.

An dieser Stelle muss ich etwas klarstellen: Ich bin Demokrat und überzeugter Europäer. Ich plädiere hier nicht für extreme politische Richtungen (links oder rechts).

All das ist eine Perspektive, in der sich einzelne Menschen, Gruppen von Menschen, oder auch ganze Gesellschaften anpassen, oder besser unterordnen sollen/müssen. Wehe, wenn sie das nicht machen, wie beispielsweise die Europäische Union, die sich doch mit dem EU AI ACT gegen die Forderungen der US-amerikanischen Politik und KI-Unternehmen stellt. Oder wenn sich kleine Künstler und Autoren darüber beschweren, dass ihnen die Large Language Models (LLMs) einfach so die Inhalte nehmen und damit Geld verdienen (Urheberrechte missachten). Aus den hier nur kurz zusammengefassten Entwicklungen, entsteht ein Bild, das in der eingangs dargestellten Grafik visualisiert ist.

Die Abbildung aus dem World Social Report 2025 der United Nations zeigt verschiedene Einflussfaktoren, die sich zu einem selbst-verstärkenden Generator vernetzen (Wirkungsnetz): Die aktuelle Situation in vielen Ländern hat zu immer mehr Misstrauen (Distrust) und zu mehr Polarisation (Polarization) geführt – und damit zu weniger Kooperationen (Lack of collective action) und zu einer politischen Lähmung (Policy paralysis). Daraus wiederum entstehen Ungleichheit (Inequality) und Unsicherheit (Unsecurity), was wieder zum Anfang führt usw.

Wie kommen wir aus dem Kreislauf heraus?

Es fängt damit an, auf allen Ebenen (Individuum, Gruppe, Organisation, Netzwerk, Gesellschaft) den Menschen mit seinen Anforderungen in den Mittelpunkt zu rücken.

Dass das aktuell nicht der Fall ist, möchte ich an einigen wenigen Beispielen aufzeigen: Ist es die Anforderung von Menschen, massenhaft industriell produzierte Lebensmittel angeboten zu bekommen, die teilweise krank machen, und bei dem ein großer Anteil auch noch weggeworfen wird? Im Gesundheitswesen bekommen viele Akteure nur Geld, wenn ich krank bin. Welches Interesse haben diese Akteure, dass ich gesund bin und gesund bleibe? Ähnliches kann man für das Bildungswesen oder für die politischen Strukturen formulieren. Ist es die Anforderung der Menschen, dass immer mehr politische Ebenen auf EU-, Bundes, Landes- und regionaler Ebene mit immer mehr Personal und unnötigen Schnittstellen aufgebaut werden? usw. usw. Es geht nicht um mehr Geld, sondern darum, die vorhandenen Ressourcen für das Wohl der menschlichen Gemeinschaft einzusetzen, und Strukturen, die im Industriezeitalter angemessen waren, an die heutige Lebenswirklichkeit anzupassen.

Heute können wir mit Hilfe neuer Technologien (Additive Manufacturing, Künstliche Intelligenz…) vieles davon erreichen. WIE so etwas aussehen kann, hat Japan schon vor einigen Jahren in der Society 5.0 skizziert und teilweise schon umgesetzt. Im April 2025 waren wir 10 Tage in Japan – auch auf der Expo 2025 in Osaka – wo Elemente des Konzepts gezeigt wurden.

Quelle: https://www8.cao.go.jp/cstp/english/society5_0/index.html (Abgerufen am 19.11.2022)

Barbara Geyer: Künstliche Intelligenz und Lernen

Barbara Geyer in diesem LinkedIn-Beitrag (August 2025)

In dem LinkedIn-Beitrag von Barbara Geyer (Hochschule Burgenland) erläutert die Autorin die Abbildung zu KI und Lernen noch etwas genauer. Es ist farblich gut zu erkennen, in welchen Bereichen Künstliche Intelligenz viel helfen kann (grün), begrenzt helfen kann (orange) und nicht helfen kann (rot). Dabei orientiert sich die Autorin an dem Helmke-Modell, einem Angebot-Nutzungs-Modell, und leitet die folgende zentrale Botschaft ab:

KI revolutioniert das ANGEBOT (Materialien, Tests, Feedback) aber LERNEN SELBST bleibt menschlich (Denken, Verstehen, Motivation).

In den Kommentaren zu dem LinkedIn-Beitrag gibt es viel Zustimmung, doch auch kritische Stimmen, die die Möglichkeiten Künstlicher Intelligenz in Lernprozessen hier eher unterschätzt sehen.

Ich finde diese Grafik zunächst einmal gut, da sie dazu anregt, darüber nachzudenken, was wir unter Lernen, bzw. unter menschlichem Lernen, verstehen, und wie wir damit umgehen wollen. Hinzu kommt dann noch die Einordnung Künstlicher Intelligenz als eine weitere Quelle zur Ermöglichung von Lernen – ganz im Sinne einer Ermöglichungsdidaktik. Siehe dazu auch Ist Wissenstransfer in ihrer Organisation wichtig? Wenn ja: Befassen Sie sich mit Erwachsenenbildung!

KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie

Wenn es darum geht, die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt zu prognostizieren, kommt es – wie immer – darauf an, wen man fragt.

Die eher technikorientierten Unternehmen verkaufen die angestrebte AGI (Artificial General Intelligence) als das non plus ultra der Intelligenzentwicklung. Dabei prognostizieren diese Unternehmen, dass AGI den menschlichen Fähigkeiten (Intelligenzen) überlegen sein wird. Daraus folgt zwingend, dass KI wohl alle arbeitsbezogenen Tätigkeiten in der nahen Zukunft übernehmen kann. Diese Argumentation erinnert mich an so viele Versprechen der Technik-Unternehmen; beispielsweise an die Unsinkbarkeit der Titanic oder die “100%-ige” Sicherheit von Kernkraftwerken, oder an die Verheißungen der Internetpioniere. Technologie muss wohl in dieser Form verkauft werden (Storytelling) – immerhin geht es ja um Investoren und sehr viel Geld. Ich weiß natürlich, dass diese Vergleiche “hinken”, dennoch …

Betrachten wir Künstliche Intelligenz mit seinen Möglichkeiten aus der eher gesamtgesellschaftlichen Perspektive, so sieht das etwas anders aus. Hier geht es darum, mit Hilfe der Künstlichen Intelligenz gesellschaftliche Probleme zu lösen, zum Wohle aller. Die Idee der japanischen Society 5.0 kommt diesem Anspruch sehr nahe. Da ich darüber schon verschiedene Blogbeiträge veröffentlich habe, gehe ich darauf nicht weiter ein. Siehe dazu beispielhaft Worin unterscheiden sich Industry 5.0 und Society 5.0?

Wie ist es dennoch möglich herauszufinden, wie sich Künstliche Intelligenz auf dem Arbeitsmarkt bemerkbar macht, bzw. machen wird?

Als Leser unseres Blogs wissen Sie, dass ich bei solchen Fragestellungen immer dazu tendiere, belastbare wissenschaftliche Studien von unabhängigen Forschern heranzuziehen. Eine dieser Studie ist folgende. Darin sind sehr ausführlich Vorgehensweise, Datenanalysen und Erkenntnisse dargestellt, mit einer zu beachtenden Einschränkung: Es geht um den amerikanischen Arbeitsmarkt.

“First, we find substantial declines in employment for early-career workers in occupations most exposed to AI, such as software development and customer support.

Second, we show that economy-wide employment continues to grow, but employment growth for young workers has been stagnant.

Third, entry-level employment has declined in applications of AI that automate work, with muted effects for those that augment it.

Fourth, these employment declines remain after conditioning on firm-time effects, with a 13% relative employment decline for young workers in the most exposed occupations

Fifth, these labor market adjustments are more visible in employment than in compensation.

Sixth, we find that these patterns hold in occupations unaffected by remote work and across various alternative sample constructions”

Source: Brynjolfsson et al. (2025): Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence | PDF

Herausheben möchte ich hier, dass gerade junge Menschen, die in den Arbeitsmarkt kommen und noch keine domänenspezifische Expertise entwickeln konnten, von Künstlicher Intelligenz betroffen sind. Das ist in mehrerer Hinsicht bemerkenswert.

Einerseits scheint Expertise nicht so leicht durch KI ersetzbar zu sein, was wiederum für erfahrene, auch ältere Mitarbeiter spricht. Diese sollten natürlich Künstliche Intelligenz nutzen und nicht ablehnen.

Weiterhin sind es ja gerade junge Menschen, die in ihren Jobs mit Digitalisierung und auch mit Künstlicher Intelligenz arbeiten möchten. Die Innovation “Künstliche Intelligenz” kann anhand der genannten Effekte durchaus als reflexiv angesehen werden. Siehe dazu auch  Freund, R.; Chatzopoulos, C.; Lalic, D. (2011): Reflexive Open Innovation in Central Europe.

Digitale Souveränität: Whiteboard mit dem Nextcloud KI-Assistenten nutzen

Auf das in Nextcloud integrierte Whiteboard hatte ich in dem Beitrag Nextcloud Hub 9 Open Source: Whiteboard kollaborativ bearbeiten. Ein weiterer Schritt zu einem souveränen Arbeitsplatz hingewiesen.

Wenn man also in Nextcloud eine Datei öffnen möchte, hat man die Optionen “Neue Tabelle” (wie Excel), “Neue Textdatei” (wie Word), “Neue Präsentation” (wie Power Point), “Neues Diagramm” und eben ein “Neues Whiteboard” zu erstellen. Es ist praktisch, dass diese Möglichkeit direkt integriert ist.

Das Whiteboard selbst basiert auf dem von mir schon 2022 vorgestellten tldraw, das mir damals schon wegen seiner Einfachheit und Kompaktheit gefallen hat. Jetzt ist es also in Nextcloud eingebunden worden. Es gibt zu dem Whiteboard eine Bibliothek, in der man alle selbst erstellten Vorlagen hinterlegen, oder auch im Netz verfügbare Vorlagen einbinden kann. Natürlich gibt es nicht so viele frei verfügbare Vorlagen wie bei Miro oder Mural, doch hat das in Nextcloud integrierte Whiteboard die Vorteile, dass es in einer umfangreichen Kollaborationsplattform integriert und Open Source basiert ist, und alle Daten auf dem eigenen Server laufen.

Es gibt neben den von anderen Whiteboards bekannten Funktionen, in der Zwischenzeit auch einen Botton, um den Nextcloud KI-Assistenten mit in das Whiteboard einzubinden. In der Abbildung habe ich den Botton rot hervorgehoben.

Das in dem Assistenten hinterlegte KI-Modell können wir selbst festlegen, da wir die Modelle in unserer LocalAI vorliegen haben. Somit laufen alle Anwendungen auf unseren Servern und alle Daten bleiben auch bei uns. Ganz im Sinne der Reduzierung der oftmals noch vorherrschenden Digitalen Abhängigkeit von den den etablierten Anwendungen meist amerikanischer Tech-Konzerne.

Weg von der Digitalen Abhängigkeit und hin zu einer Digitalen Souveränität.

Künstliche Intelligenz, Wissen und kritisches Denken

Der Wissensbegriff hat sich in den letzten Jahrzehnten verändert, und damit auch erweitert. Arnold hat beispielsweise von einem neuen Wissensbegriff gesprochen und plädiert für eine Art von Wissenskompetenz.

Mit den Möglichkeiten der Künstlichen Intelligenz wird der Umgang mit Wissen noch dynamischer – vormals eher personales Wissen wird immer mehr zu einem öffentlichen Wissen. Dabei ist bemerkenswert, dass die Menschen den Ergebnissen der KI-Modellen durchaus vertrauen, obwohl diese nachweislich fehlerhaft sind. Siehe dazu Künstliche Intelligenz: Halluzinationen und der Bullshit-Faktor – eine Art Künstliche Dummheit? Dieses sehr unkritische Verhalten führt zu einer Entwertung des personalen Wissens

“Menschen ziehen sich infolge von KI zunehmend aus der Generierung personalen Wissens zurück und begnügen sich mit der Überwachung und Validierung KI-generierten öffentlichen Wissens. Der Einsatz von KI und ein übermäßiges Vertrauen in die Qualität KI generierter Inhalte reduzieren zudem die Bereitschaft zum kritischen Denken. Mit wachsendem Vertrauen in KI verschlechtert sich kritisches Denken, während Zuversicht in Bezug auf die eigene Expertise kritisches Denken stärkt” (Reinmann, Preprint. Erscheint in: Dittler, U. & Kreidl, C. (in Druck). Fragen an die Hochschuldidaktik der Zukunft. Schäffer-Poeschel).

Die stärkere Nutzung der KI-Möglichkeiten führt also letztendlich zur Reduzierung des kritischen Denkens, wobei das Vertrauen in die eigene Expertise eher das kritische Denken fördert.

Wir sollten daher nicht “blind” den Verheißungen der Tech-Industrie hinterherrennen, sondern auf Basis unserer eigenen Expertise durchaus kritisch mit den Ergebnissen der KI umgehen. Siehe dazu beispielsweise Kritisches Denken genauer betrachtet. Darin werden u.a. die affirmative (bestätigende) Wissenskonstruktion und das kritische Denken gegenübergestellt.