Möglicherweise ist es Ihnen ja auch schon so ergangen; Sie finden einen Onlinedienst oder eine Onlineplattform mit einer guten Bedienbarkeit, die Angebote sind OK, und die Lieferung stimmt.
Nach einer gewissen Zeit stellen Sie allerdings fest, dass die Leistungen nach und nach schlechter, und oftmals auch teurer werden. Das ist ungewöhnlich, wenn man bedenkt, dass ein Unternehmen über die Zeit eine Lernkurve durchläuft, die es dem Unternehmen ermöglicht, Prozesse zu verbessern, und somit Kosten zu sparen. In der Zwischenzeit habe ich erfahren, dass es für diesen Effekt seit 2022 sogar einen Begriff gibt: Enshittification.
“Der Begriff Enshittification (englisch wörtlich etwa Verscheißerung), auch bekannt als Crapification oder Platform decay (deutsch Plattformverfall), beschreibt ein Muster, bei dem digitale Angebote, d.h. Onlinedienste und -plattformen, oft mit der Zeit an Qualität verlieren” (Wikipedia).
Auf der Wikipedia-Seite finden Sie weitere interessante Beispiele für den Effekt, der einen Interessenkonflikt zwischen Unternehmen und Nutzern widerspiegelt. Das Unternehmen ist so profitorientiert, dass es sogar Nachteile für den Nutzer in Kauf nimmt, damit die Rendite stimmt.
Qualität bedeutet ja, dass “inhärente Merkmale Anforderungen erfüllen” (ISO 9001:2015) – und zwar Anforderungen der Kunden/Nutzer. Siehe dazu auch
Der aktuelle Global Innovation Index 2025 zeigt, dass Deutschland im Ranking nicht mehr zu den TOP 10 zählt (Abbildung). Im internationalen Vergleich rutscht Deutschland etwas ab. Im Global Innovation Index 2017 war Deutschland im Vergleich zu 2016 einen Platz nach oben gerutscht, und belegte immerhin Platz 9.
Schon 2010 hatte ich in einem Blogbeitrag etwas zynisch angemerkt, dass wir in Deutschland mehr Innovationspreise als wirkliche Innovationen haben.
Vergleichen wir uns in Deutschland mit anderen Ländern in der EU, oder mit den eigenen Innovations-Kennzahlen der vergangenen Jahre, sieht es dagegen immer noch recht gut aus. Es ist halt immer die Frage, welche Zahlen ich heranziehe, um die Innovationskraft eines Landes zu bewerten. Es ist eben – frei nach Einstein – alles relativ.
Doch was können wir tun, um diese Entwicklung zu korrigieren?
In Zeiten von Künstlicher Intelligenz beispielsweise sollte es darum gehen, die bisher nicht erfüllten Bedürfnisse von Menschen endlich in den Mittelpunkt zu stellen, und geeignete Produkte und Dienstleistungen auf den Markt zu bringen.
“There is still an invisible hand behind supply-side reform. Adam Smith argued that the invisible hand that drives markets is capital, while the invisible hand of supply that drives innovation is demand. Generally speaking, the “inconvenience” in the daily life of the people can be used as the traction of technological development. In the AI technology market, enterprises that see fundamental needs can have a large number of applications for their products” (Wu 2025).
Es ist deutlich zu erkennen, dass die Entwicklungen im Bereich der Künstlichen Intelligenz Auswirkungen auf den Bildungssektor haben. Die Frage ist nur, ob die sich daraus entstehenden Fragen nur aus der Perspektive von Tech-Unternehmen beantwortet werden sollten. Es ist meines Erachtens in diesem Zusammenhang gut, dass sich die UNESCO diesem Thema ausgewogen und unter einer globalen Perspektive angenommen hat.
UNESCO (2025): AI and the future of education. Disruptions, dilemmas and directions | LINK
Gleich im einleitenden Summary weist die UNESCO darauf hin, dass ein Drittel der Weltbevölkerung offline ist. Das wiederum hat Auswirkungen darauf, welches Wissen, welche Werte und welche Sprachen in den KI-Systemen, und somit auch in der KI-unterstützten Bildung, dominieren.
“Artificial intelligence (AI) is reshaping the way we learn, teach and make sense of the world around us, but it is doing so unequally. While one-third of humanity remains offline, access to the most cutting-edge AI models is reserved for those with subscriptions, infrastructure and linguistic advantage. These disparities not only restrict who can use AI, but also determine whose knowledge, values and languages dominate the systems that increasingly influence education. This anthology explores the philosophical, ethical and pedagogical dilemmas posed by disruptive influence of AI in education” (UNESCO 2025).
Der von uns entwickelte Blended Learning Lehrgang Projektmanager/in Agil (IHK) wird im Oktober wieder in Düsseldorf angeboten:
Projektmanager/in Agil (IHK) – Blended Learning Lehrgang Flyer und IHK-Website 27.10.-01.12.2025, IHK Düsseldorf Ansprechpartnerin: Frau Wanke, Telefon: 0211/17243-35 E-Mail: petra.wanke@duesseldorf.ihk.de
In dem Lehrgang geht es u.a um folgende Themen:
Unternehmen sollten wissen, wie sie die Projekte herausfiltern, die dann sinnvoll mit agilen Methoden durchgeführt werden können.
Es gibt nicht nur Scrum als agiles Rahmenwerk, auch Lean und Kanban gehören zu geeigneten Vorgehensmodellen. Bei Kanban gibt es – im Vergleich zu Scrum – nicht die Trennung der Projektmanager-Rolle in Product Owner und Scrum Master.
Scrum: Hier ist zwischen dem Scrum-Guide und ScrumAnd (z.B. Scrumban) bzw. ScrumBut zu unterscheiden. Nicht alle Unternehmen nutzen Scrum genau nach dem aktuellen Scrum-Guide.
Herauszufinden, was die agilen Anforderungen sind ist nicht Bestandteil des Scrum-Guides. Wir ergänzen diesen Punkt daher mit dem Requirementsboard.
Agile Vertragsgestaltung: Ein wichtiges Element, da die Leistung nicht, wie beim Klassischen(Plangetriebenen) Projektmanagement, genau beschrieben vorliegt (Magisches Dreieck).
Hybrides Projektmanagement: Hier gibt es viele Variationen, was einen Ordnungsrahmen erforderlich macht.
Scaling Agile: Der Scrum-Guide wurde für einzelne Projekte geschrieben, doch wie geht man mit vielen agilen Projekten um? Nexus und LeSS orientieren sich stark am Scrum-Guide. SAFe wiederum hat eine umfangreiche Struktur und nutzt verstärkt Lean und Kanban. Hier schließt sich der Kreis des Gesamtkonzepts.
Ein(e) Projektmanager/in Agil (IHK) ist somit für verschiedene Rollen in Organisationen geeignet.
Eigener Screenshot: olmo2 istalliert in Ollama auf unserem Server
Auf unseren Servern haben wir LocalAI installiert, das wir über den Nextcloud Assistenten in allen Nextcloud-Anwendungen nutzen können. Dabei bleiben alle Daten auf unserem Server.
Weiterhin arbeiten wir an KI-Agenten, die wir in Langflow entwickeln. Dazu greifen wir auf Modelle zurück, die wir in Ollama installiert haben. Auch Langflow und Ollama sind auf unserem Servern installiert, sodass auch hier alle Daten bei uns bleiben.
In Ollama haben wir nun ein weiteres Modell installiert, das aus einer ganzen OLMo2-Familie stammt. In der Abbildung ist zu erkennen, dass wir OLMo2:latest installiert haben. Wir können nun auch das Modell in Ollama testen und dann später – wie schon angesprochen – in Langflow in KI-Agenten einbinden.
Alle Modelle, die wir auf unseren Servern installieren, sollen den Anforderungen einer Open Source AI entsprechen. Manchmal nutzen wir auch Open Weights Models, um zu Testzwecken die Leistungsfähigkeit verschiedener Modelle zu vergleichen. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.
Das Modell OLMo2:latest ist ein Modell, aus einer Modell-Familie, dass im wissenschaftlichen Umfeld / Forschung eingesetzt werden kann.
“OLMo is Ai2’s first Open Language Model framework, intentionally designed to advance AI through open research and to empower academics and researchers to study the science of language models collectively” (Ai2-Website).
An diesem Beispiel zeigt sich, dass es einen Trend gibt: Weg von einem Modell, das alles kann – one size fits all. In Zukunft werden immer mehr Modelle gefragt und genutzt werden. die sich auf eine bestimmte berufliche Domäne (Forschung, Wissenschaft etc.) fokussieren und dadurch bessere Ergebnisse erzielen und weniger Ressourcen benötigen.
Dennoch ist deutlich zu erkennen, dass es immer mehr Anbieter in allen möglichen Segmenten von Künstlicher Intelligenz – auch bei den Language Models – gibt. Wenn man sich alleine die Vielzahl der Modelle bei Hugging Face ansieht: Heute, am17.09.2025, stehen dort 2,092,823 Modelle zur Auswahl, und es werden jede Minute mehr. Das erinnert mich an die Diskussionen auf den verschiedenen (Welt-) Konferenzen zu Mass Customization and Personalization. Warum?
Large Language Models (LLM):One Size Fits All Wenn es um die bei der Anwendung von Künstlicher Intelligenz (GenAI) verwendeten Trainingsmodellen geht, stellt sich oft die Frage, ob ein großes Modell (LLM: Large Language Model) für alles geeignet ist – ganz im Sinne von “One size fits all”. Diese Einschätzung wird natürlich von den Tech-Unternehmen vertreten, die aktuell mit ihren Closed Source Models das große Geschäft machen, und auch für die Zukunft wittern. Die Argumentation ist, dass es nur eine Frage der Zeit ist, bis das jeweilige Large Language Model die noch fehlenden Features bereitstellt – bis hin zur großen Vision AGI: Artificial General Intelligence. Storytelling eben…
Small Language Models (SLM): Variantenvielfalt In der Zwischenzeit wird immer klarer, dass kleine Modelle (SLM) viel ressourcenschonender, in speziellen Bereichen genauer, und auch wirtschaftlicher sein können. Siehe dazu Künstliche Intelligenz: Vorteile von Small Language Models (SLMs) und Muddu Sudhakar (2024): Small Language Models (SLMs): The Next Frontier for the Enterprise, Forbes, LINK.
Komplexitätsfalle Es wird deutlich, dass es nicht darum geht, noch mehr Möglichkeiten zu schaffen, sondern ein KI-System für eine Organisation passgenau zu etablieren und weiterzuentwickeln. Dabei sind erste Schritte schon zu erkennen: Beispielsweise werden AI-Router vorgeschlagen, die verschiedene Modelle kombinieren – ganz im Sinne eines sehr einfachen Konfigurators. Siehe dazu Künstliche Intelligenz: Mit einem AI Router verschiedene Modelle kombinieren.
Mit Hilfe eines KI-Konfigurators könnte man sich der Komplexitätsfalle entziehen. Ein Konfigurator in einem definierten Lösungsraum (Fixed Solution Space) ist eben das zentrale Element von Mass Customization and Personalization.
Die Lösung könnte also sein, massenhaft individualisierte KI-Modelle und KI-Agents dezentralisiert für die Allgemeinheit zu schaffen. Am besten natürlich alles auf Open Source Basis – Open Source AI – und für alle in Repositories frei verfügbar. Auch dazu gibt es schon erste Ansätze, die sehr interessant sind. Siehe dazu beispielsweise (Mass) Personalized AI Agents für dezentralisierte KI-Modelle.
Genau diese Überlegungen erinnern – wie oben schon angedeutet – an die Hybride Wettbewerbsstrategie Mass Customization and Personalization. Die Entgrenzung des definierten Lösungsraum (Fixed Solution Space) hat dann weiter zu Open Innovation (Chesbrough und Eric von Hippel) geführt.
Ergebnis einer kleinen Befragung zum BMI in einer Organisation.
Jeder von uns kennt den Body Mass Index (BMI). Bei der Techniker Krankenkasse können Sie beispielsweise Ihren Body Mass Index online berechnen lassen: BMI-Rechner der TK. Dabei geht es – vereinfacht ausgedrückt – um das Verhältnis zwischen Körpergröße und Gewicht. Das Ergebnis zeigt beispielsweise an, ob jemand “übergewichtig” ist
Solche Verschwendungen stellen in vielen Organisationen eine Art “Übergewicht” auf allen Ebenen dar, die Gary Hamel und Michele Zanini als unnötige Bürokratie bezeichnen. Bürokratie bedeutet ja “Herrschaft der Verwaltung” (Quelle: Wikipedia). Bürokratische Strukturen sind nicht per se schlecht, sie sind nur dann ein Übel, wenn sie sich sich immer weiter unnötig verselbständigen.
“Unfortunately”, when confronted by unprecedented challenges, most companies and institutions prove timid, plodding and orthodox. The culprit is bureaucracy.” (Source: Gary Hamel and Michele Zanini).
Wenn also Bürokratie nach den beiden Autoren die Schuldige (culprit) ist, schlagen Hamel und Zanini vor, den Bureaucratic Mass Index (BMI) einer Organisation zu bestimmen. Dazu bieten sie eine einfache englischsprachige Website an. Starten Sie einfach, es sind keine persönlichen Daten einzugeben.
In der Abbildung oben finden Sie das Ergebnis, das sich für eine fiktive Organisation ergeben hat. Es ist zwar zugegebenermaßen eine sehr grobe Einschätzung, doch regt es an, weiter an weniger Bürokratie in der Organisation zu arbeiten. Nicht morgen oder übermorgen, sondern möglichst jetzt, denn die Dynamik im Umfeld Ihrer Organisation nicht nicht ab, sondern eher zu.
Das Foto der Yamanote-Line haben wir auf unserer Japan-Reise im April 2025 aufgenommen
Im April waren wir insgesamt 10 Tage in Japan (Tokyo-Kyoto-Osaka). Dabei haben wir viele neue, positive Eindrücke mitgenommen. Für mich bemerkenswert und überraschend war, dass Shisa kanko wirklich praktiziert wird.
Bei Shisa kanko handelt es sich um eine Maßnahme des Arbeitsschutzes, bei der die Mitarbeiter “zeigen und benennen”. Beispielsweise “benennen” Zugbegleiter an Haltestationen die nächste Aktion und “zeigen” in die entsprechende Richtung.
Wir haben die Yamanote-Line und auch andere Verbindungen genutzt. Shisa kanko ist uns dabei mehrmals aufgefallen. Anfangs dachten wir, das wäre eine Ausnahme, doch weit gefehlt.
Wenn man das Schauspiel aus unserer westlichen Perspektive betrachtet, erscheinen die lauten Ansagen und das fast übertriebene Zeigen durchaus etwas “komisch”. Nachdem ich nachgelesen hatte, kam mir das gar nicht mehr “komisch” vor, denn es wurde nachgewiesen, dass Shisa kanko bei einfachen Aufgabenstellungen die “Fehlerquote um bis zu 85 % reduzieren konnte” (Quelle: Wikipedia).
Die Antwort auf die in der Überschrift des Beitrags gestellten Frage lautet also: Ja, Shisakanko wird in Japan praktiziert. Möglicherweise hauptsächlich im Eisenbahnsektor, der für seine Sicherheit und Pünktlichkeit weltbekannt ist. Außerhalb von Japan findet man Shisa kanko selten. Warum eigentlich?
Durch das veränderte Umfeld von Organisationen (Stichwort: VUCA oder BANI) wird es in Zukunft immer mehr Projekte geben, denn Projekte sind Träger des Wandels. Es ist allerdings nicht immer leicht zu bestimmen, ob das Projekt so läuft, wie es geplant war.
Da das oft nicht der Fall ist, sollte man immer wieder prüfen, welche Abweichungen es bei den drei Dimensionen Leistung/Qualität, Zeit und Kosten gibt. Alle drei Parameter sollten zu einem Stichtag vorliegen, da es ansonsten zu einer falschen Bewertung des Projekts kommen kann.
Zunächst bietet sich die Projektstatus-Analyse (Wassermelonen-Effekt) an, die schon einen guten Eindruck von dem Projektverlauf gibt. Etwas besser ist es, die Earned Value Analyse (Fertigstellungswert) zusammen mit einer Earned Value Prognose (Entwicklungsindex) zu verwenden. Anhand eines Rechenbeispiels soll das an dieser Stelle kurz erläutert werden. Die verwendeten Abkürzungen sind englischsprachig und können in der Norm oder an anderen Stellen nachgelesen werden.
“Der Fertigstellungswert eines Projekts am Berichtsstichtag beträgt EV = 100.000 €. Der Projektcontroller berichtet über tatsächlich angefallene Kosten von AC = 90.000 €. Der Kostenplan weist am Berichtsstichtag einen Wert von PV = 120.000 € aus. Auf Basis dieser Daten ergibt die Earned-Value-Analyse folgende Aussagen: Der Kostenentwicklungsindex CPI = EV / AC = 100.000 € / 90.000 € = 1,11 weist aus, dass das Projekt um 11 Prozent günstiger verläuft als geplant. Um einen Fertigstellungswert von 100.000 € zu erlangen, wurden nur 90.000 € ausgegeben. Der Terminentwicklungsindex berechnet sich zu SPI = EV / PV = 100.000 € / 120.000 € = 0,83. Damit ist das Projekt ca. 17 Prozent langsamer als geplant. Zum Stichtag wurde weniger Wert geschaffen als geplant” (Timinger 2021:33).
Über die Earned Value Analyse habe ich in unserem Blog schon öfters geschrieben. Interessant dabei ist, dass in der Literatur vorgeschlagen wird, die Earned Value Analyse auch für Scrum (Agiles Projektmanagement) zu nutzen. Siehe dazu auch: