Von Mass Personalization zu Open User Innovation

Image by Denise Husted from Pixabay

Auf den verschiedenen Konferenzen, an denen ich teilgenommen habe, ging es über viele Jahre um Mass Customization and Personalization. Auslöser der Entwicklung war die Veröffentlichung B. Joseph Pine II (1992): Mass Customization. The New Frontier in Business Competition, in der die damals neue hybride Wettbewerbsstrategie vorgestellt wurde.

In der Zwischenzeit gibt es beim Fraunhofer Institut in Stuttgart das Leistungszentrum Mass Personalization. Dort ist man der Auffassung, dass es sich bei Mass Personalization um einen Megatrend handelt

„Mass Personalization ist ein eigenständiges radikal nutzerzentriertes und dennoch nachhaltiges und ressourceneffizientes Konzept, das als Toolbox oder plattformtechnologische Anwendung in der Produktion von morgen fungieren kann“ (Krieg/Groß/Bauernhansl (2024) (Hrsg.): Einstieg in die Mass Personalization. Perspektiven für Entscheider).

Mass Customization ist hier zeitpunktbezogen, und Mass Personalization eher Zeitdauer bezogen zu interpretieren. Beides, Mass Customization und Mass Personalization, sind allerdings immer noch aus der Perspektive des Unternehmens gedacht.

Wenn sich ein Unternehmen auf jeden einzelnen Nutzer so intensiv einstellen will, benötigt es viele Problem- und möglicherweise auch erste Lösungsinformationen vom Nutzer. Bei komplexen Problemen sind diese Informationen nur sehr schwer zu beschreiben (Kontext, Implizites Wissen, Expertise), und schwer vom Nutzer zum Unternehmen übertragbar (Sticky Information, Träges Wissen).

Der Nutzer weiß oft am besten, was er für sein Problem benötigt. Es fehlt oft noch der Schritt zur ersten Umsetzung von eigenen Lösungen. Dieser war in der Vergangenheit sehr aufwendig (Zeit, Geld), sodass die Umsetzung oft von Unternehmen übernommen wurde.

In der Zwischenzeit gibt es durch die Möglichkeiten der Künstlichen Intelligenz, des 3D-Drucks (Additive Manufacturing), oder auch der Robotik und der Open Source Community viele Möglichkeiten, das Produkt selbst zu entwickeln und im Idealfall selbst oder in einer Community herzustellen. Siehe Eric von Hippel (2016): Free Innovation (Open Access).

Titel (Ausschnitt) https://direct.mit.edu/books/book/5344/Free-Innovation

Eric von Hippel hat dazu schon sehr viele Studien veröffentlich, aus denen hervorgeht, dass der Anteil dieser Open User Innovation in den letzten Jahrzehnten stark angewachsen ist. Diese Innovationen findet man nicht in den offiziellen Statistiken zu Innovationen, denn Innovationen werden dort von Unternehmen entwickelt und auf den Markt gebracht. Was versteht nun von Hippel unter Open User Innovation?

„An innovation is ´open´ in our terminology when all information related to the innovation is a public good—nonrivalrous and nonexcludable”(Baldwin and von Hippel 2011:1400).

”… involves contributors who share the work of generating a design and also reveal the outputs from their individual and collective design efforts openly for anyone to use“ (Baldwin and von Hippel 2011:1403).

Wir wissen alle, dass die Unternehmen nur die Innovationen auf den Markt bringen, die eine entsprechende Rendite versprechen – alles andere bleibt liegen… Doch genau darin liegt die Chance von Open User Innovation: Jeder einzelne kann nicht nur kreativ, sondern auch innovativ sein (Ideen umsetzen) und seine Innovationen anderen (auch kostenlos) zur Verfügung stellen.

Sie meinen das gibt es nicht? Dann schauen Sie sich einmal die vielen Plattformen zu Open Source Software, oder die Plattform Patient Innovation an – Sie werden staunen.

Wenn Sie sich zu diesen Themen informieren wollen: Die MCP Community of Europe trifft sich auf der Konferenz zu Mass Customization and Personalization – MCP 2026 – vom 16.-19.09.2026 in Balatonfüred, Ungarn. Wir sind dabei.

Google Maps schränkt Funktionsumfang ein – Wechsel zu OpenStreetMap?

Screenshot: OpenStreetMap – Route: Frankfurt-München

Wir haben uns alle mehr oder weniger daran gewöhnt, die verschiedenen Apps von Google zu nutzen. Ob es der Browser Chrome ist, Google Drive, etc. oder auch Google Maps . Wie ich schon in mehreren Beiträgen geschrieben habe, kommt es bei den scheinbar kostenlosen Apps (wir zahlen mit unseren Daten) von Google, Microsoft und Co. nach einer Phase der Gewöhnung zu einem Lock-in. Diese Pfadabhängigkeit wird dann genutzt, um die bisherigen Gewohnheiten einzuschränken oder kostenpflichtig zu stellen.

Google Maps sieht die Zeit gekommen, bisher verfügbare Informationen auf den gewohnten Karten zu reduzieren, wenn man sich nicht mit dem Google Konto angemeldet hat. Der Hintergrund wird in dem Artikel Google Maps ohne Anmeldung nur noch eingeschränkt nutzbar (Pakolski 2026, auf Golem.de) ausführlicher dargestellt.

„Google schränkt den vollen Funktionsumfang von Google Maps weiter ein, wenn Anwender sich nicht mit einem Google-Konto anmelden. Wird Google Maps etwa im Browser ohne Anmeldung genutzt, fehlen alle Rezensionen und Bilder zu Restaurants, Geschäften oder Touristenattraktionen“ (ebd.).

Was kann man machen? Sich ärgern, und sich in Zukunft immer mit dem Google Konto anmelden? Das ist der bequeme Weg, den man mit seinen Daten „bezahlt“. Alles andere bedeutet einen Aufwand (Switching Costs), ja. Genau das ist das Kalkül von Google (und anderen).

Es gibt allerdings auch die Möglichkeit, sich von solchen Anwendungen nach und nach zu emanzipieren, und digital souveräner zu werden. Bei dem Beispiel Google Maps gibt es die Open Source Alternative OpenStreetMap (OSM). Folgende Informationen sind bei OSM-About zu finden:

OpenStreetMap stellt Kartendaten für tausende von Webseiten, Apps und andere Geräte zur Verfügung.

OpenStreetMap legt Wert auf lokales Wissen. Autoren benutzen Luftbilder, GPS-Geräte und Feldkarten zur Verifizierung, sodass OSM korrekt und aktuell ist.

Ja, OpenStreetMap ist gewöhnungsbedürftig, doch sollte jeder abwägen, ob er aus Bequemlichkeit kurzfristig eine digitale Abhängigkeit, oder eher mittelfristig eine Digitale Souveränität möchte.

Siehe dazu auch Digitale Souveränität: Welche Open Source Alternativen gibt es?

Lernen des Entscheidens statt Lernen von Wissen?

Über Wissen, und den Umgang mit Wissen, habe ich schon sehr viele Beiträge geschrieben (Kategorie: Wissensmanagement). In diesem Beitrag soll es noch einmal um den Bezug zwischen Wissen und Handeln gehen.

Dabei kann Wissen nach Nico Stehr (2000:81) als Handlungsvermögen, als„ Fähigkeit zum sozialen Handeln“ definiert werden (Stehr 2000).

Andererseits entsteht durch Handeln auch Wissen. Siehe dazu auch Wissen und Handeln: Zur Problematik des trägen Wissens.

Durch neue Technologien, wie z.B., der Künstlichen Intelligenz, und die vielfältigen Vernetzungsmöglichkeiten in der heutigen Welt, entsteht eine große Fülle an Wissen und Nicht-Wissen, das wiederum zu sehr vielen Handlungsoptionen unter Unsicherheit führt.

Es wundert daher nicht, dass heute eine Kompetenz erforderlich ist, die hilft, unter Unsicherheit zu entscheiden. Es geht also nicht „nur“ um das Wissen, sondern auch um die richtige Entscheidung. Es deutet sich hier schon an,

„(…) dass das Lernen von Wissen weitgehend ersetzt werden müsste durch das Lernen des Entscheidens, das heißt: des Ausnutzens von Nichtwissen“ (Luhmann 2002: 198, zitiert in Kurtz, T. 2010).

Siehe dazu auch

Entscheidungen unter Unsicherheit: Schnelles Denken und Langsames Denken

Wie ist es möglich, in kritischen Situationen unter Zeitdruck Entscheidungen zu treffen?

Umgang mit Unschärfe und Unsicherheit

Wissen – wertfrei und wertbeladen

Diesmal möchte ich mich mit dem Verhältnis zwischen „Wissen„, „Werten“ und „Organisationsebenen“ befassen. In der Abbildung ist zunächst zu erkennen, dass Wissen implizit oder auch explizit vorliegen kann .

Das explizierbare Wissen ist häufig „wertfrei“, wodurch es gut formuliert und digitalisiert usw. werden kann. Je „wertbeladener“ Wissen wird, umso eher handelt es sich um implizites Wissen – beispielsweise einer Person (Individuum).

Natürlich können diese Überlegungen auch auf der Teamebene, der Unternehmensebene oder organisationalen (auch Netzwerk-) Ebene angestellt werden. Wie die Abbildung qualitativ auch aufzeigt. ist der Anteil des expliziten, wertfreien Wissens im Vergleich zum impliziten Wissen relativ gering.

„Besonders bemerkenswert ist die Asymmetrie der Quadranten (…). Ca. 72% unserer Entscheidungen basieren nach KARNER auf impliziten Wissen (tacit knowledge) in Form von Werten, Symbolen, Metaphern, Macht, Prestige, usw. Nach einer Studie der Fraunhofer Gesellschaft liegen sogar 85% des Unternehmenswissens in impliziter Form vor“ (Erpenbeck 2008).

Aus diesen Überlegungen leitet sich auch ab, wie gerade mit impliziten, wertbeladenen Wissen umgegangen werden sollte:

„Je mehr Wissen wertbeladen und implizit ist, desto eher muss es mit Hilfe psychologischer bzw. sozialwissenschaftlicher Methoden gewonnen und, was die Wertanteile angeht, psychisch interiorisiert bzw. in Sozialisationsprozessen internalisiert werden“ (Erpenbeck 2008).

Der Wertebezug von Wissen ist gerade in Zeiten von Künstlicher Intelligenz wichtig, da Werte Ordner sozialer Komplexität sind. Wenn sich also die Werte in der Europäischen Union und die Werte der oft genutzten KI-Modelle stark unterscheiden, hat das Auswirkungen auf alle Ebenen des Wissenssystems.

Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich.

Innovationen machen sich Veränderungen zunutze, die schon stattgefunden haben. Was haben Konferenzen damit zu tun?

In den letzten Jahrzehnten habe ich weltweit an vielen Konferenzen teilgenommen. Beispielhaft möchte ich hier nur die erste Weltkonferenz zu Mass Customization and Personalization MCPC 2001 an der Hong Kong University of Science and Technology (HKUST), die MCPC 2003 in München, die MCPC 2007 am MIT in Boston, die MCPC 2015 in Montreal usw. nennen..

Überall konnte ich sehen, welche Themen die Forscher in ihren Veröffentlichungen vorstellten. Konferenzen sind daher ein vorlaufender Indikator für aktuelle und zukünftige Entwicklungen, auch für Innovationen. Solche Zusammenhänge hat Peter Drucker schon vor vielen Jahren aufgezeigt:

„Es wird allgemein angenommen, dass Innovationen grundsätzlich Veränderungen herbeiführen – doch nur die wenigsten leisten das. Erfolgreiche Innovationen machen sich Veränderungen zunutze, die schon stattgefunden haben. Sie nutzen beispielsweise den Time-lag – in der Wissenschaft macht dieser oft zwanzig bis dreißig Jahre aus – zwischen der Veränderung an sich und deren Auf- und Annahme. Während dieses Zeitraums muss der Nutznießer dieses Wandels kaum, wenn überhaupt, Konkurrenz befürchten“ (Drucker 1996).

Manche Themen wie die Entwicklung und Nutzung von Konfiguratoren im Rahmen der Hybriden Wettbewerbsstrategie Mass Customization, Problemlösungen zur Verschwendung in der Massenproduktion durch Personalisierung, oder die Nutzung von Additive Manufacturing (3D-Druck), usw. wurden in den letzten Jahrzehnten schon auf Konferenzen vorgestellt. Es dauerte dann doch noch viele Jahre, bis die Entwicklungen im Mainstream der Unternehmen ankamen.

Es ist eine Kunst, die auf Konferenzen aufgezeigten Themen und Problemlösungen für die eigene Organisation zum richtigen Zeitpunkt nutzbar zu machen, also als Innovationen anzubieten. Die von Drucker angesprochene Zeitspanne von 20-30 Jahren bietet hier die Möglichkeit, das richtige Timing zu finden. Zu früh mit Innovationen auf den Markt zu gehen, kann genau so negativ sein, wie Innovationen zu spät anzubieten.

Auf der Konferenz MCP 2026 haben Sie im September wieder die Möglichkeit, sich über die Themen (Mass) Customization und Personalization, sowie Open Innovation aus erster Hand zu informieren. Die von mir initiierte Konferenzreihe findet in diesem Jahr das 12. Mal statt, und zwar in Balatonfüred (Ungarn). Wir werden auch dabei sein.

Warum ist es so schwierig, Experten-Wissen zu teilen?

In dem Beitrag If HP knew what HP knows, we would be three times as profitable hatte ich schon einmal darauf hingewiesen, dass der Umgang mit Wissen im Allgemeinen in Unternehmen nicht so einfach ist. Betrachten wir speziell noch das Wissen von Experten, also deren Expertise, so wird deutlich, dass es sehr schwierig ist, dieses Experten-Wissen zu teilen, oder sogar zu übertragen. Dazu habe ich folgende Begründung gefunden:

„One set of limitations on sharing expertise is cognitive, that is, the way experts store and process information may make it difficult for them to share that expertise with others regardless of whether or not they are motivated to do so.

Another cognitive problem in transferring knowledge is the challenge of articulating knowledge that is tacit rather than explicit.

Another problem in asking experts to articulate knowledge is that knowledge is embedded and difficult to extract from the particular situation or environment (Brown and Dunguid 1998; Hansen 1999; Lave and Wenger 1991.“

Quelle: Hinds, P. J.; Pfeffer, J. (2003), in: Ackerman, M. S.; Pipek, V.; Wulf, V. (2003) (Eds.).

Auch in Zeiten von Künstlicher Intelligenz sollten wir uns die Frage stellen, welches Experten-Niveau hier erreicht werden kann. Siehe dazu auch

KI und Arbeitsmarkt: Interessante Erkenntnisse aus einer aktuellen, belastbaren wissenschaftlichen Studie

Wissensmanagement und Expertise (Expertenwissen teilen)

Das Netzwerk vom Lernen

Eigene Darstellung nach Vester, F. (2001)

Wenn wir von Lernen sprechen, weiß scheinbar jeder, was gemeint ist. Alle reden mit, wenn es ums Lernen geht, doch kaum jemand weiß, was man unter Lernen versteht und was Lernen ausmacht. Lernen wird in der Schule, an Universität oder möglicherweise noch ein wenig im Beruf verortet.

Dass Lernen aufgrund der Informationen aus der Umwelt permanent stattfindet, und dass Lernen ein sehr komplexes Netzwerk darstellt, ist für viele möglicherweise eine kleine Überraschung.

Frederic Vester, der das vernetzte Denken in komplexen Systemen immer wieder propagiert hat, hat versucht, Lernen in seinen Grundzügen zu visualisieren. In der Abbildung wird deutlich, dass es sich hier um eine grobe und vereinfachende Darstellung des sehr vielfältigen und vernetzten Prozess des Lernens handelt.

Dennoch wird deutlich, dass Lernen nicht so einfach gesteuert werden kann, wie eine triviale Maschine, denn der Mensch ist eher ein nicht-triviales System. Die Erwachsenenbildung hat – Dank Arnold, R. – schon früh erkannt, dass man den Lernprozess nur ermöglichen kann, und schlägt folgerichtig dazu eine Ermöglichungsdidaktik vor.

Diese Erkenntnis sollten sich auch Unternehmen zu Nutze machen, die sich als Lernende Organisation verstehen und Lernen auf der individuellen Ebene, der Teamebene, der Organisationalen Ebene und der Netzwerkebene betrachten müssen. Doch: Welche Führungskraft versteht schon etwas von Lernprozessen? Siehe dazu auch

Agiles Lernen und selbstorganisierte Kompetenzentwicklung.

Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht.

Organisation und Lernen – ein immer noch schwieriges Thema. Warum eigentlich?

Lernende Organisation oder Organisationales Lernen?

Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Künstliche Intelligenz macht Lebenslanges Lernen zur Pflicht

In den letzten Jahrhunderten hat sich angedeutet, dass einmal Erlerntes immer wieder aktualisiert werden musste (Abbildung). In manchen Bereichen kommt es auch vor, dass das Erlernte gar nicht mehr benötigt wurde, und Mitarbeiter von Unternehmen ganz neue Themen lernen mussten.

Diese Entwicklung nimmt nun mit den Möglichkeiten der Künstlichen Intelligenz noch einmal Fahrt auf. Klassische Abschlüssen und Zertifikate können durchaus schnell an Wert verlieren. Die Beratungsgesellschaft McKinsey verkündet sogar das Ende der klassischen Ausbildung – ganz im Sinne des Lebenslangen Lernens. In einem Artikel dazu findet man folgenden Kommentar:

Für Arbeitnehmer bedeutet dies, dass die eigene Lernfähigkeit zum wichtigsten Kapital wird, während Unternehmen ihre Personalstrategien grundlegend neu ausrichten müssen, um in einer KI-getriebenen Umgebung wettbewerbsfähig zu bleiben“ (Niels Matthiesen, Golem vom 07.01.2025).

Organisationen müssen verstehen, wie ihre Mitarbeiter, wie Teams (Projektteams), die gesamte Organisation und ihr Netzwerk lernen – ganz im Sinne einer Lernenden Organisation.

Dabei stellt sich natürlich gleich die Frage, ob Organisationen überhaupt etwas über Lernen wissen. Wie in der Abbildung zu erkennen ist, geht es in Zukunft nicht mehr um Sicherheitslernen, sondern um Unsicherheitslernen, was eine Kompetenzstärkung bedeutet.

Führungskräfte ermöglichen dabei Lernprozesse. Genau das ist die Aufgabe der Erwachsenenbildung. Führungskräfte sollten daher wissen, was unter moderner Erwachsenenbildung zu verstehen ist.

Siehe dazu auch Agiles Lernen und selbstorganisierte Kompetenzentwicklung.

Künstliche Intelligenz und Lernzieltaxonomie

Die Lernzieltaxonomie von Bloom et al. aus dem Jahr 1956 wird heute noch in ihrer ursprünglichen Fassung benutzt, obwohl es schon zeitgemäßere Weiterentwicklungen gibt.

Zunächst einmal ist der Vorschlag von Anderson und Krathwohl aus dem Jahr 2001 zu nennen, bei dem die oberste Ebene in Evaluieren umbenannt wurde, und eine weitere Ebene „Erschaffen“ hinzugekommen ist.

Auf Basis dieser Weiterentwicklung hat die Oregon State University 2024 eine englischsprachige Darstellung unter der Lizenz CC BY-NC 4.0 veröffentlicht, die die jeweiligen Ebenen mit den Möglichkeiten der Künstlicher Intelligenz ergänzt.

Das Trendscouting-Team der PHBern hat die gesamte Übersicht ins Deutsche übersetzt (Abbildung).

Generative Künstliche Intelligenz und generative Kompetenzentwicklung

Klassische Kompetenzentwicklung versteht Kompetenz nach Erpenbeck und Heyse als Selbstorganisationsdisposition, die entwickelt werden kann und sollte. Mit dem Aufkommen von Künstlicher Intelligenz kommt auch immer stärker der Ruf nach einer entsprechenden Kompetenz auf – einer Digitalen Kompetenz oder auch KI-Kompetenz. Dabei sollte unter Künstlicher Intelligenz und Generativer Künstlicher Intelligenz unterschieden werden.

„Der Begriff generativ bedeutet bei künstlicher Intelligenz (KI), dass KI-Systeme aus Eingaben mittels generativer Modelle und gespeicherter Lerndaten neue Ergebnisse/Ausgaben wie Texte, Sprachaussagen, Vertonungen, Bilder oder Videos erzeugen“ (Quelle: Wikipedia).

Es handelt sich bei Generativer Intelligenz (GenAI) also auch um eine Art von Kreativität, die entsteht und die beispielsweise von Menschen bewertet werden kann, bzw. sollte. Es wundert daher nicht, dass vorgeschlagen wird, so eine „evaluative Kreativität“ – und in dem Zusammenhang auch generative Kompetenzen – zu entwickeln:

„Entwickle Deine evaluative Kreativität, entwickle Deine generativen Kompetenzen. (…) Generative Kompetenzen: die Fähigkeit, sich in neuen Technologien kreativ und selbstorganisiert mit einer klaren Wertorientierung zu bewegen“ (Erpenbeck und Sauter 2025).

Bemerkenswert ist hier, dass es nicht nur darum geht, mit KI-Modellen sebstorganisiert umgehen zu können, sondern auch wichtig ist, dass das mit einer klaren Wertorientierung erfolgen soll.

Dabei stellt sich gleich die Frage: Welche Werte kaufe ich mir denn ein, wenn ich ein KI-Modell der US-amerikanischen Tech-Konzerne oder KI-Modelle chinesischer Anbieter nutze? Siehe dazu auch Mit proprietärer Künstlicher Intelligenz (KI) kauft man sich auch die Denkwelt der Eigentümer ein.