Digitalisierung in der Arbeitswelt: Das Substituierbarkeitspotenzial

iab Die fortschreitende Digitalisierung in der Arbeitswelt ruft schon wieder die Katastrophen-Journalisten und -Forscher auf den Plan. An vielen Stellen kann man lesen, dass 30-70% der Arbeitsplätze durch die Digitalisierung wegfallen werden. Es ist en vogue, solche platten Äußerungen eindimensional mit den gewünschten “Forschungsberichten” zu hinterlegen und andere auszublenden. Beispielsweise wird immer wieder die Studie von Frey/Osborne (2013) herangezogen, nach der in den USA in den nächsten 10-20 Jahren ca. 50% der Beschäftigten von Computer bzw. computergesteuerten Maschinen ersetzt werden können. Diese Ergebnisse sind nicht so einfach auf Europa – und schon gar nicht auf Deutschland – übertragbar, da wir hier eine etwas andere Struktur in der Arbeitswelt haben.  Dennoch ist es sehr gut, dass sich das Institut für Arbeitsmarkt und Bildungsforschung (IAB) mit der Frage nach dem Substituierbarkeitspotenzial verschiedener Bereiche befasst hat. In dem IAB-Kurzbericht (2015): In kaum einem Beruf ist der Mensch vollständig ersetzbar (PDF) wird das Substituierbarkeitspotenzial u.a. nach dem Anforderungsniveau der Berufe dargestellt (S. 4). Es zeigt sich deutlich, dass Expertenniveau nicht so leicht substituierbar ist. Das ist auch verständlich, da Expertise in einer speziellen Domäne ein Kompetenzniveau erreicht, das mit heutigen Computersystemen – inkl. Cognitive Computing – nicht erreicht wird. Eine weitere Erkenntnis des IAB ist es, dass nicht Berufe auf dem Prüfstand stehen, sondern einzelne Tätigkeiten. In jedem Beruf werden somit mehr oder weniger viele Tätigkeiten durch neue Technologien substituiert. Last but not least lässt sich daraus auch folgern, dass dem Lebenslangen Lernen, im Sinne einer Kompetenzentwicklung, in Zukunft große Bedeutung zukommen wird. Solche Zusammenhänge besprechen wir auch in den von uns entwickelten Blended Learning Lehrgängen Innovationsmanager (IHK) und Wissensmanager (IHK), die beide ab April bei der IHK Köln angeboten werden. Hinweise dazu finden Sie auch auf unserer Lernplattform.

Mein Paper zur Weltkonferenz MCPC 2015 wurde nun in den Proceedings veröffentlicht

mcpc-drrobertfreundDie Weltkonferenz MCPC 2015 fand vom 20. bis 22.10.2015 in Montréal/Kanada statt. Mein Paper wurde nicht nur angenommen, sondern ich hatte auch die Gelegenheit meine Gedanken in einer Special Keynote vorzutragen. In der Zwischenzeit wurden die verschiedenen Beiträge in den Proceedings zur Konferenz beim Spinger-Verlag veröffentlicht. Vorwort:

Twenty years ago Mass Customization was acknowledged as the ”New Frontier
in Business Competition”. The first MCPC conference was hosted by
Hong Kong University of Science and Technology in 2001. Since then the
MCPC conference has grown to become the primary conference for presenting
and discussing current issues and recent developments within the fields
of Mass Customization, Personalization, and Customer Co-Creation. The
2015 MCPC conference, the eighth in the series, for which the contributions
are presented in this book, was hosted by the School of Management at the
University du Québec in Montréal, Canada. For this edition, the emphasis
was placed on “managing complexity”.

Meinen Artikel finden Sie hier (Siehe dazu auch Veröffentlichungen):

Freund, R. (2016): Cognitive Computing and Managing Complexity in Open Innovation Model, in Bellemare, J., Carrier, S., Piller, F. T. (Eds.): Managing Complexity. Proceedings of the 8th World Conference on Mass Customization, Personalization, and Co-Creation (MCPC 2015), Montreal, Canada, October 20th-22th, 2015, pp. 88-102 | Springer

Drei Probleme, die ein Computersystem nicht lösen kann

In meinem Paper zu Weltkonferenz MCPC 2015 in Montréal habe ich in meiner Special Keynote aufgezeigt, dass Cognitive Computing bei komplexen Problemen an seine Grenzen stößt und der Mensch in so einem Kontext Vorteile hat. Darüber hinaus gibt es auch aus der Sicht der Forschung zu Algorithmen Grenzen für Computersysteme. Das Video vom 19.01.2016 zeigt auf, bei welchen Problemen das der Fall ist: The Halting Problem (Das Halteproblem), Kolmogorov Complexity (Kolmogorov-Komplexität), Wang Tiles (Wang Parkettierung).Solche Zusammenhänge zeige ich auch in dem von uns entwickelten Blended Learning Lehrgang Innovationsmanager (IHK) auf. Informationen dazu finden Sie auf unserer Lernplattform.

Ist Daten sammeln der Heilsbringer für Organisationen?

cloudDaten sammeln und zu strukturieren ist der aktuelle Trend: Data, Big Data, Cloud, Cognitive Computing etc. Es ist bestimmt gut, wenn Daten dazu führen, komplexe Probleme für Unternehmen oder für die Gesellschaft zu lösen. Andererseits wird suggeriert: Je mehr Daten umso besser. Das ist natürlich Unsinn, denn es kommt darauf an, die richtigen Daten und dann wiederum die entsprechenden Informationen – das entsprechende Wissen usw. – zu generieren. In dem Beitrag Big Data, Big Confusion, Big Distance (Capital vom 08.01.2015) wird bezweifelt, dass mehr Daten auch eine bessere Kundennähe ergeben. Nicht zwangsläufig, dennoch können bessere Daten durchaus für bestimmte Problemkategorien nützlich sein. In meinem Vortrag auf der MCPC 2015 in Montréal habe ich aufgezeigt, an welchen Stellen letztendlich Cognitive Computing an seine Grenzen stößt. Es geht in der heutigen Zeit also nicht um ein entweder-oder, sondern um das sowohl-als-auch. Solche Themen besprechen wir in dem von uns entwickelten Blended Learning Lehrgang Innovationsmanager (IHK). Informationen dazu finden Sie auf unserer Lernplattform.

Warum ist das Teilen von Wissen so schwierig?

wissenDas Zurückhalten von Wissen wird in arbeitsteiligen Industriegesellschaft als arbeitsplatzsichernd angesehen (Womack/Jones/Roos 1990). Solange das Wissen in einer Organisation relativ langsam “unbrauchbar” wird, funktionierte das auch ganz gut. In der heutigen Arbeitswelt ist Wissen allerdings einer permanenten Veränderung unterlegen, sodass das Zurückhalten von Wissen eher schädlich ist. Wissen muss permanent upgedated und weiterentwickelt werden. Das geschieht durch formale und informelle Lernprozesse. Das Teilen von Wissen zwischen Personen, in Gruppen, auf der organisationalen Ebene und in Netzwerken kann heute durch Technologien unterstützt und gefördert werden. Das nicht so leicht – oder gar nicht – explizierbare Wissen (Erfahrungswissen, Expertise, Könnerschaft) wird heute häufig durch persönlichen Kontakt (Meister – Lehrling – Situation) weitergegeben. Es ist also ein Trugschluss, wenn behauptet wird, dass alle Wissensdimensionen mit Hilfe von Technologie erfasst und weiterentwickelt werden können. Dennoch ist auch erkennbar, dass gerade Systeme wie Cognitive Computing neue Möglichkeiten in Wissenssystemen bieten (Deep Learning). Siehe dazu auch meinen Vortrag, den ich im Oktober 2015 auf der Weltkonferenz MCPC 2015 in Montréal/Kanada gehalten habe: Freund, R. (2015): Cognitive Computing and Managing Complexity in Open Innovation Model. Solche Zusammenhänge besprechen wir auch in den von uns entwickelten Blended Learning Lehrgängen Innovationsmanager (IHK) und Wissensmanager (IHK). Informationen dazu finden Sie auf unserer Lernplattform.

Wie kann die “kognitive Ära” für Innovationen genutzt werden?

mcpc-drrobertfreundSeit mehr als zwei Jahren befasse ich mich intensiver mit Cognitive Computing. Daraus ist ein Paper für die Weltkonferenz MCPC 2015 entstanden, das sehr interessiert aufgenommen wurde: “Cognitive Computing and Managing Complexity in Open Innovation Model“. In meiner Special Keynote habe ich aufzeigen können, dass die Möglichkeiten von Cognitive Computing viele Bereiche des Innovationssystems positiv beeinflussen können. Neben einzelnen Aspekten wie Design Thinking, Trendreport usw. ist für Unternehmen auch interessant, dass mit Hilfe von Cognitive Computing auch neue, innovative Geschäftsmodelle entwickelt werden können. Ein praktisches Beispiel ist Watson – Die Plattform für kognitive Unternehmen (IBM).

“Hinter Watson stehen 28 Cloud-basierte APIs, und bis 2016 sollen es noch einmal 50 % mehr werden. Mit diesen APIs kann man kognitive Technologie in neue Applikationen, Produkte und Prozesse integrieren – und so die Basis für ein digitales, kognitives Unternehmen schaffen”.

Es zeigt sich schon jetzt, wie vielfältig die Anwendungen sein werden. Solche Themen besprechen wir auch in dem von uns entwickelten Blended Learning Lehrgang Innovationsmanager (IHK). Informationen dazu finden Sie auf unserer Lernplattform.

Mark Zuckerberg Explains Facebook’s Advances In AI (Artificial Intelligence)

In dem Video (01.11.2015) erläutert Mark Zuckerberg die Fortschritte bei der Nutzung von Künstlicher Intelligenz (AI) bei Facebook. Gerade wenn sehr viele Daten anfallen, ist Künstliche Intelligenz von Vorteil. Diese unterscheidet sich allerdings qualitativ von dem traditionellen Datenmanagement. Die Fortschritte bei Deep Learning und Cognitive Computing in verschiedenen Branchen sind beispielsweise  bei IBM Watson gut zu erkennen.

Siehe dazu auch meinen Vortrag auf der Weltkonferenz MCPC 2015 in Montreal/Kanada: Cognitive Computing and Managing Complexity in Open Innovation Model (Special Keynote).

MCPC 2015: Meine Eindrücke von der Weltkonferenz in Montréal

mcpc-drrobertfreund

Die diesjährige Weltkonferenz MCPC 2015 (Mass Customization, Personalization and Co-creation) fand als Teil der internationalen Konferenzreihe MCPC vom 20.-23.10. in Montréal/Kanada statt. An dieser Konferenzreihe nehme ich seit 2001 teil (Siehe dazu Konferenzen und Veröffentlichungen):

More than 200 academics/researchers, entrepreneurs and experts will meet in Montreal and report on their latest results on Mass Customization and co-creation.

Wir (Jutta und ich) sind von Brüssel aus direkt nach Montréal geflogen. Dabei konnten wir uns vor der Konferenz noch ausführlich in Montréal umsehen. Am 20.10. startete die Konferenz mit einem Empfang an der Universität, bei dem auf die nächsten Tage eingestimmt wurde. Ich konnte hier mit einigen Kollegen sprechen, die ich auch schon auf den vorherigen Konferenzen getroffen hatte, und neue Kontakte knüpfen. Jutta war mit dabei – auch an den Konferenztagen. Am 21.10. ging es um 09.15 Uhr zunächst mit Begrüßungen des Gastgebers (ESG UQAM) los, gefolgt von der Keynote von Prof. Frank Piller, der – wie immer – einen tollen Einblick in die aktuellen Entwicklungen gab. Dabei leitete er geschickt auf das Schwerpunktthema der Konferenz Managing Complexity über. In den anschließenden Sessions habe ich mir dann verschiedene Vorträge angehört. Da die Zeitfenster eingehalten wurden, konnte ich aus den verschiedenen Angeboten gut auswählen. Es ist doch immer wieder spannend, welche interessanten Ideen/Gedanken man von den unterschiedlichen Beiträgen mitnimmt. Am Abend trafen sich alle Teilnehmer in einem tollen Restaurant in der Innenstadt von Montréal. Jutta und ich hatten an unserem Tisch lebhafte und interessante Gespräche mit Teilnehmern aus den unterschiedlichsten Ländern. Solche Abende sind sehr intensiv und hinterlassen einen bleibenden positiven Eindruck. Dabei enstehen natürlich auch neue Verbindungen.

dr-robert-freund-mcpc-special-keynote

Am 23.10. startete die Konferenz um 08.30 Uhr mit der Keynote von Bombardier (Hersteller von Flugzeugen und Technik für Schienenverkehr). Direkt im Anschluss hatte ich dann eine Special Keynote mit dem Titel Cognitive Computing and Managing Complexity in Open Innovation Model. Es hat mich sehr gefreut, dass mein Paper eine so große Aufmerksamkeit erhalten hat! Es war für mich etwas ungewohnt auf einer so großen Bühne zu stehen, und meine Gedanken zu dem Thema vorzustellen. Am Ende war ich doch sehr über die vielen positiven Reaktionen überrascht. Insgesamt eine tolle Erfahrung, die ich her machen konnte. Am Nachmittag haben wir uns noch die eine oder andere Präsentation aus dem Konsumgütersektor angesehen. Obwohl ich seit nunmehr 14 Jahren an der Konferenzreihe teilnehme und schon viele Beispiele und Beiträge gesehen habe, kommen doch auch immer wieder Überraschungen vor. Am späten Nachmittag gab es dann noch eine farbenprächtige Präsentation vom Cirque Du Soleil, die Ihre Sicht auf das Thema vorstellten. In der abschließenden Goodbye Session wurden die verschiedenen Erkenntnisse zusammengefasst. Am späten Abend ging es dann für Jutta und für mich zurück nach Brüssel. Die Tage in Montréal werden uns noch lange in positiver Erinnerung bleiben…

Wissensmanagement 2.0. Handbuch für Unternehmen

wm-20Das Handbuch Wissensmanagement 2.0 (PDF) wurde 2014 veröffentlicht und “im Rahmen des Projekts  ´Knowledge Management 2.0 for SMEs´ (´Wissensmanagement 2.0 für KMU´) entwickelt und vom Leonardo da Vinci-Programm für lebenslanges Lernen (PLL) kofinanziert”.  Das ist deshalb interessant, da deutlich wird, wie eng Lernen und Wissen zusammenhängen. Die Veröffentlichung enthält eine gute Übersicht für Kleine und mittelständische Unternehmen (KMU), die in ihrem Unternehmen Wissen besser managen, und dazu die Vorteile des Web 2.0 nutzen wollen. Es zeigt sich immer mehr, dass gerade die neuen Möglichkeiten Interaktionen unterstützen, und den damit verbundenen Wissensaustausch fördern können. Dennoch sollte man sich klar machen, dass Wissensmanagement 2.0 nur ein Baustein in dem gesamten Wissenssystem darstellt. Hinzu kommen auch noch herkömmliche Face-to-Face-Interaktionen (Meister-Lehrling), und auch Cognitive Computing, das die Wissensarbeit weitaus stärker verändern wird. 

Diese Zusammenhänge erläutern wir auch in den von uns entwickelten Blended Learning Lehrgängen . Informationen dazu finden Sie auf unserer Lernplattform.

Umgang mit Unschärfe und Unsicherheit

Menschenmenge.jpgFrüher war alles klar und eindeutig und konnte durch Dichotomien benannt werden: Mann-Frau, Deuscher-Nicht-Deutscher,Drinnen-Draußen, Wahr-Falsch, 0-1 usw. Doch in den letzten 20 Jahren hat sich so einiges verändert, dass die deutliche Trennung erschwert, ja sogar manchmal unmöglich macht (Soziologen nennen diese Entwicklungen Entgrenzungen in der reflexiven Modernisierung). Solche Unschärfen waren früher auch schon existent, wurden allerdings vernachlässigt. Durch die drei Treiber des dynamischen Wandels “Vernetzung, Geschwindigkeit und der Zunahme nicht greifbarer Werte”  kommt es auch zu einer Abwertung von materiellen Werten, die sogar zu einem Hemmnis werden können (Davis/Meyer 2000:11). Es stellt sich daher die Frage, wie wir mit der real vorhandenen Unschärfe umgehen. Eine Möglichkeit ist, dass sich Menschen nach klaren Regeln sehnen und daher den extremen Populisten in Europa in die Arme laufen, oder den Stammtischparolen der Boulevardpresse glauben, oder …. Ein solches Verhalten lässt darauf schließen, dass diese Menschen es nicht schaffen, die Unschärfe und die sich daraus ergebende Unsicherheit zu bewältigen.Andere setzen wiederum auf Computertechnologie und versuchen alles zu erfassen, was möglich ist. DIE vollständige Information wird es allerdings nicht geben können – es bleibt eine Illusion. Die Frage nach der Bewältigung von Unsicherheit ist somit zu einem wichtigen Element geworden, um zukunftsfähig zu bleiben oder zu werden. Ein guter Bezugspunkt ist dabei die von Knight 1921 dargestellte Form der Unsicherheit, die er Uncertainty nennt. Dieser Teil der Unsicherheit kann nicht gemessen werden und entzieht sich somit den klassischen Herangehensweisen, bei denen alles messbar sein muss, bzw. messbar gemacht wird. Im Gegensatz – bzw. in Ergänzung zu Computern und Robotern – ist der Mensch in der Lage, solche Unsicherheiten zu bewältigen – durch seine Kompetenz. Der Kompetenzbegriff ist in dieser Debatte um Unschärfe, Unsicherheit und Uncertainty zentral. Siehe dazu auch Über den Umgang mit Ungewissheit. Diese Unterschiede zu verstehen bedeutet auch, die richtigen Schlüsse daraus zu ziehen, wenn wir über den Arbeitsplatzverlust durch Cognitive Computing diskutieren. Dazu passt auch mein Vortrag, den ich im Oktober auf der Weltkonferenz MCPC 2015 in Montréal/Kanada halten werde: “Cognitive Computing and Managing Complexity in Open Innovation Model”. Siehe dazu auch das Konferenzprogramm (PDF).