Wenn es um die zeitliche Entwicklung von neuen Technologien und deren Innovationen geht, wird oft der Gardner Hype Cycle herangezogen, der in der Abbildung gepunktet dargestellt ist.
Der Hype um neue Technologien bahnt sich zunächst an, erreicht einen Peak und anschließend die Phase der Ernüchterung, bis sich dann endlich durch die Nutzung die Spreu vom Weizen trennt: Change or Die!
Interessant ist, wenn man dem Gardner Hype Cycle die entsprechende Hybris gegenüberstellt – in der Abbildung rot hervorgehoben.
Die Hybris (altgriechisch für Übermut‘, ‚Anmaßung‘) bezeichnet Selbstüberschätzung oder Hochmut. Man verbindet mit Hybris häufig den Realitätsverlust einer Person und die Überschätzung der eigenen Fähigkeiten, Leistungen oder Kompetenzen, vor allem von Personen in Machtpositionen. (Quelle: vgl. Wikipedia).
In der Abbildung finden Sie die in den jeweiligen Phasen anzutreffenden Äußerungen, die die Hybris – den Übermut, die Selbstüberschätzung oder auch die Anmaßung und den Realitätsverlust – über die Zeit ausdrücken.
Diesmal möchte ich mich mit dem Verhältnis zwischen „Wissen„, „Werten“ und „Organisationsebenen“ befassen. In der Abbildung ist zunächst zu erkennen, dass Wissen implizit oder auch explizit vorliegen kann .
Das explizierbare Wissen ist häufig „wertfrei“, wodurch es gut formuliert und digitalisiert usw. werden kann. Je „wertbeladener“ Wissen wird, umso eher handelt es sich um implizites Wissen – beispielsweise einer Person (Individuum).
Natürlich können diese Überlegungen auch auf der Teamebene, der Unternehmensebene oder organisationalen (auch Netzwerk-) Ebene angestellt werden. Wie die Abbildung qualitativ auch aufzeigt. ist der Anteil des expliziten, wertfreien Wissens im Vergleich zum impliziten Wissen relativ gering.
„Besonders bemerkenswert ist die Asymmetrie der Quadranten (…). Ca. 72% unserer Entscheidungen basieren nach KARNER auf impliziten Wissen (tacit knowledge) in Form von Werten, Symbolen, Metaphern, Macht, Prestige, usw. Nach einer Studie der Fraunhofer Gesellschaft liegen sogar 85% des Unternehmenswissens in impliziter Form vor“ (Erpenbeck 2008).
Aus diesen Überlegungen leitet sich auch ab, wie gerade mit impliziten, wertbeladenen Wissen umgegangen werden sollte:
„Je mehr Wissen wertbeladen und implizit ist, desto eher muss es mit Hilfe psychologischer bzw. sozialwissenschaftlicher Methoden gewonnen und, was die Wertanteile angeht, psychisch interiorisiert bzw. in Sozialisationsprozessen internalisiert werden“ (Erpenbeck 2008).
Der Wertebezug von Wissen ist gerade in Zeiten von Künstlicher Intelligenz wichtig, da Werte Ordner sozialer Komplexität sind. Wenn sich also die Werte in der Europäischen Union und die Werte der oft genutzten KI-Modelle stark unterscheiden, hat das Auswirkungen auf alle Ebenen des Wissenssystems.
Bei Innovationen wird oft die Theorie der Pfadabhängigkeit thematisiert. Dabei ist am Anfang, in der Phase I der Entscheidungsselektivität, die Variationsbreite noch groß. Mit der Zeit wechselt die Situation (Critical Juncture) in die Phase II der positiven Rückkopplungen. Hier ist der Handlungsspielraum noch immer groß, doch die verfügbaren Varianten reduzieren sich. Eine gewisse Gewohnheit stellt sich ein, und es kommt zu einem Lock-in in der Phase III der Pfadabhängigkeit.
Diese Phasen können wir aktuell bei der Nutzung von KI-Modellen gut nachvollziehen, wobei ich vermute, dass viele durch die Nutzung der bekannten proprietären KI-Modelle wie ChatGPT, Gemini, Anthropic, Grok usw. in der Phase der Pfadabhängigkeit sind.
Es wundert daher nicht, dass Anbieter wie ChatGPT nun langsam aber sicher anfangen, diese Situation zu monetarisieren, und z.B. Werbung schalten. Diese Situation ist für viele Nutzer ärgerlich, doch stellen sich bei einem gewünschten Wechsel zu anderen KI-Modellen nun Switching Cost ein, die zu einer Hürde werden. Ein De-locking ist möglich, doch mit Aufwand verbunden.
„Pfadabhängigkeit heißt ja: Prozesse sind nicht durch unsere Entscheidungen und Pläne zu determinieren, sondern nehmen ihren erst Schritt für Schritt näher bestimmten Verlauf in einem spezifischen Wechsel von Kontingenz und Notwendigkeit – in Folge von lauter intendierten und nicht-intendierten Effekten, schließlich in Folge von Selbstverstärkungseffekten, vor denen sich die Entscheidungsgewalt der Entscheider vollends blamiert (Ortmann 2009:11).
In der aktuellen Situation kann es dazu kommen, dass wir aus Bequemlichkeit nicht aus der Pfadabhängigkeit herauskommen. Vielen Nutzern ist diese Situation nicht bewusst. Sie glauben immer noch, dass sie es sind, die die KI-Systeme mit ihren Eingaben (Prompts) steuern…. Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich.
Das Ai2 Institut hat immer wieder interessante KI-Modelle auf Open Source Basis veröffentlicht. Unter anderem sind das die OLMO 3 – Familien oder auch MOLMO mit Schwerpunkt auf Videos. Mit der SERA ist es nun möglich, Open Coding Agents zu stellen, und das zu geringen Kosten.
„Today we’re releasing not just a collection of strong open coding models, but a training method that makes building your own coding agent for any codebase – for example, your personal codebase or an internal codebase at your organization – remarkably accessible for tasks including code generation, code review, debugging, maintenance, and code explanation. (…) The challenge: specializing agents to your data“ (Source: https://allenai.org/blog/open-coding-agents).
Die Modellfamilie (8B bis 32B) steht selbstverständlich auf Huggingface zur Verfügung, und kann auf eigenen Servern genutzt werden. Ganz im Sinne von Open Source AI und Digitalen Souveränität.
Wir gehen oft noch von scheinbar eindeutigen Ursache-Wirkungs-Zusammenhängen aus (Reduktionismus), Wir schließen beispielsweise bei einer intelligenten Handlung (Wirkung) eines Menschen auf eine möglicherweise dahinterliegende menschliche Intelligenz (Ursache).
Dass es solche einfachen Zusammenhänge in komplexen Systemen so nicht gibt, wurde schon vor vielen Jahrzehnten von Ryle bezweifelt. Er nannte ein solches Vorgehen Intellektualistische Legende. und erläutert: „Die intelligente Praxis“ (Ryle (1949:28), „ist nicht ein Stiefkind der Theorie“.
„Ganz allgemein gesprochen, macht die intellektualistische Legende die absurde Annahme, jede Verrichtung, welcher Art auch immer sie sei, erwerbe ihren gesamten Anspruch auf Intelligenz von einer vorausgehenden inneren Planung dieser Verrichtung“ (Siehe dazu weitaus differenzierter Neuweg, G. H. (2004): Könnerschaft und implizites Wissen).
Doch: Wo versteckt sich dann die Intelligenz?
Dazu schreibt Ryle: „Eine intelligente Handlung „hat eine besondere Art oder Ausführung, nicht besondere Vorgänger“ (1949, S. 36). Natürlich weist sie über sich selbst hinaus, aber „die Ausübung ist keine Doppeloperation, bestehend aus theoretischem Bekennen von Maximen und darauffolgender Umsetzung in die Praxis“ (1949, S. 56). Auch wenn wir eine Disposition, die sich als flexibles Können zeigt, mit Recht als Zeichen von Intelligenz betrachten, ist nicht eine innerliche Schattenhandlung, sondern das Können selbst der Trägerder Intelligenz. Intellektuelle Operationen sind keine Ausführungen, die zu intelligenten Tätigkeiten hinzutreten. „Offene intelligente Verrichtungen sind nicht der Schlüssel zur Arbeit des Geistes; sie sind diese Arbeit“ (1949, S. 73)“ (vgl. Neuweg 2004).
Wenn also das Können selbst Träger der Intelligenz ist, und eine scheinbar intelligente Handlung eines Menschen nicht auf seine Menschliche Intelligenz zurückzuführen ist, so kann auch die „intelligente Handlung“ eines KI-Modells nicht auf eine Art von Künstlicher Intelligenz zurückgeführt werden – ein Kategorienfehler? Siehe dazu auch
In diesem Blogbeitrag möchte ich nun die Überlegungen für einen Intelligenz-Quotienten (IQ) und mögliche Kritikpunkte daran erläutern.
Wie der Abbildung zu entnehmen ist, bezieht sich der Intelligenz-Quotient (IQ), der als Psychometrische Intelligenz bezeichnet werden kann, auch darauf, dass diese aus der Biologischen Intelligenz hervorgeht. Eysenck, ein Vertreter der Psychometrischen Intelligenz, deutet damit auf den biologischen Charakter und den in den menschlichen Genen vorgegebenen Teil von Intelligenz hin. Der von der Psychometrischen Intelligenz verwendete Intelligenzbegriff basiert konsequenterweise auf diesen Annahmen:
„Unser Begriff „Intelligenz“ leitet sich von den lateinischen Wörtern intelligentia und ingenium her. Jenes bedeutet in Ciceros Verwendungsweise in etwa „Begreifen“ und „Wissen“, dieses soviel wie „natürliche Veranlagung“ oder Begabung“. Die zwei Bedeutungskomponenten sind dem Begriff „Intelligenz“ bis heute eigen geblieben“ (Eysenck 2004).
Eine Erweiterung der Psychometrischen Intelligenz (IQ) in Richtung einer Sozialen Intelligenz lehnt Eysenck kategorisch ab, und begründet das wie folgt: „Das Konzept der sozialen oder praktischen Intelligenz ist eindeutig viel zu komplex, als dass es irgendeinen wissenschaftlichen Wert haben könnte; zum Wesen der Wissenschaft gehört es ja auch und gerade, komplexe Konzepte auf einfache, elementarere zu reduzieren“ (Eysenck 2004). Die Vereinfachung komplexer Sachverhalte ist heute allerdings unangemessen.
Im Gegensatz dazu gibt es immer mehr Hinweise darauf, Intelligenz weniger reduktionistisch und besser als komplexes System zu verstehen, was eine deutlich bessere Passung mit dem heute üblichen Umgang mit Komplexität haben würde. Intelligenz-Theorien, die so einem Anspruch gerecht werden, sind:
„Die Triarchische Theorie (vgl. Sternberg 1985a/1985b) und die Multiple Intelligenzen Theorie (vgl. Gardner 1983/1993) scheinen geeignet zu sein, wenn es um eine notwendige Erweiterung des Intelligenzbegriffs geht (vgl. Siebert/Seidel 2000:48), da beide Theorien als Systemmodelle bezeichnet werden können, die „auch externe Aspekte des Erlebens und Denkens [mit einbeziehen, und] (…) Intelligenz als komplexes System betrachten“ (Schulze et al. 2006:15)“ (zitiert in Freund 2011).
Wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität (Bandte 2007:50, aus Stüttgen 2003): Eigene Hervorhebungen
In unserer komplexen Welt verwenden viele den Begriff „Komplexität“, doch fragt man nach wird deutlich, dass an unterschiedliche naturwissenschaftliche Ansätze gedacht wird. In der Abbildung sind daher wesentliche Vertreter der Grundlagen einer Komplexitätswissenschaft und Vorreiter einer terminologischen Präzisierung von Komplexität zu sehen, die den verschiedenen Disziplinen zugeordnet sind
Ein wesentlicher Schwerpunkt in der Komplexitätsdiskussion befasst sich mit SELBSTORGANISATION. In der Abbildung sind von mir bekannte Vertreter zu Selbstorganisations-Theorien hervorgehoben, die aus den Bereichen Biologie und Physik/Chemie kommen. Überraschend ist dabei, dass viele wichtige Theorien zum Thema um 1970 fast zeitgleich erschienen sind:
„Es war der magische Zeitpunkt um 1970, als fast zeitgleich erste naturwissenschaftliche Theorien der Selbstorganisation erschienen, die eine paradigmatische Wende einläuteten: die biologische Theorie der Autopoiese von Humberto Maturana, die Arbeit zur molekularen Evolution von Manfred Eigen, die thermodynamische Theorie dissipativer Systeme fernab vom Gleichgewicht von Ilya Prigogine sowie die aus der Quantenoptik und der Theorie der Phasenübergänge stammende Theorie der Synergetik von Hermann Haken. Die Begründer dieser Theorien kamen aus sehr unterschiedlichen Disziplinen“ (Petzer/Steiner 2016).
Da ich mich viel mit Innovationen befasse, ist es mir natürlich wichtig zu erfahren, welche Passung diese Theorien mit der Entstehen neuer Dienstleistungen, Produkte oder (allgemein) neuen Gesellschaftsstrukturen haben. Sehr interessant ist dabei, dass die Autopoiese (Maturana) wohl nicht so gut geeignet erscheint, und die Synergetik von Haken (1996) wohl besser passt:
„Obwohl die Autopoiese einen großen Einfluss im biologischen und vor allem im soziologischen Bereich hat, so ist ihr Bezug zur Selbstorganisation eher im zirkulären Wirken bestehender Ordnung zu sehen. In Hinblick auf die Entstehung (Emergenz) von Ordnung und verschiedener Ordnungsstufen trifft die Autopoiese keine Aussagen. Sie setzt bereits Ordnung voraus. Daher sah Hermann Haken auch keinen Anlass sich mit dieser, vor allem im Rahmen des Radikalen Konstruktivismus in der Literatur hofierten und diskutierten Theorie, intensiver auseinanderzusetzen.
Übertragen auf soziale Systeme kann die Autopoiesetheorie Innovation oder die Entstehung neuer Gesellschaftsstrukturen nicht thematisieren„.
Quelle: (Petzer/Steiner 2016). Die Autoren nennen zur Unterstützung dieser These noch folgende Quellen:
– Hermann Haken: Synergetics. An Introduction, New York, NY: Springer 1977. – Bernd Kröger: Hermann Haken und die Anfangsjahre der Synergetik, Berlin: Logos 2013, S. 259. – Vgl. auch Marie-Luise Heuser: „Wissenschaft und Metaphysik. Überlegungen zu einer allgemeinen Selbstorganisationstheorie“, in: Wolfgang Krohn/Günter Küppers (Hg.): Selbstorganisation.
„Es genügt also, das Verhalten der wenigen instabilen Systemelemente zu erkennen, um den Entwicklungstrend des gesamten Systems und seine makroskopischen Muster zu bestimmen. Die Größen, mit denen das Verteilungsmuster der Mikrozustände eines Systems charakterisiert wird, heißen nach dem russischen Physiker Lew D. Landau „Ordnungsparameter““ (Mainzer 2008:43-44).
Mit Hilfe Künstlicher und Menschlicher Intelligenz sollte es möglich sein, diese wenigen instabilen Systemelemente zu erkennen (Ordnungsparameter), um makroskopische Muster zu bestimmen.
Der Wahlspruch der Aufklärung lautet: „Habe Mut, Dich Deines eigenen Verstandes zu bedienen!“ Die Aufklärung stellt somit die eigene Wissenskonstruktion in den Mittelpunkt. Was würde also passieren, wenn sich jeder seines eigenen Verstandes bedienen, und sich nicht mehr so abhängig machen würde?
Immerhin ist es den meisten Menschen in Europa heute viel problemloser als früher möglich, seinen eigenen Verstand zu nutzen, doch die meisten machen es einfach nicht. Warum nur? Eine Antwort darauf finden wir schon bei Immanuel Kant, der am Ende des 18. Jahrhunderts folgende Erkenntnis formulierte:
Immanuel Kant schrieb schon 1784 in seiner Streitschrift: „Beantwortung der Frage: Was ist Aufklärung?“: „Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Faulheit und Feigheit sind die Ursachen, warum ein so großer Teil erwachsener Menschen, nachdem sie die Natur längst von fremder Leitung freigesprochen hat, dennoch gerne zeitlebens unmündig bleiben, und warum es anderen so leicht wird, sich zu deren Vormündern aufzuwerfen. Es ist so bequem, unmündig zu sein!“ (Fuchs, J.; Stolorz, C. (2001): Produktionsfaktor Intelligenz. Wiesbaden).
In Bezug auf aktuelle geopolitische, gesellschaftliche oder technologische Entwicklungen sehen wir heute, wie falsch es war, dass wir uns in Europa in alle möglichen und unmöglichen Abhängigkeiten begeben haben – es war eben alles so bequem. Dafür haben wir bewusst eine Unmündigkeit in Kauf genommen, die uns jetzt und in Zukunft teuer zu stehen kommt.
Auch bei der oftmals unreflektierten Nutzung der marktführenden KI-Modelle sehen wir wieder eine Entwicklung, die zur Unmündigkeit führt – ist ja alles so bequem. Siehe dazu beispielhaft: Digitale Souveränität: Europa, USA und China im Vergleich.
Alternativ zu den marktführenden KI-Modellen könnte man sich mit den Möglichkeiten von Open Source KI-Modellen befassen, was natürlich unbequemer sein kann, doch andererseits zu mündigen (aufgeklärten) Bürgern führt. In diesem Sinne: Sapere aude!
Stellen Sie sich vor, jemand möchte von Ihnen wissen, wie er Fahrradfahren soll. Geben Sie ihm einfach eine kurze Beschreibung – oder fragen Sie eine Künstliche Intelligenz. Eine eher wissenschaftliche Antwort könnte wie folgt lauten:
„Bringen Sie die Kurvung Ihrer Fahrradspur im Verhältnis zur Wurzel Ihres Ungleichgewichtes geteilt durch das Quadrat Ihrer Geschwindigkeit! Diese Regel beschreibt das Gleichgewichthalten beim Fahrradfahren“ (Fischer 2010).
Könnten Sie aufgrund dieser Beschreibung, möglicherweise ergänzt durch tausende von Videos oder anderen Content, Fahrradfahren? Es wird deutlich, dass zu der Beschreibung noch etwas dazukommen muss: Ein Gefühl für das Gleichgewicht bei einem bestimmten Fahrrad, in einem bestimmten Gelände (Kontext) und Übung, Übung, Übung. So lange, bis man kein Anfänger, sondern ein Experte ist.
Im beruflichen Umfeld haben wir ähnliche Situationen, die anhand der folgenden Abbildung erläutert werden sollen.
Eigene Darstellung
In der Abbildung sind das Handlungsgebiet „Installieren“, das Handlungsgebiet „Diagnostizieren“ und beispielhaft ein weiteres Handlungsgebiet nebeneinander dargestellt.
Überlagert werden diese von den Sektoren A und B, in denen die Kontexte 1 bis 4 dargestellt sind. Kontext 1 könnte hier die Kernaufgabe 1 eines Berufs, Kontext 2 die Kernaufgabe 2 eines weiteren Berufs etc. darstellen.
Der Domänenbegriff kann sich im engeren Sinne auf eine Kernaufgabe eines Berufs beziehen – hier die Kernaufgabe 1 eines Berufs. Es ist allerdings auch möglich, den Domänenbegriff weiter zu definieren. Dann wären die Summe aller Handlungsgebiete gemeint – im Idealfall stellt eine Domäne den Beruf dar (Domäne=Beruf).
„Die Arbeit in einer Domäne ist stets situiert“ (Becker 2004, S. 36), also an die Problemlösungssituation und den Kontext gebunden, was zu einem sehr speziellen Wissen (Expertenwissen) und der damit verbundenen Expertise (Kompetenz auf Expertenniveau) führt.
Es wird deutlich, dass es nur sehr schwer möglich ist, diese spezielle Kompetenz zu übertragen, gerade dann, wenn man das Ganze der Arbeit betrachtet und nicht nur einzelne Facetten.
Solche Überlegungen können dabei helfen herauszufinden, welche Elemente der Arbeit beispielsweise durch Künstliche Intelligenz ersetzt, ergänzt, oder gar nicht abgebildet werden können.
Der Titel meines Beitrags bezieht sich auf die Philosophin Hannah Arendt, die vor Jahren die Frage stellte, was eine Arbeitsgesellschaft anstelle, der die Arbeit ausgehe (Arendt, H. (1981): Vita activa. Vom tätigen Leben, München),
Dabei ist zunächst einmal zu klären, was unter Arbeit zu verstehen ist, denn auch hier hat sich über die Zeit einiges verändert, was die Abkürzungen Arbeit 1.0, Arbeit 2.0, Arbeit 3.0 und Arbeit 4.0 beschreiben.
Ein wesentlicher Teil des heutigen Arbeitsverständnisses bezieht sich immer noch auf die Sicherung und Erweiterung des Lebensunterhaltes.
„Unter Arbeit verstehen wir die Vielfalt menschlicher Handlungen, deren Zweck die Sicherung und Erweiterung des Lebensunterhaltes der arbeitenden Individuen und ihrer Angehöriger ebenso beinhaltet wie die Reproduktion des gesellschaftlichen Zusammenhanges der Arbeitsteilung und hierüber der Gesellschaft selbst, Arbeit ist vergesellschaftetes Alltagsleben (von Ferber 1991)“ (Peter, G. (1992): Situation-Institution-System als Grundkategorien einer Arbeitsanalyse. In: ARBEIT 1/1992, Auszug aus S. 64-79. In: Meyn, C.; Peter, G. (Hrsg.) (2010)).
Dieses Verständnis von Arbeit kann dem Denken in einer Industriegesellschaft zugeordnet werden. Dazu gehören auch Entlohnungs-Systeme, Sozial-Systeme, Rechts-Systeme, Gesundheits-Systeme, Bildungs-Systeme usw.
Wenn sich also am Verständnis von Arbeit etwas ändert, hat das erhebliche Auswirkungen auf all die genannten, und nicht-genannten, gesellschaftlichen Systeme. Am Beispiel der Landwirtschaft kann das gut nachvollzogen werden: Nachdem hier automatisiert/industrialisiert wurde, gab es zwar weniger Arbeit in dem Bereich, doch mehr Arbeit in einem neuen Bereich, eben der Industrie.
„Arbeit, und zwar das „Ganze der Arbeit“ (Biesecker 2000), sollte deshalb neu bestimmt werden, zunächst verstanden als „gesamtgesellschaftlicher Leistungszusammenhang“ (Kambartel 1993) der Reproduktion, woraus sich spezifische Rechte und Pflichten, Einkommen sowie Entwicklungschancen für die Mitglieder einer Gesellschaft ergeben. Von einem Ende der Arbeitsgesellschaft ist nämlich keine Rede mehr, wohl aber von einem Epochenbruch und der Notwendigkeit einer umfassenden Neugestaltung der gesellschaftlichen Arbeit“ (Peter/Meyn 2010).
Wenn Arbeit nun eher als „gesamtgesellschaftlicher Leistungszusammenhang“ gesehen werden sollte, bedeutet das natürlich, dass die auf dem früheren Begriff der Arbeit basierenden gesellschaftlichen Systeme (Gesundheits-System, Sozial-System Wirtschafts-System usw.) angepasst werden sollten.
Aktuell hat man den Eindruck, dass alle gesellschaftlichen Systeme von den technologischen Entwicklungen getrieben werden, ganz im Sinne von Technology first. Es ist an der Zeit, Prioritäten zu verschieben – und zwar in Richtung Human first. Das ist möglich. Wie? Ein Beispiel:
„By comparison, Society 5.0 is “A human-centred society that balances economic advancement with the resolution of social problems by a system that highly integrates cyberspace and physical space” (Japan Cabinet Office, 2016, zitiert in Nielsen & Brix 2023).
Auch hier geht es um einen menschenzentrierten Ansatz, der allerdings nicht auf den Industriearbeiter begrenzt ist, sondern alle Bürger generell mitnehmen will. Dabei sollen die konkreten Probleme der Menschen (endlich) gelöst werden.
Da gibt es noch viel zu tun. So verstandene Arbeit geht nicht aus, und sollte in allen gesellschaftlichen Bereichen angemessen entlohnt werden.
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.