Cyberself, Persönlichkeit und analoges Selbst in digitalen Räumen

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Jede Person möchte seine Persönlichkeit, seine Kompetenz kommunizieren. Das passiert im analogen Raum genauso wie in digitalen Räumen. Mit Hilfe von digitalen Medien transportiert jeder moderne Mensch Fragmente seiner Persönlichkeit in unterschiedlichen digitalen Räumen. Dabei kann es durchaus passieren, dass die im Digitalen Raum 1 dargestellte Person, sich von der im Digitalen Raum 2 unterscheidet.

Andererseits ist diese Perspektive auch reflexiv zu sehen, denn die Interaktionen und Kommunikationen mit anderen wirken durchaus auch auf die eigene, digitale und analoge Person zurück. Dazu passt ganz gut der folgende Text:

“Das dadurch repräsentierte Selbst muss jedoch nicht zwangsläufig dem realen, analogen Selbst entsprechen, sondern kann auf eine bewusst optimierte Repräsentation hinauslaufen oder eine fiktive andere Gestalt annehmen. Zudem können sich Subjekte in diversen digitalen Netzwerken unterschiedlich repräsentieren. Auch Laura Robinson argumentiert, dass das Subjekt anhand der digitalen Elemente ein „self-ing“ betreibe und sich sodann als „Cyberself“ (2007, S. 98) hervorbringe. Das Cyberself sei ein ephemeres Selbst, so Robinson, welches nur für kurze Zeit beständig, rasch änderbar und ohne langfristige Bedeutung sei, da es sich stets in Abhängigkeit zu Handlungen bilde (vgl. ebd.)” (Rathmann 2022).

Es stellt sich für mich die Frage, wie sich beispielsweise die immer stärkere Nutzung von KI-Modellen auf das analoge Selbst und das Cyberself auswirkt. Wenn die Richtung der kommunikativen Wechselwirkungen auch reflexiv ist, sind KI-Modelle durchaus persönlichkeitsverändernd.

Das kann einerseits positiv zur eigenen Entwicklung beitragen, oder eben auch nicht. Bei den, von den amerikanischen Tech-Konzernen entwickelten Modellen, habe ich so meine Bedenken, da diese Modelle ein Mindset repräsentieren, dass für Menschen, und ganze Gesellschaften gravierende negative Folgen haben kann.

Die Intransparenz der bekannten Closed Sourced Modelle wie ChatGPT von OpanAI oder Gemini von Google etc. oder auch das von Elon Musk beeinflusste Modell Grok von X repräsentieren eine Denkhaltung, die auf ein von Technologie dominiertes Gesellschaftssystem ausgerichtet sind. Es stellt sich die Frage, ob wir das so wollen.

Siehe dazu auch Digitale Souveränität: Europa, USA und China im Vergleich und ausführlicher Maria Salvatrice Randazzo & Guzyal Hill (2025): Human dignity in the age of Artificial Intelligence: an overview of legal issues and regulatory regimes. Australien Journal of Human Rights, pages 386-408 | Received 28 Aug 2023, Accepted 12 Nov 2024, Published online: 23 Apr 2025

Wissenschaft etwas anders gesehen…

In dem Artikel Die “vermessene” Wissenschaft (FAZ vom 31.12.2012, S. 12) plädiert Hans Jörg Hennecke, Professor für Politikwissenschaft an der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität Rostock, für eine “Rückbesinnung auf die persönliche Verantwortung in Politik und Wirtschaft”. Der Autor kritisiert die “exakten Naturwissenschaften” und beschreibt diese Herangehensweise sehr doppeldeutig als “vermessen”. Welche Konsequenzen diese verengte Sichtweise auf hochkomplexe Situationen hat, zeigt Hennecke deutlich auf: “Das Erfahrungswissen, das implizite und verstreute Wissen und Werten Einzelner, wird von explizitem, konstrutivistischem Wissen und Werten des Staates verdrängt”. Ein Sowohl-als-auch wäre hier sinnvoller. Siehe dazu auch Die Welt bleibt unberechenbar und If you can not measure it, you can not manage it.