Der “reflexible Mensch” und der Umgang mit Wissen

In den vergangenen Jahrzehnten der Industriegesellschaft wurde es zunächst immer wichtiger flexibel zu sein (Der flexible Mensch), um sich den Veränderungen im Umfeld anzupassen. Der Strukturbruch zwischen Einfacher und Reflexiver Modernisierung hat gezeigt, dass Flexibilität nicht ausreicht, um das turbulente Umfeld zu bewältigen. Bei der Reflexiven Modernisierung geht es um Kontingenzzuwachs, um die Nebenfolgen sozialen Handelns, und um die Krise der Realitätsunterstellungen und Rationalisierbarkeitserwartungen. Der reflexive Mensch muss daher auch sein Verständnis von Lernen und Wissen den neuen Gegebenheiten anpassen. In Arnold, R. (2017) geht man noch einen Schritt weiter und verbindet den flexiblen Menschen und den reflexiven Menschen zum reflexiblen Menschen.

Der reflexible Mensch lernt dabei nicht nur „etwas“, sondern erweitert seine persönlichen Fähigkeiten
– zur Erschließung von Wissensquellen,
– zum Umgang mit Neuem,
– zur Planung und Gestaltung eigener Lernprojekte,
– sowie zur Veränderung vertrauter Sichtweisen und Routinen” (ebd.).

Dabei spielen die neuen technologischen Möglichkeiten wie z.B. Künstliche Intelligenz eine bedeutende Rolle, da sie ganz neue Lernmöglichkeiten und Wissenskonstruktionen ermöglichen.

Projektmanager: Soziale Interaktionsprozesse und ihre Bedeutung für den Einsatz von Künstlicher Intelligenz (KI)

AdobeStock_527653115

Die Rolle eines Projektmanagers, einer Projektmanagerin, ist vielschichtig. In der Theorie gibt es viele Themen die abgedeckt werden sollen. Dazu zählen planerische, kontrollierende und steuernde Tätigkeiten, Kommunikation und Organisation. Darüber hinaus gehören auch Führungsaufgaben, Weisungen und Entscheidungen zum Arbeitsfeld. Zu all den genannten Punkten gibt es in der Literatur viele Hinweise zur möglichen Umsetzung, doch kommen in der Praxis viele soziale Interaktionen hinzu.

Eigene Darstellung – Quelle: Barth/Sarstedt (2024)

“Ohne soziales Miteinander und soziale Interaktionsprozesse ist kein Projekt zielführend zum Abschluss zu bringen. Der Begriff sozial ist aus dem lat. „sozialis“ abgeleitet, was so viel wie gesellschaftlich, gemeinnützig bzw. hilfsbereit bedeuten kann. Die soziale Interaktion sollte demnach auch innerhalb von einem Projekt von gemeinschaftlichem und sich unterstützendem Handeln geprägt sein” (Barth/Sarstedt 2024).

Betrachten wir die Prozesse in der Realität (Abbildung) so wird deutlich, dass neben den technischen auch viele sozialen Interaktionsprozesse für den Erfolg von Projekten nötig sind. Beispielsweise zählen kognitive und menschliche Sensorik zu einzusetzen, Mensch zu sein (z.B. Emotionen zu zeigen) oder auch Verantwortung zu tragen. zu den jeweiligen Punkten sind in der Abbildung weitere Unterpunkte genannt, auf die ich hier nicht weiter eingehen möchte.

Die gesamten sozialen Interaktionsprozesse können durch “kognitive Empathie und Fingerspitzengefühl” (ebd.) erschlossen werden. An dieser Stelle führt das zu der Frage, inwieweit Künstliche Intelligenz (KI) solche Bereiche abdecken kann. Aktuelle sieht es so aus, dass der Nutzen von Künstlicher Intelligenz (KI) zunächst auf den Punkten liegt, die auf der Seite “Theorie” stehen. Auf der Seite “Praxis” stehen allerdings viele Punkte, die von Künstlicher Intelligenz (aktuell noch) nicht abgedeckt werden. Es wird als Projektmanager daher darauf ankommen, beide Potentiale für das Projektmanagement sinnvoll und angemessen zu nutzen. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

Informationen zu den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz – Menschliche Intelligenz – Intelligente Problemlösungen

In der heute sehr stark vernetzten Welt kommt es darauf an, Muster zu erkennen, um die anstehenden komplexen Problemlösungen zu entwickeln. die neuen Fragestellungen können oftmals nicht mehr mit den bisher so erfolgreichen Denkmustern gelöst werden. Das immer wieder propagierte neue Mindset integriert die alten Denkmuster und entwickelt diese weiter. Ein zentraler Punkt in vielfältig vernetzten Systemen ist das Erkennen von schwachen Signalen, oder von Mustern. Diese Eigenschaften werden der Künstlichen Intelligenz und der Menschlichen Intelligenz zugeschrieben. Im Zusammenspiel können dabei viele intelligente Problemlösungen generiert werden.

“Eine der zentralen Fragen der Zukunft könnte nicht sein, wie viele künstliche intelligente Lösungen in den Systemen stecken, sondern wie viel menschliche Intelligenz und welches Mindset und Bewusstsein vor dem Computer sitzt und wie beide miteinander in Beziehung stehen und verbunden sind” (Linder-Hofmann (2024): KI, agiles Mindset und integral -systemische Perspektiven. In: Bernert/Scheurer/Wehnes (Hrsg.): KI in der Projektwirtschaft).

Die Mustererkennung kann durch Maschinen wie der Künstlichen Intelligenz, oder durch den Menschen mit seinen besonderen Intelligenzen/Kompetenzen erfolgen. An dieser Stelle sollte allerdings auch geklärt werden, welche menschliche Intelligenz gemeint ist. Es gibt hier durchaus Ansätze die zeigen, das möglicherweise der immer noch favorisierte Intelligenz-Quotient (IQ) keine Passung zu dem hier kurz aufgezeigten Themenfeld hat. Siehe dazu auch
Künstliche Intelligenz und Menschliche Intelligenz
Intelligenztheorie: Anmerkungen zu Sternbergs Triarchischen Theorie und Gardners Multiple Intelligenzen Theorie
Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

Global Risks Report 2024: Misinformation und Disinformation neu im Top 10 Ranking

World Economic Forum (2024): Global Risk Report

Das World Economic Forum (2024): World Risk Report (PDF) geht wieder einmal sehr ausführlich auf mögliche globale Risiken ein. Diesmal gibt es allerdings eine Besonderheit, auf die ich etwas ausführlicher eingehen möchte. Unter dem Punkt False Information werden Misinformation und Disinformation neu im Top 10 Ranking aufgenommen. Ein Treiber für diese Entwicklung ist natürlich auch Künstliche Intelligenz (KI), oder Artificial Intelligence (AI):

Misinformation and disinformation is a new leader of the top 10 rankings this year. No longer requiring a niche skill set, easy-to-use interfaces to large-scale artificial intelligence (AI) models have already enabled an explosion in falsified information and so-called ‘synthetic’ content, from sophisticated voice cloning to counterfeit websites. To combat growing risks, governments are beginning to roll out new and evolving regulations to target both hosts and creators of online disinformation and illegal content. Nascent regulation of generative AI will likely complement these efforts. For example, requirements in China
to watermark AI-generated content may help identify false information, including unintentional misinformation through AI hallucinated content. Generally however, the speed and effectiveness of regulation is unlikely to match the pace of development” (WEF (2024:18).

Jeder der die Entwicklung von AI (KI) verfolgt wird erkennen, dass es weltweite Bestrebungen gibt, Grenzen für die Nutzung von KI (AI) zu formulieren. Doch wird auch immer deutlicher, dass Regularien oftmals zu langsam umgesetzt werden, und somit ein Graubereich zwischen den technologischen Möglichkeiten und gesetzten Grenzen entsteht.

Es ist somit auch jeder Einzelne angesprochen, Content kritisch zu hinterfragen. Eine gute Möglichkeit ist, bei selbst generierten Content die Quellen transparent anzugeben, und das auch bei anderen einzufordern. In unserem Blog, oder auch in den für Lehrgänge erstellten Teilnehmerunterlagen, haben wir das schon von Anfang an umgesetzt.

Solche Zusammenhänge berücksichtigen wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Erzwingt Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz und Empathie?

Die aktuellen Diskussionen um Künstliche Intelligenz (KI) sind oft ambivalent. – wie immer bei Innovationen. Und wie immer ist an allen Argumentationslinien “etwas dran”. In Zukunft wird es daher auch darum gehen, Künstliche Intelligenz so zu nutzen, dass sie ihre Vorteile für Menschen, Organisationen und Gesellschaften entfalten kann. In meinen verschiedenen Beiträgen zur Künstlichen Intelligenz finden Sie dazu weitere Hinweise. Interessant finde ich in diesem Zusammenhang folgende Textpassage, in der davon ausgegangen wird, dass Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz “erzwingen” wird.

Wir haben nichts zu verlieren als unser inneres Maschine-Sein. Wir haben eine neue, humane Welt zu gewinnen (Horx, 2020). Ethische Kompetenz? Ja! Ambiguität meistern? Ja! Kritisch und reflexiv sein? Ja! Es ist das Zusammenspiel verschiedener Future Skills, das die Zukunft des Bildungssystems bestimmt. Wenn wir KI ernst nehmen. Und damit erzwingt Künstliche Intelligenz einen Aufstieg menschlicher Intelligenz und Empathie. Indem die KI uns verbesserte Prognosen liefert, fordert sie uns gleichzeitig heraus, unsere Zukunftsfähigkeit zu verbessern. Künstliche Intelligenz kann nur wahrhaft intelligent sein, wenn sie durch humane Ziele gestaltet und mit menschlicher Bedeutung imprägniert ist. Was produziert werden soll, welche Mobilitäts- und Kommunikationsformen für die Zukunft sinnvoll sind, das hängt immer von den Kontexten menschlicher Erfahrungen ab. Diese Ziele liegen jenseits maschineller Logik. Sie sind Hervorbringungen der menschlichen Kultur, Ausdrucksformen der Empathie und des Bewusstseins” (Ehlers 2023).

Künstliche Intelligenz – ein Kategorienfehler?

Der Begriff Künstliche Intelligenz ist in aller Munde. Es geht dabei allerdings hauptsächlich um die verschiedenen Tools wie ChatGPT, Bard, usw. Es wir suggeriert, dass diese Art der datenbasierten Problemlösung Intelligenz darstellet, eben Künstliche Intelligenz. Dazu gibt es allerdings den Einwand, dass es sich hierbei um einen Kategorienfehler handeln könnte, bzw. handelt. Dazu habe ich folgenden aktuellen Text gefunden:

“Maschinen können helfen, schneller Datenoperationen auszuführen – aber helfen sie auch, bessere Entscheidungen zu treffen? Maschinen helfen logischer zu folgern – aber helfen sie auch, skeptisch zu zweifeln? Maschinen können Daten vereinen aber können sie auch Widerstand organisieren? Maschinen können Informationen aufbereiten aber können sie auch Unbestimmtheit zulassen? Im Begriff der Künstlichen Intelligenz liegt das, was Niklas Luhmann einen Kategorienfehler nannte. Ein Kategorienfehler ist es, wenn eine Bäckerin versucht belegte Brötchen zu backen oder ein Bauer, Bratkartoffeln zu pflanzen. Im Wortspiel Künstliche Intelligenz werden zwei fundamental verschiedene Kategorien verwechselt: das Lösen strategischer (und formalisierbarer) Probleme, das in der KI als Intelligenz interpretiert wird einerseits und das Bewusstsein, das in der Fähigkeit besteht, auf die Komplexität der Welt durch Kreativität und Gefühl zu antworten andererseits. Kann KI letzteres? Nein, denn dazu müssen soziale, emotionale und Künstliche Intelligenz zusammenwirken” (Ehlers 2023, in Schmohl 2023).

Interessant dabei ist, dass nicht nur Nikas Luhmann herangezogen werden kann, sondern auch Howard Gardner in seiner Theorie der Mulftiplen Intelligenz darauf verweist, dass es sich bei Künstlicher Intelligenz um einen Kategorienfehler handelt. Ob Howard Gardner sich direkt dabei auf Luhmann bezieht, kann ich nicht sagen. Siehe dazu Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

Informationen zu unseren Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

In verschiedenen Blogbeiträgen habe ich immer wieder etwas zum Thema “Intelligenz” geschrieben. In Reden wir über Dummheit habe ich beispielsweise die Dichotomie “Intelligenz – Dummheit” kritisiert. Darüber hinaus kommt es mir bei der Diskussion um Künstliche Intelligenz so vor, als ob wir über intelligente technische Systeme sprechen, und dabei gleichzeitig von dummen Menschen ausgehen. Das führt zu der Frage, ob hinter der Künstlichen Intelligenz eine “echte Intelligenz” steckt. Dazu habe ich folgendes gefunden:

Lukowicz: KI ist nichts anderes als eine Menge von mathematischen Methoden und Algorithmen, bei denen man herausgefunden hat, dass sie in der Lage sind, Dinge zu tun, bei denen wir bisher gedacht haben, sie seien nur Menschen vorbehalten. Vor 20 Jahren hat eine KI zum Beispiel zum ersten Mal gegen einen menschlichen Großmeister im Schach gewonnen. KI kann aber auch komplexe Bilder oder Musikstücke erzeugen. Es ist wichtig zu verstehen, dass – egal wie erstaunlich das ist – dahinter keine echte Intelligenz steht. Zumindest nicht in dem Sinne, wie wir vielleicht Intelligenz verstehen. Es sind sehr genau definierte, aber eben oft recht einfache mathematische Verfahren, die auf große Datenmengen angewendet werden” (Quelle: Tagesschau vom 14.06.2023).

Das sagt in dem Interview immerhin Paul Lukowicz, Wissenschaftlicher Direktor und Leiter des Forschungsbereichs Eingebettete Intelligenz am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) und Lehrstuhlinhaber im Fachbereich Informatik der Technischen Universität Kaiserslautern. Führt die Adaption des Intelligenzbegriffs hier in die Irre? Ist es möglicherweise – wie Howard Gardner es formuliert – ein Kategorienfehler? Howard Gardner argumentiert in seiner Theorie der Multiplen Intelligenzen, dass Intelligenz ein biopsychologischges Potential darstellt.

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen (Gardner 2002:46-47).

Für Gardner ist Intelligenz ein „biopsychologisches Potenzial”, wodurch sich dieses Intelligenzverständnis von Maschinen-Intelligenz oder künstlicher Intelligenz unterscheidet.

Demnächst werden wir auch Online-Formate zu ChatGPT im Projektmanagement und zur Theorie der Multiplen Intelligenzen anbieten.

Wesentliche Eigenschaften eines Growth Mindset

Image by Heather Kemp from Pixabay

Über den Begriff des “Mindset” habe ich schon viele Beiträge geschrieben. Siehe dazu beispielhaft Mindset: Ein oft verwendeter Begriff etwas genauer betrachtet und Agile Onion: Von Tools zu Mindset.

Darüber hinaus geht es auch immer wieder um die Frage, ob das Mindset veränderbar, oder eher fix ist. In meinen Anmerkungen zu Growth Mindset, Intelligenz und Kompetenz erläutere ich die verschiedenen Zusammenhänge. Zentral bei einem Growth Mindset ist die Annahme eines dynamischen Selbstbildes. Die folgende Tabelle stellt die dazugehörenden Charakteristika übersichtlich dar.

CharakteristikaGrowth Mindset
Herkunft der menschlichen EigenschaftenGrundeigenschaften lassen sich durch eigene Anstrengungen weiterentwickeln; Einsatz und Erfahrung ermöglichen Veränderung und Entwicklung
SelbstwahrnehmungErkennen von eigenen Stärken und Schwächen
LernorientierungGelernt wird, um zu verstehen; Selbstmotivation hat eine hohe Bedeutung
KreativitätAusdauer und Zähigkeit ermöglichen Kreativität
Umgang mit FehlernFehler werden als Lernquellen betrachtet
Bezug zu LeistungLeistung erfordert Konzentration, den Einsatz aller Kräfte und zahlreiche Strategien und Verbündete
UnternehmenskulturWeiterentwickeln; Lernerfahrungen schaffen; Mitarbeiter fördern; Selbstkritik; offene Kommunikation; abweichende Meinungen sind willkommen
Richter, C. (2023): Die Zukunft des Projektmanagements: Projekt-Leadership zwischen Rule Makers und Rule Breakers, in: projektmanagementaktuell 2/2023.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Künstliche Intelligenz und Menschliche Intelligenz

Aktuell reden und schreiben viele zur Künstlichen Intelligenz, die sich praktisch umgesetzt in vielen Anwendungen, wie z.B. ChatGPT von OpenAI, zeigt. Haben wir “Intelligente IT-Systeme” und dumme Menschen? Wenn es um menschliche Intelligenz geht, kommt oft der vor mehr als 100 Jahren entwickelte Intelligenztest ins Spiel, mit dem dann zukünftige Möglichkeiten und Dispositionen vorhergesagt werden. Die folgende Passage beschreibt die Zusammenhänge etwas ausführlicher.

“Eine erste Entwicklungslinie soll hier aus heuristischen Gründen auf das Ende des 19. und Anfang des 20. Jahrhundert datiert werden. Ausgangspunkt ist die kausalmechanische Logik einer behavioristischen Entwicklungspsychologie, die den Körper wesentlich als Reiz-Reaktions-Maschine betrachtet. In dieser Logik entwickelte der französische Psychologe Alfred Binet 1905 gemeinsam mit dem Arzt Théodore Simon einen ersten sogenannten ´Intelligenztest´ (Liungman, 1976). Das mit der Psychometrie etablierte sehr lineare, planmäßig geregelte Mess- und Testregime verweist auf einige zentrale Merkmale von Vermessungs- respektive Prüfungspraktiken. Grundlegend zielt die Prüfung darauf ab, von der Summe einzelner aktueller Leistungsergebnisse eines Individuums auf die zukünftigen Möglichkeiten und Dispositionen bzw. auf die zukünftig erwartbare Leistungsfähigkeit schließen zu können. Aber der Psychometrie gilt nicht nur eine aktuelle Leistung als repräsentativ für ein Leistungsvermögen, sondern sie stellt durch ihre Orientierung am Modell der Normalverteilung zugleich die Kontrolle sozialer Relationen sicher: Die Intelligenzleistungen, die dem Einzelnen als Leistungen zugeschrieben werden, werden im Verhältnis zum Durchschnitt der Leistungen anderer angegeben und damit vergleichbar gemacht. Auf Basis derartiger Aussagen über ´Begabung´ und ´Intelligenz´ lassen sich institutionelle Selektionsprozesse und soziale Hierarchisierungen legitimieren (Bourdieu, 1993; Gould, 1988)” (Vater, S. (2023:255248).): Validierung und Neoliberalismus – selbstverantwortete Beschäftigungsfähigkeit als Lernergebnis, in: Schmid, M. (Hrsg.) (2023): Handbuch Validierung non-formal und informell erworbener Kompetenzen, S. 235-248).

Intelligenztests werden für berufliche/gesellschaftliche Selektionsprozesse genutzt, dabei haben diese ihren Ursprung in einer behavioristischen Logik und sollen Auskunft über zukünftige Dispositionen geben. Dieser Determinismus stößt auf Kritik. Siehe dazu auch Ursache – Wirkung: Die Intellektualistische Legende. Es wird immer wieder vorgeschlagen, das Konstrukt “Intelligenz” auszudifferenzieren. Folgender Text soll das beispielhaft aufzeigen:

“Inhaltlich hat sich das Intelligenzkonzept in den letzten 100 Jahren ausdifferenziert (vgl. Funke u. Vatterodt-Plünnecke 2004): An der Stelle einer einzigen Intelligenzdimension (´general intelligence´, g-Faktor) ist heute die Konzeption multipler Intelligenzen im Sinne unterschiedlicher Teilkompetenzen (z.B. logisches Schlussfolgern, verbale Intelligenz, kreatives Problemlösen, emotionale Kompetenz, Körperbeherrschung) getreten, für die jeweils andere Erfassungsinstrumente benötigt werden” (Funke 2006).

Gerade in Zeiten von Künstlicher Intelligenz ist es wichtig, auch über die Menschliche Intelligenz zu sprechen. Daraus ergibt sich die Frage, wie passen Künstliche Intelligenz und Menschliche Intelligenz zusammen? Interpretieren wir die von Funke angesprochene Ausdifferenzierung des Intelligenzkonzepts, so führt das meines Erachtens direkt zur Reflexiven Modernisierung und der dort thematisierten Entgrenzung. Möglicherweise hat Gardner´s Theorie der Multiplen Intelligenzen eine bessere Passung zu den aktuellen Entwicklungen. Siehe dazu auch Hybrid Intelligence: Menschliche und Künstliche Intelligenz.

Siehe dazu auch Freund, R. (2011): Das Konzept der Multiplen Kompetenz auf den Analyseebenen Individuum, Gruppe, Organisation und Netzwerk.

Übernimmt die Künstliche Intelligenz jetzt alles?

Die schon vor Jahrzehnten thematisierte “Künstliche Intelligenz” basiert auf der Annahme “that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it” (McCarthy et al., 1955:2). Die aktuellen Entwicklungen von ChatGPT 3.5 oder ChatGPT 4 (um nur Beispiele zu nennen) scheinen McCarthy zu bestätigen . Es hat den Anschein, als ob die Künstliche Intelligenz alle Lebensbereiche verändert, erweitert oder sogar ganz übernimmt (z.B. bestimmte Arbeitsbereiche). Doch ist das wirklich so? Dazu habe ich folgenden Text gefunden:

KI als neue Weltlenkerin? Nein! Zumindest für absehbare Zeit ist ein solches Horrorszenario nicht zu befürchten. Zwar werden die Änderungen im Alltagsleben durch KI stärker als bisher erkennbar – aber trotzdem: Bei KI-Systemen handelt es sich bei weitem nicht um eine dem Menschen vergleichbare Intelligenz, sondern eher um sehr spezifische Nischenfähigkeiten, die bei eng definierten Aufgaben überlegen sind, aber außerhalb ihres Daseinszwecks oft bei den einfachsten Tätigkeiten scheitern. Sie können viel, haben aber klare Limitationen. Während Alpha Zero, eine Schach-KI, zwar den Schachweltmeister besiegen kann, fehlt Computern eigener Antrieb, Willensfreiheit, Bewusstsein, Fähigkeit zur Selbstreflexion und Verständnis unserer Welt. Sinn, Verstehen und Verantwortung sind Konzepte, die für KI schon kategorial unpassend sind. KI kann damit auch weder böswillige noch heimtückische Intentionen verfolgen und auch keine Verantwortung für ihr Tun übernehmen – verantwortlich ist und bleibt der Mensch” (Ehlers, U.-D. (2023:271-272): Wie wollen wir leben?, in Schmohl et al. (Hrsg.) (2023): Künstliche Intelligenz in der Hochschulbildung, S. 271-278.

Den Hinweis auf einen Kategorienfehler hat auch Howard Gardner in seiner Betrachtung von menschlicher Intelligenz thematisiert, und damit die menschliche Intelligenz von den Möglichkeiten einer Künstlichen Intelligenz unterschiedenen. Siehe dazu auch