Künstliche Intelligenz, Wissen und kritisches Denken

Der Wissensbegriff hat sich in den letzten Jahrzehnten verändert, und damit auch erweitert. Arnold hat beispielsweise von einem neuen Wissensbegriff gesprochen und plädiert für eine Art von Wissenskompetenz.

Mit den Möglichkeiten der Künstlichen Intelligenz wird der Umgang mit Wissen noch dynamischer – vormals eher personales Wissen wird immer mehr zu einem öffentlichen Wissen. Dabei ist bemerkenswert, dass die Menschen den Ergebnissen der KI-Modellen durchaus vertrauen, obwohl diese nachweislich fehlerhaft sind. Siehe dazu Künstliche Intelligenz: Halluzinationen und der Bullshit-Faktor – eine Art Künstliche Dummheit? Dieses sehr unkritische Verhalten führt zu einer Entwertung des personalen Wissens

“Menschen ziehen sich infolge von KI zunehmend aus der Generierung personalen Wissens zurück und begnügen sich mit der Überwachung und Validierung KI-generierten öffentlichen Wissens. Der Einsatz von KI und ein übermäßiges Vertrauen in die Qualität KI generierter Inhalte reduzieren zudem die Bereitschaft zum kritischen Denken. Mit wachsendem Vertrauen in KI verschlechtert sich kritisches Denken, während Zuversicht in Bezug auf die eigene Expertise kritisches Denken stärkt” (Reinmann, Preprint. Erscheint in: Dittler, U. & Kreidl, C. (in Druck). Fragen an die Hochschuldidaktik der Zukunft. Schäffer-Poeschel).

Die stärkere Nutzung der KI-Möglichkeiten führt also letztendlich zur Reduzierung des kritischen Denkens, wobei das Vertrauen in die eigene Expertise eher das kritische Denken fördert.

Wir sollten daher nicht “blind” den Verheißungen der Tech-Industrie hinterherrennen, sondern auf Basis unserer eigenen Expertise durchaus kritisch mit den Ergebnissen der KI umgehen. Siehe dazu beispielsweise Kritisches Denken genauer betrachtet. Darin werden u.a. die affirmative (bestätigende) Wissenskonstruktion und das kritische Denken gegenübergestellt.

Künstliche Intelligenz: Halluzinationen und der Bullshit-Faktor – eine Art Künstliche Dummheit?

Wenn es um Menschliche Intelligenz geht, sprechen wir auch oft über die scheinbare Menschliche Dummheit. In meinen Blogbeiträgen Reden wir über Dummheit und Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen? bin ich auf das Thema eingegangen. Weiterhin finden sich in der Rezension Ina Rösing: Intelligenz und Dummheit weitere interessante Anmerkungen.

Im Zusammenhang mit Künstlicher Intelligenz könnte man natürlich auch über eine Art Künstliche Dummheit nachdenken. Wie schon länger bekannt, stellen beispielsweise Halluzinationen und falsche Antworten ein nicht zu vernachlässigendes Phänomen dar. Darüber hinaus gibt es allerdings auch noch eine Art Bullshit-Faktor. Es geht dabei um die Missachtung der Wahrheit in großen Sprachmodellen. Genau diesen Aspekt haben sich verschiedene Forscher der Princeton University einmal genauer angesehen und ein interessantes Paper dazu veröffentlicht:

Liang et al. (2025): Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models | PDF

Es stellt sich hier natürlich die Frage, wie sich Halluzination und der genannte Bullshit-Faktor unterscheiden. Dazu habe ich folgendes gefunden:

“Daher gebe es auch einen entscheidenden Unterschied zwischen Halluzinationen und dem, was er als „Bullshit“ bezeichnet – und der liegt in der internen Überzeugung des Systems. Wenn ein Sprachmodell halluziniert, ist es nicht mehr in der Lage, korrekte Antworten zu erzeugen. „Beim Bullshit hingegen ist das Problem nicht Verwirrung über die Wahrheit, sondern eine fehlende Verpflichtung, die Wahrheit zu berichten” (t3n vom 21.08.2025).

Interessant finde ich, dass die Forscher wohl auch eine erste Möglichkeit gefunden haben, um diesen Bullshit-Faktor zu überprüfen. Gut wäre es natürlich, wenn die Ergebnisse dann allen zur Verfügung stehen würden. Gespannt bin ich besonders darauf, wie Open Source AI Modelle abschneiden.