Künstliche Intelligenz: Verstärkt Personalisierung Schmeicheleien? Ergebnisse einer Studie

Image by Sergei Tokmakov, Esq. https://Terms.Law from Pixabay

Immer mehr Menschen nutzen Künstliche Intelligenz, um gesundheitliche oder psychologische Themen zu analysieren. Der Ratgeber ist dann also nicht der Arzt oder der Psychologe, sondern ChatGPT oder andere bekannte KI-Modelle.

Bei der Kommunikation Mensch – KI dringt die KI immer tiefer in das Profil des Menschen ein. Die Profile werden dann auch dazu genutzt, dem Nutzer zu schmeicheln.

Schmeicheln bedeutet „jemandem übertrieben und nicht ganz aufrichtig Angenehmes sagen, um dessen Gunst zu gewinnen“ (Quelle).

In einer Studie (Jain et al. 2026) wurden zwei Schmeicheleien unterschieden:
(1) Zustimmungsschmeichelei (agreement sycophancy) – die Tendenz von Modellen, übermäßig positive Reaktionen hervorzurufen, und
(2) Perspektivenschmeichelei (perspective sycophancy) – das Ausmaß, in dem Modelle die Sichtweise eines Nutzers widerspiegeln.

Es stellte sich daher die Frage: Verstärkt Personalisierung das Ausmaß der Schmeicheleien?

„Our results raise the question of whether some personalization approaches may amplify sycophancy. Prior work often attributes sycophancy to preference alignment, since users prefer responses that are affirmative or aligned with their perspective. Yet in aligned models, we find that user memory profiles are associated with further increases in agreement sycophancy, and that contexts providing more information about the user drive perspective sycophancy“
Source: Jain et al. (2026): Interaction Context Often Increases Sycophancy in LLM | PDF

Es wurde also in der Studie klar, dass Nutzerprofile eher Zustimmungsschmeicheleien, und Kontextinformationen eher Perspektivenschmeichelei verstärken. Egal welches Element man also betrachtet, Schmeicheleien verstärken sich wohl mit der Zeit.

Bei diesen Entwicklungen stehen wir noch am Anfang, doch deutet sich schon jetzt ein entsprechender Klärungsbedarf an: Wie können Personalisierung und Schmeicheleien ausbalanciert werden? Siehe dazu auch

Mit Künstlicher Intelligenz und Online-Daten von Verbrauchern können (auch eigene) Produkte direkt entwickelt werden

Aufmerksamkeit: The global attention deficit disorder

Loyal Agents – it all starts with trust

Website: https://loyalagents.org/

KI-Agenten sind aktuell in aller Munde. Gerade in Software-Unternehmen wurde schon früh damit angefangen, Agenten zu nutzen: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen.

Im Außenverhältnis, z.B. mit Kunden , wird es schon schwieriger, KI-Agenten einzusetzen, da hier weitergehende Herausforderungen zu bewältigen sind. Es wundert daher nicht, dass es an dieser Stelle Forschungsbedarf gibt.

In dem Projekt Loyal Agents arbeiten dazu beispielsweise das Stanford Digital Economy Lab und Consumer Report zusammen. Worum es ihnen geht, haben sie auf der Website Loyal Agents so formuliert:

„Agentic AI is transforming commerce and services; agents are negotiating, transacting and making decisions with growing autonomy and impact. While agents can amplify consumer power, there is also risk of privacy breaches, misaligned incentives, and manipulative business practices. Trust and security are essential for consumers and businesses alike“ (ebd.).

Dass Vertrauen und Sicherheit eine besonders wichtige Bedeutung in den Prozessen mit der Beteiligung von KI-Agenten haben, wird hier noch einmal deutlich – It all starts with Trust. Ähnliche Argumente kommen von Bornet, der sich für Personalized AI Twins ausspricht:

Personal AI Twins represent a profound shift from generic to deeply personalized agents. Unlike today´s systems that may maintain the memory of past interactions but remain fundamentally the same for all users, true AI twins will deeply internalize an individual´s thinking patterns, values, communication style, and domain expertise“ (Bornet et al. 2025).

Möglicherweise können einzelne Personen in Zukunft mit Hilfe von Personalized AI Twins oder Loyal Agents ihre eigenen Ideen besser selbst entwickeln, oder sogar als Innovationen in den Markt bringen. Dabei empfiehlt sich aus meiner Sicht die Nutzung von Open Source AI – ganz im Sinne einer Digitalen Souveränität und im Sinne von Open User Innovation nach Eric von Hippel. Siehe dazu auch

Eric von Hippel (2017): Free Innovation

Von Democratizing Innovation zu Free Innovation

ResearchGate: 19.803 reads – thanks to my colleagues and co-authors

Eigene Darstellung

Meine Veröffentlichungen sind zum größten Teil auch auf ResearchGate zu finden. Darunter sind eigene Paper/Chapter und auch gemeinsame Veröffentlichungen mit Kollegen.

Thanks to my colleagues and co-authors!

Im Vergleich zum Januar 2023 haben sich die „reads“ bis zum Januar 2025 auf 19.803 erhöht – ein sattes Plus von 4.777.

20.01.2023: 15.026 reads

02.01.2026: 19.803 reads

Künstliche Intelligenz: Die neue Olmo3 Modell-Familie

https://allenai.org/

Auf die Olmo Modell Familie hatte ich diesen Blogbeitrag schon einmal hingewiesen: Mit der Olmo2 Modell-Familie offene Forschung an Sprachmodellen vorantreiben. Es handelt sich dabei um Modelle, die vom Ai2 Institut entwickelt und veröffentlicht werden. Ziel des Instituts ist es, neben der Offenheit der Modelle auch einen Beitrag zur Lösung der gesellschaftlichen Herausforderungen zu leisten. Im November 2025 ist die Olmo3 Modell-Familie veröffentlicht worden:

Olmo 3-Think (7B, 32B)–our flagship open reasoning models for advanced experiments, surfacing intermediate thinking steps.

Olmo 3-Instruct (7B)–tuned for multi-turn chat, tool use, and function/API calling.

Olmo 3-Base (7B, 32B)–strong at code, reading comprehension, and math; our best fully open base models and a versatile foundation for fine-tuning.

Die Modelle sind bei Huggingface frei verfügbar und können in einem Playground getestet werden.

Künstliche Intelligenz: Warum sollten Forscher besser offene Large Language Models (LLM) nutzen?

Usage of large language models (LLMs) in behavioral and social sciences research (Wulff/Hussain/Mata 2024). Die Hervorhebung in Rot ist von mir (Robert Freund) ergänzt worden.

Natürlich verwenden immer mehr Wissenschaftler Künstlichen Intelligenz in ihrer Arbeit. Wie die Grafik zeigt, wird ChatGPT beispielsweise in den Verhaltens- und Sozialwissenschaften sehr stark genutzt. ChatGPT ist allerdings von OpenAI, dessen Large Language Model (LLM) als eher geschlossenes System (Closed LLM) bezeichnet werden kann, da das zugrundeliegende Datenmodell nicht transparent ist. Andere LLM – wie z.B. LLama – sind eher offen LLM (Open LLM), die gerade für Forschung und Wissenschaft geeigneter erscheinen.

In dem aktuellen Paper Wulff/Hussain/Mata (2024): The Behavioral and Social Sciences Need Open LLMs (PDF) argumentieren die Autoren dazu wie folgt:

Academic research should prefer open LLMs because they offer several practical and ethical advantages that are essential for scientific progress.

First, open models provide the transparency necessary for thorough scrutiny, allowing researchers to understand better the tools they are using and ensuring accountability.

Second, this transparency, combined with the adaptability of open models, facilitates innovation by enabling researchers to customize models to meet specific needs and explore new applications (Wulff & Mata, 2024).

Third, open LLMs support reproducibility, a cornerstone of scientific research, by allowing other researchers to replicate and build upon existing work.

Finally, the ethical implications of AI usage are better managed with open models, as they enable greater scrutiny of AI decisions, arguably reduce the risks of deploying biased or unethical systems, and avoid giving away data to further train closed, proprietary models.“

Ich frage mich an dieser Stelle, ob solche Hinweise nicht auch für die Nutzung von Künstlicher Intelligenz in Unternehmen gelten sollten.

Siehe dazu auch Künstliche Intelligenz: Vorteile von Open-Source-Modellen

ResearchGate: Your article reached 1.500 reads

In ResearchGate sind alle meine Paper aufgeführt, die ich alleine – bzw. zusammen mit anderen Kollegen – veröffentlicht habe. In dem folgenden Paper, das auf ResearchGate einen Meilenstein erreichte, bin ich als einer der Co-Autoren aufgeführt, An dieser Stelle möchte ich mich bei allen Kollegen bedanken, mit denen ich in der Vergangenheit Artikel/Konferenzpaper veröffentlicht habe. Es ist immer eine besondere Herausforderung, gemeinsam ein Paper zu schreiben.

Covic, Z.; Fürstner, I., Anisic, Z., Freund, R. (2009): Web Based Intelligent Product Configurator for Thermal Insulation and Decoration of Buildings. Proceedings of 7th International Symposium on Intelligent Systems and Informatics,

Siehe dazu auch Veröffentlichungen oder Konferenzen.