OECD Report (2026) – Bei der Reproduzierbarkeit erfüllen GenAI Modelle nicht die wissenschaftlichen Kriterien

AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.

Es ist nur natürlich, dass jeder Einzelne, Organisationen und Öffentliche Verwaltungen ausprobieren, was mit Künstlicher Intelligenz (GenAI) möglich ist. Im wissenschaftlichen Umfeld wundere ich mich allerdings immer wieder darüber, wie unkritisch GenAI eingesetzt wird, wodurch die Kriterien wissenschaftlicher Arbeit konterkariert werden. Warum ist das so? Eine ausführlich Begründung habe ich im aktuellen OECD Report gefunden. Dabei geht es hier speziell um die Reproduzierbarkeit als Säule wissenschaftlichen Arbeitens geht.

Reproducibility is a pillar of scientific operations. To be accepted by the scientific community, results must (usually) be verifiable, and reproducible by others. One condition for reproducibility is full disclosure of the methods and data that led to the conclusion, meaning transparency and accessibility. From this perspective, GenAI models do not meet scientific criteria. First, the most popular models of GenAI are “black boxes”, as neither their weights (the parameters that define a neural network) nor their training data are publicised. Thus, disentangling the contribution of the data and the contribution of various components of the model is difficult in any scientific result coming from such a model. This comes from the very nature of neural networks: knowledge is distributed, hence difficult to localise. As GenAI models have a random component at their core, some results might not be robust. In addition, access to the training data can be limited due to the proprietary nature of many GenAI models: one example is the “AI Structural Biology Consortium”, a follow-up to AlphaFold-3, an ongoing project which makes use of data owned by pharmaceutical companies, which is secret and will remain secret (Callaway, 2025). Currently, solutions for access include open weights (e.g. Llama) and open source (including access to training data). The importance of openness was demonstrated by AlphaFold2, as the disclosure of its code and data triggered a series of initiatives refining the tool (Saplakoglu, 2024). Openness is essential to the cumulative progress at the core of science“ (OECD Digital Education Report 2026).

Am Beispiel von Pharmaunternehmen wird deutlich, dass es gerade in sensiblen Branchen wichtig ist, offene KI-Modelle zu nutzen. Offenheit ist: „Offenheit ist für den kumulativen Fortschritt im Kern der Wissenschaft unerlässlich“ (ebd.). Siehe dazu auch

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

In Zeiten des Hypes um Künstliche Intelligenz kann Akademische Integrität nicht schaden

Everyone is a genius …

Image by StockSnap from Pixabay

In der aktuellen Diskussion um Künstliche Intelligenz kann man das Gefühl bekommen, dass KI-Modelle alles besser machen, als es der Mensch kann. Als Mensch fühlt man sich vergleichsweise dumm.

Auf der einen Seite also die „überlegene“ Künstliche Intelligenz und auf der anderen Seite die menschliche Dummheit.

In der Zwischenzeit gibt es natürlich auch Belege dafür, dass KI-Modelle die für Menschen ausgedachten Intelligenz-Tests zur Bestimmung des Intelligenz-Quotienten meistern. Doch sollten wir solche Vergleiche überhaupt ziehen? Sind sie eher eine Art Kategorienfehler?

Everyone is a genius, but if you judge a fish on its ability to climb a tree, it will live his whole life believing it is stupid – Albert Einstein.

Was ist, wenn wir die menschliche Intelligenz in den Mittelpunkt stellen und künstliche Intelligenz dazu verwenden, die Probleme der Menschen zu lösen?

Der Intelligenz-Quotient (IQ) scheint kein geeignetes Instrument zu sein, menschliche Intelligenz darzustellen. Siehe dazu OpenAI Model „o1“ hat einen IQ von 120 – ein Kategorienfehler?

Möglicherweise ist die Definition von Intelligenz nach Howard Gardner treffender:

„Ich verstehe eine Intelligenz als biopsychologisches Potenzial zur Verarbeitung von Informationen, das in einem kulturellen Umfeld aktiviert werden kann, um Probleme zu lösen oder geistige oder materielle Güter zu schaffen, die in einer Kultur hohe Wertschätzung genießen“ (Gardner 2002:46-47).

Wenn wir die Perspektive auf Menschliche Intelligenz und Künstliche Intelligenz anpassen, kann die technologische Entwicklung zum Vorteil ganzer Gesellschaften sein. Das Beispiel Society 5.0 zeigt, wie das aussehen kann. Siehe dazu auch

Künstliche Cleverness statt Künstliche Intelligenz?

Künstliche Intelligenz – Menschliche Kompetenzen: Anmerkungen zu möglichen Kategorienfehler

Künstliche Intelligenz – Ein Kategorienfehler nach Luhmann

Warum es nicht angemessen erscheint, Künstliche Intelligenz und Menschliche Intelligenz zu verwechseln

In Zeiten des Hypes um Künstliche Intelligenz kann Akademische Integrität nicht schaden

Image by StartupStockPhotos from Pixabay

Wenn man sich die vielen Meldungen in den Medien ansieht, kann man zu dem Schluss kommen, dass es (fast) allen um Aufmerksamkeit, und damit auch um Beeinflussung geht. Dahinter können wirtschaftliche, politische oder soziale Interessen stecken. Viele gehen dabei sehr subtil vor, indem sie Daten nicht genau wiedergeben, oder bewusst aus dem Zusammenhang nehmen.

Oft fehlt bei den Angaben auch die genaue Quelle. Es wird von einer diffusen Studie gesprochen oder geschrieben, doch wird die Quelle nicht genannt. Weiterhin steht bei Zeitungsartikel oft der Hinweis, dass der Beitrag auf Basis von Inhalten anderer Medien geschrieben wurde – diese werden allerdings im Text – wenn überhaupt – nicht deutlich kenntlich gemacht.

Die wenigen Beispiele zeigen schon auf, dass eine mehr wissenschaftlich basierte Arbeit wünschenswert wäre. Die Prinzipien einer solchen Arbeit würden helfen, zwischen eigener Meinung und Quelle zu unterscheiden, um sich ein eigenes Bild machen zu können. Damit kommen wir zur Akademischen Integrität, die es ermöglichen soll, dass wissenschaftlich korrekt und damit transparent gearbeitet und veröffentlicht wird. Gerade in Zeiten von Künstlicher Intelligenz muss das ganz besonders beachtet werden.

Was ist unter Akademischer Integrität zu verstehen?

Dazu habe ich eine Definition der International Centre for Academic Integrity [ICAI] gefunden, die eher im amerikanischen Umfeld genutzt wird. In Europa beziehen sich akademische Institutionen eher auf die Definition der ENAI:

The definition from the European Network for Academic Integrity [ENAI] (2022) is less philosophical than ICAI’s. ENAI states that academic integrity is: Compliance with ethical and professional principles, standards, practices and consistent system of values, that serves as guidance for making decisions and taking actions in education, research and scholarship.“ (Gallant, T. B. ; Davis, M. Khan, Z. R. (2026): ACADEMIC INTEGRITY IN THE AGE OF AI. DOI 10.1017/9781009672078).

Wenn wir unterstellen, dass akademische Integrität bedeutet, selbst verantwortlich, transparent und ethisch zu arbeiten wird klar, dass sich diese Vorgehensweise dann auch auf die Gesellschaft auswirkt.

Es wird Zeit, dass alle Akteure in einer von Künstlicher Intelligenz getriebenen Welt, akademische Prinzipien berücksichtigen. In Europa haben wir erste Ansätze dazu, die oftmals platt mit Regulierung gleichgesetzt werden. In den USA oder China erodieren diese Grundlagen eher. Es ist daher gut, dass wir in Europa einen eigenen Weg gehen, bei dem die Gesellschaft im Mittelpunkt steht.

Sogar in unseren Blogbeiträgen haben wir von Anfang an darauf geachtet, zwischen Originaltexten mit Quellenangaben, und unserer eigenen Meinung zu unterscheiden. Dass ich die Prinzipien bei meiner Dissertation und bei meinen verschiedenen wissenschaftlichen Paper einhalte, versteht sich von selbst. Aktuell beispielsweise für die beiden Paper, die ich für die MCP 2026, 16.-19.09.2026, in Balatonfüred, Ungarn vorbereite.

Kurzlehrbuch: Künstlicher Intelligenz für den Mittelstand

In mehreren Blogbeiträge habe ich verschiedene Aspekte aus einem Kurzlehrbuch thematisiert, das als Download zur Verfügung steht: Es freut mich besonders, dass darin herausgestellt wird, dass Open Source AI gerade für Kleine und Mittlere Unternehmen (KMU) geeignet ist, Digitale Souveränität im Unternehmen zu erzielen. Am Ende des Kurzlehrbuchs fassen die Autoren die fünf wichtigsten Punkte noch einmal zusammen:

Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen | PDF.

(1) Die Arbeitswelt verändert sich – wir müssen uns mit verändern.

(2) Generative KI kann schon bei kleinen Aufgaben große Wirkung entfalten.

(3) Die Entscheidung für KI ist individuell – ebenso die Wahl der passenden Anwendung.

(4) KI-Nutzung erfordert rechtliche Orientierung – insbesondere im Hinblick auf den EU AI Act.

(5) Menschen müssen Teil der Lösung sein – sowohl bei KI als auch bei Cybersicherheit

Mit ´Transformation von Deutungsmuster´ Widerstände gegen Innovationen überwinden

Bedenken und Einwände gegen Produktinnovationen (Kerka/Kriegesmann 2007)

In der Abbildung sind beispielhaft Bedenken und Einwände zu sehen, die so – oder so ähnlich – zu hören sind, wenn Produktinnovationen angestoßen werden. Ich bin sicher, Sie haben solche Äußerungen auch schon oft gehört, sogar schon bei den ersten Ideen.

„Eine neue Idee ist zerbrechlich. Sie kann durch höhnisches Lächeln oder Gähnen getötet werden. Sie kann durch einen Witz erdolcht oder durch Stirnrunzeln bei der falschen Person vor lauter Sorgen in den Tod getrieben werden“ Charles Brower, Ex-CEO von BBDO.

Es scheint normal zu sein, neue Ideen und Innovationen erst einmal abzulehnen. Dieses Verhalten kann ganz gut mit dem relativ stabilen Deutungsmuster von Erwachsenen erklärt werden, das transformiert werden muss. Solche Prozesse findet man als Kernelement in der Erwachsenenbildung, wo Lernen als Transformation von Deutungsmustern verstanden wird.

Deutunslernen: Transformation von subjektiven Deutungen und Konstrukten durch die Initiierung von selbstorganisierten Suchbewegungen und eigenständigen Aneignungsprozessen der Erwachsenen – vgl. dazu Arnold, R. (1995): Deutungslernen in der Erwachsenenbildung. Grundlinien und Illustrationen zu einem konstruktivistischen Lernbegriff, in Zeitschrift für Pädagogik 42 (1996) 5, S. 719-730 | PDF.

Neben den bekannten Ansätzen, mit Widerständen im Innovationsprozess umzugehen (z.B. mit dem Promotorenmodell von Witte), ist die Perspektive der Erwachsenenbildung im Innovationsprozess für viele neu, und wird damit selbst zu einem innovativen Ansatz.

Siehe dazu auch Digitale und ökologische Transformation bedeutet auch eine Transformation von Deutungsmustern.

Innovatives Denken mit Künstlicher Intelligenz unterstützen

Legende
(CEN TS 16555-2014):

1 Sammeln von Informationen
2 Erzeugen von Lösungen
3 Rasches Lernen
4 Bewertung
5 Synthese und Outputs
6 Ergebnisse

Unternehmen setzen für ihren Innovationsprozess Künstliche Intelligenz ein. Auf der individuellen Ebene ist das natürlich auch möglich. Beispielsweise kann Künstliche Intelligenz das eigene innovative Denken unterstützen. Die Abbildung zeigt dazu die insgesamt sechs Schritte – vom Sammeln von Informationen (1) bis zu den Ergebnissen (6).

In jedem einzelnen Schritt sollten Sie überlegen, ob Sie nur ein KI-Modell verwenden wollen, oder ob es nicht besser ist, spezielle KI-Modelle zu nutzen. Siehe dazu auch KI-Modelle: Von „One Size Fits All“ über Variantenvielfalt in die Komplexitätsfalle?

Weiterhin sollten Sie sich überlegen, ob Sie die bekannten proprietären KI-Modelle für ihre innovativen Ideen nutzen wollen. Denken Sie bitte daran, dass diese wenig transparent sind und Sie nicht genau wissen, was mit ihren Ideen passiert. Siehe dazu auch Das Kontinuum zwischen Closed Source AI und Open Source AI.

Unser Vorschlag ist daher, dass Sie zur Unterstützung ihres innovativen Denkens, in jedem Schritt Open Source KI-Modelle nutzen. Dass kann MISTRAL LE CHAT als Alternative zu ChatGPT etc, ein Modell wie Mistral AI für alle Schritte, oder auch ein Konzept mit unterschiedlichen Modellen sein, die Sie auf Huggingface finden können.

Natürlich ist es auch möglich, für die oben genannten Schritte einen, oder mehrere KI-Agenten zu nutzen – natürlich möglichst auch Open Source basiert.

Überlegen Sie abschließend noch, ob Sie alles auf ihrem Laptop, oder auf einem eignen Server laufen lassen können. Damit hätten Sie die Kontrolle über ihre Ideen.

„Erst ignorieren sie dich, dann lachen sie über dich, dann bekämpfen sie dich, dann hast du gewonnen“ Mahatma Gandhi.

Sie können dann immer noch selbst entscheiden, ob Sie Ihre Ergebnisse mit anderen teilen, oder diese sogar Unternehmen anbieten wollen.

Alles im Sinne einer eigenen Digitalen Souveränität.

Open Source LLM und Proprietäres LLM in einer vereinfachten Gegenüberstellung

Mittelstand Digital Fokus Mensch (2026)

Generative Künstliche Intelligenz (GenKI) ist gerade bei Kleinen und Mittleren Unternehmen (KMU) ein spezielles Thema, da KMU oftmals undermanaged und underfinanced sind. KMU müssen daher beim Einsatz von Künstlicher Intelligenz darauf achten, dass nicht unnötig Ressourcen verschwendet werden. Dazu gehört auch, von Anfang an einen angemessenen Weg zur Nutzung Künstlicher Intelligenz einzuschlagen.

Damit meine ich nicht zu entscheiden, ob man ChatGPT, Gemini, Grok, Anthropic usw. einsetzen möchte, denn diese KI-Modelle (LLM: Large Language Models) sind eher proprietäre LLM, also herstellergebundene KI-Modelle mit Vor- und Nachteilen.

Die Abbildung zeigt dazu eine einfache Gegenüberstellung von Open Source LLM und proprietärer LLM. Es wird deutlich, dass die Einstiegshürden bei Open Source LLM zwar höher sind, doch die Open Source LLM bei Kosten, Datenschutz und Anpassung besser abschneiden. Was noch beobachtet werden muss, ist das jeweilige Leistungsniveau, das sich bei den Open Source LLM in den letzten Jahren stark verbessert hat.

Vor zwei Jahren dominierten proprietäre Modelle den Markt. Inzwischen hat sich viel getan. Beispiele sind Meta LLaMA 3, Mistral & Mixtral, Falcon, Gemma, OpenHermes und Ökosystem-Tools (Plattformen wie HuggingFace).

Kurz gesagt: Open-Source LLMs sind nicht mehr nur Forschungsprojekte, sondern in vielen Szenarien produktionsreif.

Quelle: vgl. Mittelstand Digital Fokus Mensch (2026): Digitale Souveränität als Basis für sichere KI-Anwendungen. EIN KURZLEHRBUCH | PDF

Gerade für Kleine und Mittlere Unternehmen (KMU) ist es an der Zeit, auf Basis von Open Source AI ihre eigene Digitale Souveränität aufzubauen. Mit dem genannte Handbuch können Sie sich ausführlicher darüber informieren und anfangen, entsprechende Kompetenzen aufzubauen.

Künstliche Intelligenz und „grausamer Optimismus“

Der Begriff „Cruel Optimism“ (Grausamer Optimismus) wurde von Lauren Berlant geprägt und ist in Berlant, L. (2011): Cruel optimism ausführlich erläutert. Was ist nach Berlant unter „Grausamer Optimismus“ zu verstehen?

„A relation of cruel optimism exists when something you desire is actually an obstacle to your flourishing“. (…) They become cruel only when the object that draws your attachment actively impedes the aim that brought you to it initially.

Nicht jede optimistische Wunschvorstellung ist per se grausam. Sie wird allerdings zu einem Grausamen Optimismus (Cruel Optimism), wenn das Objekt, an dem Ihre Zuneigung hängt, das Ziel, das Sie ursprünglich dazu geführt hat, aktiv behindert. Das ist nicht ganz leicht zu verstehen. Zwei Beispiele können möglicherweise helfen:

„Zwei hervorragende Beispiele dafür sind die Diätindustrie und die kulturelle Besessenheit von Produktivitätstricks: Anstatt unsere maroden Ernährungssysteme oder die schleichende Kultur von Burnout und Überarbeitung zu betrachten, schieben wir die Verantwortung für eine gesündere Ernährung und ein effizienteres Zeitmanagement auf den Einzelnen ab. Dadurch blenden wir die tieferliegenden Ursachen systemischer Probleme aus. Und wenn die Lösung dann scheitert, geben sich die Betroffenen selbst die Schuld, nicht genug Willenskraft gehabt zu haben“ (Goleman, D. (2026): How AI Could Produce ‘Cruel Optimism’, deutschsprachige Übersetzung mit Google Translate).

Goleman sieht hier auch einen Zusammenhang zwischen Künstlicher Intelligenz und dem von Berlant angesprochenen „Grausamen Optimismus“. Auch Künstliche Intelligenz weckt Wünsche und Sehnsüchte, und verheißt eine optimistische, effiziente Zukunft, da KI alle möglichen Probleme der Menschen lösen kann, bzw. lösen wird.

Wenn wir also mit den KI-Modellen und KI-Agenten die Probleme nicht lösen können, so sind wir Menschen eben die Dummen. Auch hier geben sich die einzelnen Personen, oder Gruppen von Personen, oder sogar Organisationen die Schuld, nicht gut genug zu sein in der Nutzung von Künstlicher Intelligenz. Diese Logik führt zwangsläufig zu einem „Grausamen Optimismus“ in der die Betroffenen sich selbst die Schuld geben. Der oben verlinkte Beitrag von Daniel Goleman enthält noch weitere (englischsprachige) Details dazu.

Interessant ist hier auch, dass Daniel Goleman 1995 den Bestseller Emotional Intelligence. Why it can matter more than IQ (Quelle: Wikipedia) geschrieben hat und Goleman sich in der Tradition von Howard Gardner´s Theorie der Multiplen Intelligenzen versteht.

Künstliche Intelligenz: System – Umwelt – Mensch

Top view of multiracial young creative people in modern office. Group of young business people are working together with laptop, tablet, smart phone, notebook. Successful hipster team in coworking. Freelancers.

KI-Modelle sind auch Systeme, die selbstorganisiert, autopoietisch agieren. Es wundert daher nicht, dass bei der Beschreibung von KI-Systemen die üblichen Begriffe aus der Systemtheorie verwendet werden. Doch schauen wir uns einmal an, was beispielsweise mit dem Begriff Autopoiesis ursprünglich gemeint war.

„Das Kunstwort Autopoiesis, das sich aus den griechischen Worten autos (selbst) und poiein (=machen) zusammensetzt, wurde übrigens von Maturana selbst geprägt und meint so viel wie Selbsterzeugung, Selbstherstellung. Maturana und Varela haben den Begriff benutzt, um die Eigenart der Organisation von Lebewesen zu beschreiben. Es geht ihnen um die Definition bzw. Theorie des Lebendigen“ (Maturana / Varela 1992:50f.), zitiert in Dewe 2010).

Es wundert nicht, dass Maturana und Varela als Biologen damit etwas Lebendiges im Sinn hatten.

Weiterhin sind autopoietische Systeme nicht nur selbstbezogen, und selbstherstellend, sondern auch selbstbegrenzend (vgl. dazu W. Krohn und G. Küppers (Hrsg.): Emergenz: Der Entstehung von Ordnung, Organisation und Bedeutung. Frankfurt am Main 1992, S. 394).

Damit ist man bei der Beziehung System – Umwelt. „Das System bezieht jedoch nichts Vorgefertigtes aus der Umwelt, sondern es schafft sich durch interne Unterscheidungen seine bestimmte Umweltsensibilität. (…) Das System verändert sich, indem es seine Strukturen verändert – es lernt. Es verändert sich, wie bereits beschrieben, nicht unendlich, sondern nur so lange, wie es die eigene Autopoiesis nicht gefährdet“ (Dewe 2010).

Ein KI-System lernt somit nur so lange, wie die eigene Autopoiese nicht gefährdet ist.

Welche Rolle spielt der Mensch in Bezug auf System und Umwelt?

Wenn sich alles selbstorganisiert und selbstbegrenzend entwickelt, stellt sich die Frage, ob der Mensch Bestandteil des (sozialen) Systems ist, oder eher zur Umwelt zählt.

„Das Herauslagern des Menschen aus dem sozialen System in die Umwelt des Systems (in Form des psychischen Systems) verringert nicht die Bedeutung des Menschen, sondern verstärkt und unterstreicht ihn, denn wäre der Mensch mit Haut und Haaren Bestandteil des Systems dann handelte es sich um ein totalitäres System. Wird der Mensch aber herausgenommen, so schützt gerade dies seine Autonomie und Eigenständigkeit“ (Dewe 2010).

Wenn wir uns die KI-Modelle ansehen, so ist deren Ziel, den Menschen mit seinen Daten und Profilen im System abzubilden. Der Mensch wird somit immer mehr zum Bestandteil des KI-Systems.

Das bedeutet wiederum, ein KI-System kann in diesem Sinne immer mehr zu einem totalitäres System werden.

Kollektive Intelligenz: Voraussetzungen sind gegenseitige Anerkennung und Bereicherung

Quelle: Feldhusen, B. (2021)

In dem Blogbeitrag Wisdom of Crowds – Schwarm Intelligenz – Kollektive Intelligenz bin ich schon einmal intensiver auf die Unterscheidung der jeweiligen Ansätze eingegangen. Darin zitiere ich Feldhusen (2021), der sich wiederum auf Lévy vom MIT Center of Collective Intelligence bezieht. Es lohnt sich, dessen Auffassung noch etwas genauer zu betrachten:

„Die Netzwerkgesellschaft wird nicht von einer Expertenintelligenz getragen, die für andere denkt, sondern von einer kollektiven Intelligenz, die die Mittel erhalten hat, sich auszudrücken. Der Anthropologe des Cyberspace, Pierre Lévy, hat sie untersucht: »Was ist kollektive Intelligenz? Es ist eine Intelligenz, die überall verteilt ist, sich ununterbrochen ihren Wert schafft, in Echtzeit koordiniert wird und Kompetenzen effektiv mobilisieren kann. Dazu kommt ein wesentlicher Aspekt: Grundlage und Ziel der kollektiven Intelligenz ist gegenseitige Anerkennung und Bereicherung …« (Lévy, 1997, S. 29). Um allen Missverständnissen zuvor zu kommen, richtet er sich ausdrücklich gegen einen Kollektivismus nach dem Bild des Ameisenstaates. Vielmehr geht es ihm um eine Mikrovernetzung des Subjektiven. »Es geht um den aktiven Ausdruck von Singularitäten, um die systematische Förderung von Kreativität und Kompetenz, um die Verwandlung von Unterschiedlichkeit in Gemeinschaftsfähigkeit« (ebd., S. 66)“ (zitiert in Grassmuck 2004).

L ÉVY, PIERRE (1997): Die Kollektive Intelligenz. Eine Anthropologie des Cyberspace, Bollmann Verlag, Mannheim.

In der Grafik ist zu erkennen, dass es bei Kollektiver Intelligenz auch um diverse, unabhängige Agenten geht, die komplex gekoppelt sind. Aus der heutigen Perspektive können damit auch KI-Agenten im Netzwerk diverser Akteure gemeint sein. Auch in so einem Netzwerk würde es also nicht DIE Expertenintelligenz geben. Intelligenz (menschliche, künstliche, hybride Formen) würde sich also im Netzwerk verteilt, immer wieder neu bilden.

Um das zu erreichen, müssen allerdings Voraussetzungen erfüllt sein, die von den Tech-Konzernen mit ihren KI-Agenten manchmal „vergessen“ werden. Grundlage und Ziel der Kollektiven Intelligenz sind nach Lévy „gegenseitige Anerkennung und Bereicherung“. Bei diesen Punkten habe ich bei den proprietären KI-Modellen so meine Zweifel.