In dem LinkedIn-Beitrag von Barbara Geyer (Hochschule Burgenland) erläutert die Autorin die Abbildung zu KI und Lernen noch etwas genauer. Es ist farblich gut zu erkennen, in welchen Bereichen Künstliche Intelligenz viel helfen kann (grün), begrenzt helfen kann (orange) und nicht helfen kann (rot). Dabei orientiert sich die Autorin an dem Helmke-Modell, einem Angebot-Nutzungs-Modell, und leitet die folgende zentrale Botschaft ab:
KI revolutioniert das ANGEBOT (Materialien, Tests, Feedback) aber LERNEN SELBST bleibt menschlich (Denken, Verstehen, Motivation).
In den Kommentaren zu dem LinkedIn-Beitrag gibt es viel Zustimmung, doch auch kritische Stimmen, die die Möglichkeiten Künstlicher Intelligenz in Lernprozessen hier eher unterschätzt sehen.
Ich finde diese Grafik zunächst einmal gut, da sie dazu anregt, darüber nachzudenken, was wir unter Lernen, bzw. unter menschlichem Lernen, verstehen, und wie wir damit umgehen wollen. Hinzu kommt dann noch die Einordnung Künstlicher Intelligenz als eine weitere Quelle zur Ermöglichung von Lernen – ganz im Sinne einer Ermöglichungsdidaktik. Siehe dazu auch Ist Wissenstransfer in ihrer Organisation wichtig? Wenn ja: Befassen Sie sich mit Erwachsenenbildung!
AI (Artificial intelligence) AI management and support technology in the Business plan marketing success customer. AI management concept.
Jede Person möchte seine Persönlichkeit, seine Kompetenz kommunizieren. Das passiert im analogen Raum genauso wie in digitalen Räumen. Mit Hilfe von digitalen Medien transportiert jeder moderne Mensch Fragmente seiner Persönlichkeit in unterschiedlichen digitalen Räumen. Dabei kann es durchaus passieren, dass die im Digitalen Raum 1 dargestellte Person, sich von der im Digitalen Raum 2 unterscheidet.
Andererseits ist diese Perspektive auch reflexiv zu sehen, denn die Interaktionen und Kommunikationen mit anderen wirken durchaus auch auf die eigene, digitale und analoge Person zurück. Dazu passt ganz gut der folgende Text:
“Das dadurch repräsentierte Selbst muss jedoch nicht zwangsläufig dem realen, analogen Selbst entsprechen, sondern kann auf eine bewusst optimierte Repräsentation hinauslaufen oder eine fiktive andere Gestalt annehmen. Zudem können sich Subjekte in diversen digitalen Netzwerken unterschiedlich repräsentieren. Auch Laura Robinson argumentiert, dass das Subjekt anhand der digitalen Elemente ein „self-ing“ betreibe und sich sodann als „Cyberself“ (2007, S. 98) hervorbringe. Das Cyberself sei ein ephemeres Selbst, so Robinson, welches nur für kurze Zeit beständig, rasch änderbar und ohne langfristige Bedeutung sei, da es sich stets in Abhängigkeit zu Handlungen bilde (vgl. ebd.)” (Rathmann 2022).
Es stellt sich für mich die Frage, wie sich beispielsweise die immer stärkere Nutzung von KI-Modellen auf das analoge Selbst und das Cyberself auswirkt. Wenn die Richtung der kommunikativen Wechselwirkungen auch reflexiv ist, sind KI-Modelle durchaus persönlichkeitsverändernd.
Das kann einerseits positiv zur eigenen Entwicklung beitragen, oder eben auch nicht. Bei den, von den amerikanischen Tech-Konzernen entwickelten Modellen, habe ich so meine Bedenken, da diese Modelle ein Mindset repräsentieren, dass für Menschen, und ganze Gesellschaften gravierende negative Folgen haben kann.
Die Intransparenz der bekannten Closed Sourced Modelle wie ChatGPT von OpanAI oder Gemini von Google etc. oder auch das von Elon Musk beeinflusste Modell Grok von X repräsentieren eine Denkhaltung, die auf ein von Technologie dominiertes Gesellschaftssystem ausgerichtet sind. Es stellt sich die Frage, ob wir das so wollen.
Wenn es darum geht, die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt zu prognostizieren, kommt es – wie immer – darauf an, wen man fragt.
Die eher technikorientierten Unternehmen verkaufen die angestrebte AGI (Artificial General Intelligence) als das non plus ultra der Intelligenzentwicklung. Dabei prognostizieren diese Unternehmen, dass AGI den menschlichen Fähigkeiten (Intelligenzen) überlegen sein wird. Daraus folgt zwingend, dass KI wohl alle arbeitsbezogenen Tätigkeiten in der nahen Zukunft übernehmen kann. Diese Argumentation erinnert mich an so viele Versprechen der Technik-Unternehmen; beispielsweise an die Unsinkbarkeit der Titanic oder die “100%-ige” Sicherheit von Kernkraftwerken, oder an die Verheißungen der Internetpioniere. Technologie muss wohl in dieser Form verkauft werden (Storytelling) – immerhin geht es ja um Investoren und sehr viel Geld. Ich weiß natürlich, dass diese Vergleiche “hinken”, dennoch …
Betrachten wir Künstliche Intelligenz mit seinen Möglichkeiten aus der eher gesamtgesellschaftlichen Perspektive, so sieht das etwas anders aus. Hier geht es darum, mit Hilfe der Künstlichen Intelligenz gesellschaftliche Probleme zu lösen, zum Wohle aller. Die Idee der japanischen Society 5.0 kommt diesem Anspruch sehr nahe. Da ich darüber schon verschiedene Blogbeiträge veröffentlich habe, gehe ich darauf nicht weiter ein. Siehe dazu beispielhaft Worin unterscheiden sich Industry 5.0 und Society 5.0?
Wie ist es dennoch möglich herauszufinden, wie sich Künstliche Intelligenz auf dem Arbeitsmarkt bemerkbar macht, bzw. machen wird?
Als Leser unseres Blogs wissen Sie, dass ich bei solchen Fragestellungen immer dazu tendiere, belastbare wissenschaftliche Studien von unabhängigen Forschern heranzuziehen. Eine dieser Studie ist folgende. Darin sind sehr ausführlich Vorgehensweise, Datenanalysen und Erkenntnisse dargestellt, mit einer zu beachtenden Einschränkung: Es geht um den amerikanischen Arbeitsmarkt.
“First, we find substantial declines in employment for early-career workers in occupations most exposed to AI, such as software development and customer support.
Second, we show that economy-wide employment continues to grow, but employment growth for young workers has been stagnant.
Third, entry-level employment has declined in applications of AI that automate work, with muted effects for those that augment it.
Fourth, these employment declines remain after conditioning on firm-time effects, with a 13% relative employment decline for young workers in the most exposed occupations
Fifth, these labor market adjustments are more visible in employment than in compensation.
Sixth, we find that these patterns hold in occupations unaffected by remote work and across various alternative sample constructions”
Source: Brynjolfsson et al. (2025): Canaries in the Coal Mine? Six Facts about the Recent Employment Effects of Artificial Intelligence | PDF
Herausheben möchte ich hier, dass gerade junge Menschen, die in den Arbeitsmarkt kommen und noch keine domänenspezifische Expertise entwickeln konnten, von Künstlicher Intelligenz betroffen sind. Das ist in mehrerer Hinsicht bemerkenswert.
Einerseits scheint Expertise nicht so leicht durch KI ersetzbar zu sein, was wiederum für erfahrene, auch ältere Mitarbeiter spricht. Diese sollten natürlich Künstliche Intelligenz nutzen und nicht ablehnen.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
Es wird von Tag zu Tag deutlicher: Mit der zunehmenden Verbreitung von Künstlicher Intelligenz (AI: Artificial Intelligence) kommen die zentralen, großen KI-Modelle (Large Language Models) mit ihrem Mangel an Transparenz und ihrem “laxen” Umgang mit dem Urheberrecht oder auch mit dem Datenschutz, an Grenzen.
Einzelne Personen, Organisationen und auch Öffentliche Verwaltungen halten ihre Daten entsprechend zurück, wodurch Kooperation, Kollaboration und letztendlich auch Innovation behindert wird. Der Trend von den LLM (Large Language Models), zu Small Language Models (SLM), zu KI-Agenten, zusammen mit dem Wunsch vieler auch die eigenen Daten – und damit die eigene Expertise – für KI-Anwendungen zu nutzen, führt zu immer individuelleren, customized, personalized Modellen und letztendlich zu Personalized AI-Agents.
“Personal agents: Recent progress in foundation models is enabling personalized AI agents (assistants, co-pilots, etc.). These agents require secure access to private user data, and a comprehensive understanding of preferences. Scaling such a system to population levels requires orchestrating billions of agents. A decentralized framework is needed to achieve this without creating a surveillance state” (Singh et al. 2024).
Forscher am Massachusetts Institute of Technology (MIT) haben diese Entwicklungen systematisch analysiert und sind zu dem Schluss gekommen, dass es erforderlich ist, Künstliche Intelligenz zu dezentralisieren: Decentralized AI.
Mein Wunsch wäre es in dem Zusammenhang, dass alle Anwendungen (Apps, Tools etc.) einzelnen Personen und Organisationen als Open Source zur Verfügung stehen, ganz im Sinne von Mass Personalization – nur dass Mass Personalization für KI-Agenten nicht von Unternehmen ausgeht und auf den Konsumenten ausgerichtet ist! Das hätte eine sehr starke Dynamik von Innovationen zur Folge, die Bottom Up erfolgen und die Bedürfnisse der Menschen stärker berücksichtigen.
Conceptual technology illustration of artificial intelligence. Abstract futuristic background
KI-Anwendungen basieren oft auf Trainingsdaten, sogenannter Large Language Models (LLM). Um die Leistungsfähigkeit und die Qualität der Antworten von solchen Systemen zu verbessern, wurde inzwischen ein “Denkprozess” (Reasoning) vor der Ausgabe der Antwort vorgeschaltet. Siehe dazu ausführlicher What are Large Reasoning Models (LRMs)?
Die Frage stellt sich natürlich: Liefern LRMs wirklich bessere Ergebnisse als LLMs?
In einem von Apple-Mitarbeitern veröffentlichten, viel beachteten Paper wurde nun die Leistungsfähigkeit nicht aufgrund logisch-mathematischer Zusammenhänge alleine untersucht, sondern anhand von drei Komplexitätskategorien – mit überraschenden Ergebnissen:
“Recent generations of language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers.. (…) By comparing LRMs with their standard LLM counterparts under same inference compute, we identify three performance regimes: (1) low-complexity tasks where standard models outperform LRMs, (2) medium-complexity tasks where LRMs demonstrates advantage, and (3) high-complexity tasks where both models face complete collapse”
Source: Shojaee et al. (2025): The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity.
In Zukunft werden immer mehr hoch-komplexe Problemlösungen in den Mittelpunkt von Arbeit rücken. Gerade in diesem Bereich scheinen LLMs und sogar LRMs allerdings ihre Schwierigkeiten zu haben. Ehrlich gesagt, wundert mich das jetzt nicht so sehr. Mich wundert eher, dass das genannte Paper die KI-Welt so aufgewühlt hat 🙂 Siehe dazu auch Was sind eigentlich Multi-Kontext-Probleme?
Sicher werden die Tech-Unternehmen der KI-Branche jetzt argumentieren, dass die nächsten KI-Modelle auch diese Schwierigkeiten meistern werden. Das erinnert mich an unseren Mercedes-Händler, der ähnlich argumentierte, sobald wir ihn auf die Schwachstellen des eingebauten Navigationssystems hingewiesen hatten: Im nächsten Modell ist alles besser.
Technologiegetriebene Unternehmen – insbesondere KI-Unternehmen – müssen wohl so argumentieren, und die Lösungen in die Zukunft projizieren – Storytelling eben, es geht immerhin um sehr viel Geld. Man muss also daran glauben….. oder auch nicht.
Mit KI Agenten (AI Agents) ist es möglich, in der Geschäftswelt vielfältige Prozesse zu optimieren, oder innovative Prozesse, Produkte und Dienstleistungen zu generieren, die bisher aus den verschiedensten Gründen nicht möglich waren. Dazu zählen oftmals nicht verfügbare Daten und die dazugehörenden Kosten.
Denken wir etwas weiter, so müssen in Zukunft auch immer stärker KI-Agenten miteinander kommunizieren, also von Agent zu Agent – A2A. Passiert das zwischen sehr vielen Agenten eines Wirtschaftssystems, bzw. einer ganzen Gesellschaft, entsteht so etwas wie eine Agentic Society.
Das Projekt NANDA hat sich in dem Zusammenhang das Ziel gesetzt, diese Entwicklung mit einem Open Agentic Web zu unterstützen:
“Imagine billions of specialized AI agents collaborating across a decentralized architecture. Each performs discrete functions while communicating seamlessly, navigating autonomously, socializing, learning, earning and transacting on our behalf” (Source).
Das vom MIT initiierte Projekt NANDA arbeitet in Europa u.a. mit der TU München und der ETH Zürich zusammen. Das Ziel ist, alles Open Source basiert zur Verfügung zu stellen..
Ich bin an dieser Stelle immer etwas vorsichtig, da beispielsweise OpenAI auch beim Start das Ziel hatte, KI als Open Source zur Verfügung zu stellen. In der Zwischenzeit wissen wir, dass OpenAI ein Closed Source Model, bzw. ein Open Weights Model ist, und kein Open Source Model. Siehe dazu Das Kontinuum zwischen Closed Source AI und Open Source AI.
Böhle et al. 2011:21; entnommen aus Huchler 2016:62
In dem Blogbeitrag Arbeitshandeln enthält explizites und implizites Wissen aus dem Jahr 2016, habe ich die Zusammenhänge zwischen Arbeitshandeln und dem expliziten “objektivierbaren” Wissen, bzw. impliziten subjektivierenden” Wissen dargestellt und erläutert.
Setzen wir doch einmal diese Zusammenhänge neu in Verbindung mit den Diskussionen darüber, ob Künstliche Intelligenz Arbeitsplätze, oder ganze Berufe ersetzen wird. Es wird dabei gleich deutlich, dass es in der Diskussion nicht darum geht, Arbeitsplätze oder Berufe durch Künstliche Intelligenz zu ersetzen, sondern darum, das Arbeitshandeln unter den neuen technologischen Möglichkeiten zu untersuchen.
Nach Böhle (2011) zeigen technische und organisatorische Komplexität Grenzen der wissenschaftlich-technischer Beherrschung auf, und zwar in Bezug auf Unwägbarkeiten im Arbeitshandeln.
Sind Unwägbarkeiten die Normalität, benötigt das Arbeitshandeln das Erfahrungswissen von Personen (Subjekte), im Sinne des erfahrungsgeleiteten-subjektivierenden Handelns (vgl. Böhle 2011).
Die Tech-Konzerne argumentieren mit ihren neuen und neuesten KI-Modellen, dass Technologie das gesamte Arbeitshandeln in diesem Sinne einmal abbilden kann. Diese Perspektiven sind möglicherweise für die schnelle Marktdurchdringung und für das Einsammeln von Kapital wichtig (Storytelling), doch greift dieser Ansatz bisher nur bei sehr begrenzten Tätigkeitsportfolios komplett.
Natürlich wird weiter argumentiert, dass sich die Technik weiterentwickelt und es nur eine Frage der Zeit ist, bis das komplette Arbeitshandeln technologisch abgebildet ist. Es ist durchaus zu erkennen, dass KI-Modelle durchaus in der Lage sind bestimmte Merkmale des subjektivierenden Arbeitshandeln abbilden kann. Daraus entstand auch der Glaube an eine Art Allgemeine Generelle Intelligenz (AGI), die der menschlichen Intelligenz überlegen sei.
Durch solche Ideen verschiebt sich der Nachweis für die aufgestellte These immer weiter in die Zukunft, und wird zu einem Glaubensbekenntnis. Möglicherweise handelt es sich bei dem geschilderten Denkmuster um eine Art Kategorienfehler?
Speech bubbles, blank boards and signs held by voters with freedom of democracy and opinion. The review, say and voice of people in public news adds good comments to a diverse group.
Der Trend zur Individualisierung hat eine gesellschaftliche und ökonomische Dimension. Dabei bestimmen neue technologische Möglichkeiten, wie z-B- die Künstliche Intelligenz, deutlich die Richtung der Veränderungen. Technologie war schon in der Vergangenheit immer wieder Treiber für solche Entwicklungen – mit all seinen Risiken und Möglichkeiten.
Dabei ging es in der Vergangenheit beispielsweise im ökonomischen Sinne darum, Produkte und Dienstleistungen immer stärker an das Individuum anzupassen – ganz im Sinne von Customization, Personalization, Mass Customization, Mass Personalization etc. – ganz im Sinne von Unternehmen.
Andererseits bieten neue Technologien wie Künstliche Intelligenz, Additive Manufacturing (3D-Druck), Robotik usw. auch neue Möglichkeiten für jeden Einzelnen, da die Kosten für diese Technologien teilweise sogar gegen “0” gehen. Beispiel im Softwarebereich: sind Open Source Projekte, oder im Innovationsbereich die vielen Open Innovation Projekte. Dabei meine ich bewusst den Ansatz von Eric von Hippel “Democratizing Innovation,” bzw. “Free Innovation”. Siehe dazu auch Künstliche Intelligenz und Open Innovation.
Immer mehr Menschen nutzen die neuen Möglichkeiten und kreieren ihre eignen Bilder, Beiträge, Videos oder eben Produkte und Dienstleistung mit Hilfe von Künstlicher Intelligenz, Additive Manufacturing (3D-Druck) und Robotik. Dabei geht es den Personen nicht in erster Linie darum, damit geschäftlich aktiv zu sein. Es geht am Anfang oft um das spielerische experimentieren mit den neuen Chancen.
Manche Personen stellen ihre Kreationen anderen zur Verfügung, z.B. auf Plattformen wie Patient Innovation. Alles, um unsere Gesellschaft einfach etwas besser, menschlicher zu machen. Dazu habe ich folgenden Text in einer Veröffentlichung der Initiative2030 gefunden:
“Wir glauben an einen aufgeklärten „Ich-Begriff“, bei dem die ausgiebige Beschäftigung dem Inneren weder das Ego füttern, noch ein um sich selbst kreisen anfeuern muss. In der Logik der Dichotomie der Kontrolle setzen wir uns dafür ein, dass handelnde Individuen ihren Einfluss auf die Dinge, die ihnen am wichtigsten sind, perspektivisch gewaltig ausbauen können. Wenn sie sich dann noch mit anderen zusammentun, können alternative Zukünfte gestaltet werden” (Initiative2030 (2025): Missionswerkstatt. Das Methodenhandbuch | PDF).
Ich bin auch der Meinung, dass einzelne Personen heute und in Zukunft mit Hilfe der neuen technischen Möglichkeiten, die täglichen und wichtigen Probleme von Menschen lösen können. Alleine und natürlich im Austausch mit anderen. Ob es dazu das oben verlinkte Methodenhandbuch bedarf sei dahingestellt. Dennoch: Für manche ist es gut, einen kleinen Leitfaden zum Thema zu haben.
Dabei steht nicht der Profit im Mittelpunkt, sonderndas soziale Miteinander zum Wohle aller.
Es ist schon eine Binsenweisheit, dass Künstliche Intelligenz (GenAI) alle Bereiche der Gesellschaft mehr oder weniger berühren wird. Das ist natürlich auch im Projektmanagement so. Dabei ist es immer gut, wenn man sich auf verlässliche Quellen, und nicht auf Berater-Weisheiten verlässt.
Eine dieser Quellen ist die Gesellschaft für Projektmanagement e.V., die immer wieder Studien zu verschiedenen Themen veröffentlicht. In der Studie GPM (2025): Gehalt und Karriere im Projektmanagement. Sonderthema: Die Anwendung Künstlicher Intelligenz im Projektmanagementfindet sich auf Seite 13 folgende Zusammenfassung:
“Künstliche Intelligenz im Projektkontext Künstliche Intelligenz (KI) wird im Bereich Projektmanagement in der Mehrheit der Unternehmen eingesetzt, allerdings in noch geringem Maße. (1) KI-basierte Tools werden insgesamt eher selten genutzt, wenn sie zum Einsatz kommen, dann sind es hauptsächlich ChatGPT, Jira, MS Pilot oder eigenentwickelte Tools. (2) Es zeichnet sich kein eindeutiger Projektmanagement-Bereich ab, in dem KI bevorzugt zum Einsatz kommt. Am deutlichsten noch in der Projektplanung und in der Projektinitiierung, am seltensten im Projektportfolio- und im Programmmanagement. (3) Der Nutzen der KI wird tendenziell eher positiv gesehen, insbesondere als Unterstützung der alltäglichen Arbeit, zur Erleichterung der Arbeit im Projektmanagement und zur Erhöhung der Produktivität. (4) Der Beitrag von KI zu einem höheren Projekterfolg wird von der Mehrheit der Befragten nicht gesehen – allerdings nur von einer knappen Mehrheit. (5) Es besteht eine grundlegende Skepsis gegenüber KI, was verschiedene Leistungsparameter im Vergleich zum Menschen betrifft. Alle hierzu gestellten Fragen wie Fehleranfälligkeit, Genauigkeit, Konsistenz der Information oder Konsistenz der Services wurden mehrheitlich zu Gunsten des Menschen bewertet. (6) Die überwiegende Mehrheit der befragten Projektmanagerinnen und Projektmanager teilt diverse Ängste gegenüber der KI nicht, wie z. B. diese werde Jobs vernichten oder dem Menschen überlegen sein.” Quelle: GPM (2025). Anmerkung: Im Originaltext wurden Aufzählungszeichen verwendet. Um besser auf einzelnen Punkte einzugehen, habe ich diese nummeriert, was somit keine Art von Priorisierung darstellt.
An dieser Stelle möchte ich nur zwei der hier genannten Ergebnisse kommentieren:
Punkt (1): Es wird deutlich, dass hauptsächlich Closed Source Modelle verwendet werden. Möglicherweise ohne zu reflektieren, was mit den eigenen Daten bei der Nutzung passiert – gerade wenn auch noch eigene, projektspezifische Daten hochgeladen werden. Besser wäre es, ein Open Source basiertes KI-System und später Open Source basierte KI-Agenten zu nutzen. Dazu habe ich schon verschiedene Blogbeiträge geschrieben. Siehe dazu beispielhaft Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.
Es ist mehr als eine interessante Spielerei von KI-Enthusiasten: KI-Agenten (AI-Agents) können immer mehr Aufgaben in einem Unternehmen autonom übernehmen. Um das genauer zu untersuchen, haben Wissenschaftler in dem Paper
wichtige Grundlagen dargestellt, und auch untersucht, welche Tasks in einem Unternehmen von KI-Agenten autonom übernommen werden können.
Wie in der Abbildung zu erkennen ist, wurden Mitarbeiterrollen simuliert (Engineer, CTO, HR) und verschiedene Tasks angenommen. Bei dem Admin beispielsweise “arrange meeting room” und bei dem Projektmanager (PM) “teams sprint planning”, was auf das Scrum Framework hinweist. Als Modelle für Trainingsdaten wurden Large Language Models (LLMs) genutzt – closed source und open weight models:
“We test baseline agents powered by both closed API-based and open-weights language models (LMs), and find that the most competitive agent can complete 30% of tasks autonomously” (Xu et al (2025).
Es wird zwar ausdrücklich auf die Beschränkungen (Limitations) hingewiesen, doch gibt diese Untersuchung konkrete Hinweise darauf, welche Aufgaben (Tasks) in Zukunft möglicherweise von KI-Agenten in Unternehmen übernommen werden können.
Interessant bei dem Paper ist, dass dazu auch eine ausführliche Website https://the-agent-company.com/ aufgebaut wurde, auf der Videos, inkl. der verschiedenen KI-Agenten zu finden sind. Interessiert Sie das? Wenn ja, nutzen Sie einfach den Quick Start Guide und legen Sie los!
Natürlich sollte jedes Unternehmen für sich herausfinden, welche Tasks von KI-Agenten sinnvoll übernommen werden sollten. Dabei wird schon deutlich, dass es hier nicht darum geht, ganze Berufe zu ersetzen, sondern ein Sammelsurium von unterschiedlichen Tasks (Ausgaben) autonom durchführen zu lassen.
Hervorzuheben ist aus meiner Sicht natürlich, dass die Autoren mit dem letzten Satz in ihrem Paper darauf hinweisen, dass die Nutzung von Open Source AI in Zukunft ein sehr vielversprechender Ansatz sein kann – aus meiner Sicht: sein wird!
“We hope that TheAgentCompany provides a first step, but not the only step, towards these goals, and that we or others may build upon the open source release of TheAgentCompany to further expand in these promising directions” (Xu et al 2025).
Translate »
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.