The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen

Quelle: Xu et al. (2025): The Agent Company | https://the-agent-company.com/

Es ist mehr als eine interessante Spielerei von KI-Enthusiasten: KI-Agenten (AI-Agents) können immer mehr Aufgaben in einem Unternehmen autonom übernehmen. Um das genauer zu untersuchen, haben Wissenschaftler in dem Paper

Xu et al. (2025): TheAgentCompany: Benchmarking LLM Agents on Consequential Real World Tasks

wichtige Grundlagen dargestellt, und auch untersucht, welche Tasks in einem Unternehmen von KI-Agenten autonom übernommen werden können.

Wie in der Abbildung zu erkennen ist, wurden Mitarbeiterrollen simuliert (Engineer, CTO, HR) und verschiedene Tasks angenommen. Bei dem Admin beispielsweise “arrange meeting room” und bei dem Projektmanager (PM) “teams sprint planning”, was auf das Scrum Framework hinweist. Als Modelle für Trainingsdaten wurden Large Language Models (LLMs) genutzt – closed source und open weight models:

“We test baseline agents powered by both closed API-based and open-weights language models (LMs), and find that the most competitive agent can complete 30% of tasks autonomously” (Xu et al (2025).

Es wird zwar ausdrücklich auf die Beschränkungen (Limitations) hingewiesen, doch gibt diese Untersuchung konkrete Hinweise darauf, welche Aufgaben (Tasks) in Zukunft möglicherweise von KI-Agenten in Unternehmen übernommen werden können.

Interessant bei dem Paper ist, dass dazu auch eine ausführliche Website https://the-agent-company.com/ aufgebaut wurde, auf der Videos, inkl. der verschiedenen KI-Agenten zu finden sind. Interessiert Sie das? Wenn ja, nutzen Sie einfach den Quick Start Guide und legen Sie los!

Natürlich sollte jedes Unternehmen für sich herausfinden, welche Tasks von KI-Agenten sinnvoll übernommen werden sollten. Dabei wird schon deutlich, dass es hier nicht darum geht, ganze Berufe zu ersetzen, sondern ein Sammelsurium von unterschiedlichen Tasks (Ausgaben) autonom durchführen zu lassen.

Hervorzuheben ist aus meiner Sicht natürlich, dass die Autoren mit dem letzten Satz in ihrem Paper darauf hinweisen, dass die Nutzung von Open Source AI in Zukunft ein sehr vielversprechender Ansatz sein kann – aus meiner Sicht: sein wird!

“We hope that TheAgentCompany provides a first step, but not the only step, towards these goals, and that we or others may build upon the open source release of TheAgentCompany to further expand in these promising directions” (Xu et al 2025).

Das Kontinuum zwischen Closed Source AI und Open Source AI

In dem Beitrag AI: Was ist der Unterschied zwischen Open Source und Open Weights Models? hatte ich schon einmal darauf hingewiesen, dass es zwischen den Polen Closed Source AI und Open Source AI ein Kontinuum weiterer Möglichkeiten gibt.

Die Grafik illustriert den Zusammenhang noch einmal anhand der zwei Dimensionen Degree of Openness und Completeness. Man sieht hier deutlich, dass der Firmenname OpenAI dazu führen kann, z.B. ChatGPT von OpenAI als Open Source AI zu sehen, obwohl es komplett intransparent ist und somit in die Kategorie Closed Source AI gehört. Die Open Weights Models liegen irgendwo zwischen den beiden Polen und machen es nicht einfacher, wirkliche Open Source AI zu bestimmen.

Eine erste Entscheidungshilfe kann die Definition zu Open Source AI sein, die seit 2024 vorliegt. Anhand der (recht wenigen) Kriterien kann man schon eine erste Bewertung der Modelle vornehmen.

In der Zwischenzeit hat sich auch die Wissenschaft dem Problem angenommen und erste Frameworks veröffentlicht. Ein erstes Beispiel dafür ist hier zu finden:

White et al. (2024): The Model Openness Framework: Promoting Completeness and Openness for Reproducibility, Transparency, and Usability in Artificial Intelligence | Quelle).

AI: Was ist der Unterschied zwischen Open Source und Open Weights Models?

In verschiedenen Beiträgen habe ich schon erläutert, dass sich Open Source AI und Closed Source AI unterscheiden. Die bekannten Closed Source AI Modelle wie z.B. ChatGPT von (OpenAI) sind beispielsweise nicht wirklich Open Source sind, da dsolche Modelle intransparent sind und den eigentlichen Zweck haben, wirtschaftliche Gewinne zu generieren – koste es was es wolle. Siehe dazu Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Zwischen diesen beiden Polen Open Source AI und Closed Source AI gibt es allerdings – wie immer – ein Kontinuum von weiteren Möglichkeiten. Beispielsweise sind LLama, Mistral und Gemma nicht so ohne weiteres den beiden Extremen zuzuordnen, da diese Modelle teilweise offen sind. Solche Modelle werden Open Weights Models genannt:

“As a result, the term “Open Source” has been used to describe models with various levels of openness, many of which should more precisely be described as “open weight” models. Among the Big AI companies, attitudes towards openness vary. Some, like OpenAI or Anthropic, do not release any of their models openly. Others, like Meta, Mistral or Google, release some of their models. These models — for example, Llama, Mistral or Gemma — are typically shared as open weights models” (Tarkowski, A. (2025): Data Governance in Open Source AI. Enabling Responsible and Systemic Access. In Partnership with the Open Source Initiative).

Warum nur werden solche Modelle angeboten? Der Grund kann sein, dass man mit dieser Strategie versucht, dem Regulierungsbestreben z.B. der Europäischen Union entgegenzuwirken. Ich hoffe, dass das nicht funktioniert und Big Tech gezwungen wird, sich an die Spielregeln in der Europäischen Union zu halten. Aktuell sieht es so aus, dass die neue Regierung der USA die Europäische Union auch bei diesem Thema vor sich hertreiben möchte.