GPM (2025): Künstliche Intelligenz im Projektkontext – Studie

Es ist schon eine Binsenweisheit, dass Künstliche Intelligenz (GenAI) alle Bereiche der Gesellschaft mehr oder weniger berühren wird. Das ist natürlich auch im Projektmanagement so. Dabei ist es immer gut, wenn man sich auf verlässliche Quellen, und nicht auf Berater-Weisheiten verlässt.

Eine dieser Quellen ist die Gesellschaft für Projektmanagement e.V., die immer wieder Studien zu verschiedenen Themen veröffentlicht. In der Studie GPM (2025): Gehalt und Karriere im Projektmanagement. Sonderthema: Die Anwendung Künstlicher Intelligenz im Projektmanagement findet sich auf Seite 13 folgende Zusammenfassung:

Künstliche Intelligenz im Projektkontext
Künstliche Intelligenz (KI) wird im Bereich Projektmanagement in der Mehrheit der Unternehmen eingesetzt, allerdings in noch geringem Maße.
(1) KI-basierte Tools werden insgesamt eher selten genutzt, wenn sie zum Einsatz kommen, dann sind es hauptsächlich ChatGPT, Jira, MS Pilot oder eigenentwickelte Tools.
(2) Es zeichnet sich kein eindeutiger Projektmanagement-Bereich ab, in dem KI bevorzugt zum Einsatz kommt. Am deutlichsten noch in der Projektplanung und in der Projektinitiierung, am seltensten im Projektportfolio- und im Programmmanagement.
(3) Der Nutzen der KI wird tendenziell eher positiv gesehen, insbesondere als Unterstützung der alltäglichen Arbeit, zur Erleichterung der Arbeit im Projektmanagement und zur Erhöhung der Produktivität.
(4) Der Beitrag von KI zu einem höheren Projekterfolg wird von der Mehrheit der Befragten nicht gesehen – allerdings nur von einer knappen Mehrheit.
(5) Es besteht eine grundlegende Skepsis gegenüber KI, was verschiedene Leistungsparameter im Vergleich zum Menschen betrifft. Alle hierzu gestellten Fragen wie Fehleranfälligkeit, Genauigkeit, Konsistenz der Information oder Konsistenz der Services wurden mehrheitlich zu Gunsten des Menschen bewertet.
(6) Die überwiegende Mehrheit der befragten Projektmanagerinnen und Projektmanager teilt diverse Ängste gegenüber der KI nicht, wie z. B. diese werde Jobs vernichten oder dem Menschen überlegen sein.”
Quelle: GPM (2025). Anmerkung: Im Originaltext wurden Aufzählungszeichen verwendet. Um besser auf einzelnen Punkte einzugehen, habe ich diese nummeriert, was somit keine Art von Priorisierung darstellt.

An dieser Stelle möchte ich nur zwei der hier genannten Ergebnisse kommentieren:

Punkt (1): Es wird deutlich, dass hauptsächlich Closed Source Modelle verwendet werden. Möglicherweise ohne zu reflektieren, was mit den eigenen Daten bei der Nutzung passiert – gerade wenn auch noch eigene, projektspezifische Daten hochgeladen werden. Besser wäre es, ein Open Source basiertes KI-System und später Open Source basierte KI-Agenten zu nutzen. Dazu habe ich schon verschiedene Blogbeiträge geschrieben. Siehe dazu beispielhaft Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Punkt (6): Es geht bei der Nutzung von KI nicht immer um die “Vernichtung” (Was für ein schreckliches Wort) von Jobs, sondern darum, dass viele verschiedene Aufgaben (Tasks) in Zukunft von KI autonom bearbeitet werden können. Siehe dazu auch The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen.

The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen

Quelle: Xu et al. (2025): The Agent Company | https://the-agent-company.com/

Es ist mehr als eine interessante Spielerei von KI-Enthusiasten: KI-Agenten (AI-Agents) können immer mehr Aufgaben in einem Unternehmen autonom übernehmen. Um das genauer zu untersuchen, haben Wissenschaftler in dem Paper

Xu et al. (2025): TheAgentCompany: Benchmarking LLM Agents on Consequential Real World Tasks

wichtige Grundlagen dargestellt, und auch untersucht, welche Tasks in einem Unternehmen von KI-Agenten autonom übernommen werden können.

Wie in der Abbildung zu erkennen ist, wurden Mitarbeiterrollen simuliert (Engineer, CTO, HR) und verschiedene Tasks angenommen. Bei dem Admin beispielsweise “arrange meeting room” und bei dem Projektmanager (PM) “teams sprint planning”, was auf das Scrum Framework hinweist. Als Modelle für Trainingsdaten wurden Large Language Models (LLMs) genutzt – closed source und open weight models:

“We test baseline agents powered by both closed API-based and open-weights language models (LMs), and find that the most competitive agent can complete 30% of tasks autonomously” (Xu et al (2025).

Es wird zwar ausdrücklich auf die Beschränkungen (Limitations) hingewiesen, doch gibt diese Untersuchung konkrete Hinweise darauf, welche Aufgaben (Tasks) in Zukunft möglicherweise von KI-Agenten in Unternehmen übernommen werden können.

Interessant bei dem Paper ist, dass dazu auch eine ausführliche Website https://the-agent-company.com/ aufgebaut wurde, auf der Videos, inkl. der verschiedenen KI-Agenten zu finden sind. Interessiert Sie das? Wenn ja, nutzen Sie einfach den Quick Start Guide und legen Sie los!

Natürlich sollte jedes Unternehmen für sich herausfinden, welche Tasks von KI-Agenten sinnvoll übernommen werden sollten. Dabei wird schon deutlich, dass es hier nicht darum geht, ganze Berufe zu ersetzen, sondern ein Sammelsurium von unterschiedlichen Tasks (Ausgaben) autonom durchführen zu lassen.

Hervorzuheben ist aus meiner Sicht natürlich, dass die Autoren mit dem letzten Satz in ihrem Paper darauf hinweisen, dass die Nutzung von Open Source AI in Zukunft ein sehr vielversprechender Ansatz sein kann – aus meiner Sicht: sein wird!

“We hope that TheAgentCompany provides a first step, but not the only step, towards these goals, and that we or others may build upon the open source release of TheAgentCompany to further expand in these promising directions” (Xu et al 2025).

The Cynefin Mini-Book. An Introduction to Complexity and the Cynefin Framework

Im Projektmanagement ist es heute wichtig, zwischen einfachen, komplizierten und komplexen Projekten zu unterscheiden, um das angemessene Vorgehensmodell zu bestimmen.

Dabei können Organisationen im einfachsten Fall mit der Stacey-Matrix, oder auch mit ausführlicheren Analysemethoden nach Boehm & Turner oder Timinger usw. arbeiten. Siehe dazu Projektmanagement: Das geeignete Vorgehensmodell finden.

Darin wird auch das Cynefin-Framework als geeignetes Instrument erwähnt, das ursprünglich aus dem Wissensmanagement kommt. Siehe dazu Projektmanagement: Das Cynefin-Framework und der Bereich “disorder”. Natürlich kann man sich bei Wikipedia oder auch von KI-Modellen Informationen zum Cynefin-Framework zusammenstellen, doch ist es manchmal auch gut, sich ein Buch anzusehen,.

Brougham, G. (2015): The Cynefin Mini-Book. An Introduction to Complexity and the Cynefin Framework | PDF

Das frei verfügbare Mini-Buch zum Thema ist deshalb wertvoll, da es die verschiedenen Facetten des Cynefin-Frameworks intensiv thematisiert, und dazu auch noch wichtige Quellen angibt.

Stafford Beer (1959): Nicht Gewinnmaximierung, sondern Überleben muss das Ziel von Organisationen sein

Image by Foto-RaBe from Pixabay

In der heutigen Zeit hat man den Eindruck, dass Organisationen – und hier speziell wirtschaftlich ausgerichtete Unternehmen – das alleinige Ziel haben, ihre Gewinne zu maximieren. Die Begründung ist, dass mit hohen Gewinnen die Wahrscheinlichkeit steigt, wirtschaftlich zu überleben. Ein weiterer Gedanke ist, dass solche Unternehmen die Bedürfnisse von Verbrauchern zufriedenstellen und dafür über den zu erzielenden Preis vom Markt “belohnt” werden. Siehe dazu auch Von “Märkte als Ziele” zu “Märkte als Foren”.

In den letzten 80 Jahren nach Ende des 2. Weltkriegs haben sich wirtschaftlich ausgerichtete Unternehmen immer mehr der Gewinnmaximierung verschrieben, sodass die Produkte und Dienstleistungen kaum noch den Anforderungen der Verbraucher entsprechen. Am Beispiel der Fast Food Branche ist das beispielhaft gut zu erkennen: Siehe dazu Lebensmitteltechniker Sebastian Lege entlarvt die Produkte der Fast-Food-Industrie (ZDF vom 06.02.2024).

Was gut ist für die massenhafte Produktion und die Gewinnmaximierung der Unternehmen, ist nicht besonders gut für die Verbraucher. Siehe dazu Produkte und Dienstleistungen als Mehrwert für Kunden: Warum funktioniert das einfach nicht? oder auch Deceptive Patterns (Täuschungsmuster): Über die Tricks der Tech-Unternehmen.

Es scheint so, als ob diese Art der Gewinnmaximierung auf Kosten der Verbraucher, bzw. ganzer Gesellschaften immer mehr in die Kritik gerät. Dabei stellt sich natürlich die Frage: Wenn es die Gewinnmaximierung nicht ist, woran kann sich eine wirtschaftlich orientierte Unternehmung denn sonst orientieren? Einige sagen, dass es die Nachhaltigkeit ist, andere wiederum setzen auf Social Responsibility usw. usw.

Ein Ansatz, der möglicherweise etwas in Vergessenheit geraten ist, ist das Modell eines lebensfähigen Systems nach Stafford Beer aus dem Jahr 1959:

“Das Viable System Model (VSM; deutsch Modell lebensfähiger Systeme) wurde 1959 von Stafford Beer in seinem Buch Kybernetik und Management erstmals formuliert. (…) S. Beer formuliert die Lebensfähigkeit wie folgt: Nicht Gewinnmaximierung, sondern Überleben muss das Ziel sein. Nicht die Führung von Menschen, sondern das Lenken bzw. Steuern und Regulieren ganzer Organisationen in ihrer Umwelt ist entscheidend. Nicht wenige Menschen managen, sondern alle müssen bestimmte Funktionen des Managements ausüben.(Quelle: Wikipedia).

Es geht manchen Unternehmen heute nicht mehr darum, sich an das Umfeld zu adaptieren, sondern das Umfeld (Markt, Gesellschaft) so zu manipulieren, dass ein Gewinnmaximum in exorbitanten Größenordnungen entsteht. Die Lebensfähigkeit dieser Unternehmen liegt also darin, das Umfeld immer stärker in ihrem Interesse zu beeinflussen – sogar bis hinein in die politische, demokratische Ebene einer Gesellschaft.

Wollen wir das weiter zulassen? Was wäre, wenn wieder die Bedürfnisse der Menschen im Mittelpunkt des Marktgeschehens stehen würden?

Mit Cloudfare unbefugtes Scraping und Verwenden von Originalinhalten stoppen

Image by Werner Moser from Pixabay

In den letzten Jahren haben die bekannten KI-Tech-Unternehmen viel Geld damit verdient, Daten aus dem Internet zu sammeln und als Trainingsdaten für Large Language Models (LLMs) zu nutzen. Dabei sind diese Unternehmen nicht gerade zimperlich mit Datenschutz oder auch mit Urheberrechten umgegangen.

Es war abzusehen, dass es gegen dieses Vorgehen Widerstände geben wird. Neben den verschiedenen Klagen von Content-Erstellern wie Verlagen, Filmindustrie usw. gibt es nun immer mehr technische Möglichkeiten, das unberechtigte Scraping und Verwenden von Originalinhalten zu stoppen. Ein kommerzielles Beispiel dafür ist Cloudfare. In einer Pressemitteilung vom 01.07.2025 heißt es:

San Francisco (Kalifornien), 1. Juli 2025 – Cloudflare, Inc. (NYSE: NET), das führende Unternehmen im Bereich Connectivity Cloud, gibt heute bekannt, dass es nun als erster Anbieter von Internetinfrastruktur standardmäßig KI-Crawler blockiert, die ohne Erlaubnis oder finanziellen Ausgleich auf Inhalte zugreifen. Ab sofort können Eigentümerinnen und Eigentümer von Websites bestimmen, ob KI-Crawler überhaupt auf ihre Inhalte zugreifen können, und wie dieses Material von KI-Unternehmen verwertet werden darf” (Source: Cloudfare).

Siehe dazu auch Cloudflare blockiert KI-Crawler automatisch (golem vom 01.07.2025). Ich kann mir gut vorstellen, dass es in Zukunft viele weitere kommerzielle technische Möglichkeiten geben wird, Content freizugeben, oder auch zu schützen.

Das ist zunächst einmal gut, doch sollte es auch Lösungen für einzelne Personen geben, die sich teure kommerzielle Technologie nicht leisten können oder wollen. Beispielsweise möchten wir auch nicht, dass unsere Blogbeiträge einfach so für Trainingsdaten genutzt werden. Obwohl wir ein Copyright bei jedem Beitrag vermerkt haben, wissen wir nicht, ob diese Daten als Trainingsdaten der LLMs genutzt werden, da die KI-Tech-Konzerne hier keine Transparenz zulassen. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

Dazu gibt es eine weitere interessante Entwicklung, die ich in dem Beitrag Creative Commons: Mit CC Signals Content für Künstliche Intelligenz freigeben – oder auch nicht erläutert habe.

Neue Erkenntnisse zum Zusammenhang zwischen Innovation und Lernen

Top view of multiracial young creative people in modern office. Group of young business people are working together with laptop, tablet, smart phone, notebook. Successful hipster team in coworking. Freelancers.

Dass Innovationen mit Lernen zusammenhängen ist offensichtlich, da es sich bei Innovationen um etwas Neues handelt. Neues bedeutet auch oft komplexes Problemlösen. In so einem Umfeld ist das Lernen von Individuen, Gruppen, Organisationen und Netzwerken wichtig, denn Lernen ist der Prozess und (neues) Wissen das Ergebnis (nach Willke 2018).

Neuere Forschungsergebnisse zeigen nun auf, dass es für Teams, die sich mit Innovationen befassen, erfolgsversprechend ist, wenn sie “establishing a rhythm that alternates thoughtfully between exploration and reflection” (Harvey et al 2025). Die Autoren schlagen daher vor, wie folgt vorzugehen:

(1) Experimental learning
(2) Vicarious learning
(3) Contextual learning
(4) Reflexive learning

Harvey et al. (2025): New Research on the Link between Learning and Innovation, in HBR vom 14.07.2025.

In dem Artikel werden noch weitere Einzelheiten zur effektiven Vorgehensweise genannt, die Sie für Ihre Innovationsprojekte nutzen können.

Siehe dazu auch Ambidextres Innovationsmanagement: Zwischen Exploration und Exploitation.

Kultur beeinflusst Daten <> Daten beeinflussen Kultur

Image by This_is_Engineering from Pixabay

Kultur ist ein häufig verwendeter Begriff, der oftmals auf Länder bezogen ist (Französische Kultur, Italienische Kultur, Westliche Kultur, Chinesische Kultur etc.) und doch nicht so einfach an irgendwann einmal gezogenen Ländergrenzen halt macht. Dabei sollte auch die Diskussion über Kultur und Werte kritisch gesehen werden. Entsteht Kultur top-down oder bottom-uo, bzw. sowohl-als-auch? Siehe dazu beispielsweise Kritische Anmerkungen zum Wertansatz von Kultur.

Auch bei Unternehmen sprechen wir von Unternehmens-Kultur, die Kultur in verschiedenen Abteilungen oder sogar in verschiedenen Teams. Siehe dazu beispielsweise Innere und äußere Projektkulturen beachten oder auch Unternehmenskultur und Projektkultur im Spannungsfeld zwischen “Tight” und “Loose”. In Zeiten von Künstlicher Intelligenz wird beispielsweise auch gefordert, eine KI-förderliche Organisationskultur aufzubauen, inkl. Leitfaden.

Kann es in dieser vielschichtigen Betrachtung überhaupt EINE Kultur geben (Kultur ist statisch), oder ist Kultur ein sich permanent wandelnder Begriff mit über die Zeit immer wieder neuen Anpassungen an die Wirklichkeit?

Eine weitere Frage ist: Welche Zusammenhänge gibt es zwischen Kultur und Daten?

Einerseits kann eine Kultur natürlich Daten beeinflussen, indem Werte und damit Grenzen und Bewertungen vorgegeben werden. Darüber hinaus entscheidet Kultur auch, ob Daten frei oder eher verschlossen zur Verfügung stehen.

Andererseits können generierte Daten, gerade Big Data, Open Data usw., eine Kultur beeinflussen, indem neue Erkenntnisse und damit oft verbunden neue Möglichkeiten/Innovationen entstehen. Aktuell sehen wir an den Entwicklungen bei der Künstlichen Intelligenz, wie große Trainingsdaten (Large Language Models) starken Einfluss auf eine Gesellschaft und die jeweilige(n) Kultur(en) nehmen.

Es bleibt abzuwarten, in welchen Bereichen positiv, und in welchen negativ. Aktuell sieht es für mich so aus, als ob die Tech-Unternehmen die Gewinne aus der Nutzung Künstlicher Intelligenz für sich beanspruchen, und sich um die sozialen Konsequenzen für eine Gesellschaft nicht kümmern.

Wer etwas tiefer einsteigen möchte, kann sich folgendes Buch (Open Access) ansehen:

Schäfer, M. T.; van Els, K. (Eds.) (2017): The Datafied Society. Studying Culture through Data | PDF.

Creative Commons: Mit CC Signals Content für Künstliche Intelligenz freigeben – oder auch nicht

Screenshot: https://creativecommons.org/ai-and-the-commons/cc-signals/

In dem Blogbeitrag Was unterscheidet Künstliche Intelligenz von Suchmaschinen? hatte ich dargestellt, wie sich Suchmaschinen von Künstlicher Intelligenz unterscheiden. Content-Anbieter können dabei nur bedingt auf Datenschutz, Urheberrecht, EU AI Act usw. vertrauen. In der folgenden Veröffentlichung sind die verschiedenen Punkte noch einmal strukturiert zusammengefasst, inkl. einer möglichen Lösung für die skizzierten Probleme:

Creative Commons (2025): From Human Content to Machine Data. Introducing CC Signals | PDF

Creative Commons (CC) kennen dabei viele von uns als eine Möglichkeit, anderen unter bestimmten Bedingungen das Recht zur Nutzung des eigenen Contents einzuräumen. Creative Commons erläutert, dass KI-Modelle die üblichen gesellschaftlichen Vereinbarungen mehr oder weniger ignoriert, und somit den “social contract” aufkündigt. Diesen Hinweis finde ich bemerkenswert, da hier das Vorgehen der KI-Tech-Unternehmen mit den möglichen gesellschaftlichen Auswirkungen verknüpft wird.

Mit CC Signals hat Creative Commons ein erstes Framework veröffentlich, das es ermöglichen soll, Content mit Berechtigungsstufen für KI-Systeme zu versehen.

“CC signals are a proposed framework to help content stewards express how they want their works used in AI training—emphasizing reciprocity, recognition, and sustainability in machine reuse. They aim to preserve open knowledge by encouraging responsible AI behavior without limiting innovation” (ebd.)

Machen Sie bei der Weiterentwicklung dieses Ansatzes mit:

“Head over to the CC signals GitHub repository to provide feedback and respond to our discussion questions: https://github.com/creativecommons/cc-signals.”

Digitale Abhängigkeit in den Verwaltungen von Bund und Ländern: Warum eigentlich?

Image by Robin Higgins from Pixabay

Es ist unstrittig, dass die Verwaltungen in Bund und Ländern modernisiert, und damit auch digitalisiert werden müssen. Dabei haben deutsche Verwaltungen in der Vergangenheit gerne Software amerikanischer Tech-Konzerne genutzt.

“Die deutsche Verwaltung ist in hohem Maße abhängig von proprietären, US amerikanischen IT-Lösungen. 96% der Verwaltungsangestellten arbeiten täglich mit Microsoft-Produkten. 80% der Verwaltungsdaten werden in Datenbanken des US-Anbieters Oracle gespeichert und 75% der Virtualisierungslösungen kommen von VMWare” (ZenDis 02/2025: Digitale Souveränität als Staatsaufgabe).

Die Abhängigkeiten sind für den deutschen Steuerzahlen teuer: “Laufende Rahmenverträge mit großen IT-Firmen wie Microsoft und Oracle belaufen sich auf 13,6 Milliarden Euro” (Netzpolitik.org vom 04.12.2024). Je abhängiger die Verwaltungen hier sind, um so rigoroser können (und werden) Preissteigerungen durchgesetzt – zur Gewinnsteigerung bei den Tech-Konzernen und zum Nachteil der Gesellschaft.

Weiterhin wird deutlich, dass die Trump-Administration einen starken Einfluss auf die amerikanischen Tech-Konzerne hat – ganz im Sinne von “America first”. Was mit den europäischen oder deutschen Befindlichkeiten und Interessen ist, ist nicht wirklich relevant. Das ist aus der Sicht amerikanischer Konzerne und amerikanischer Administrationen verständlich, sollte uns in Europa allerdings nachdenklich stimmen -gerade auch wenn es um den nächsten Schritt geht: Dem Einsatz von Künstlicher Intelligenz.

Da es seit vielen Jahren schon verstärkt Hinweise dazu gibt, dass ohne Open Source keine moderne und souveräne Digitalisierung in Deutschland erreichbar ist, muss man sich als Bürger wundern, dass sich die Politik von den amerikanischen Tech-Konzernen immer weiter abhängig macht. Das ganze Ausmaß dieser Fehlentwicklung wird in dem folgenden Artikel zusammengefasst:

Mischler, G. (2025): Open Source hat im Bund keine Lobby, golem vom 04.07.2025.

Auch Unternehmen, NGOs und Privatpersonen sollten sich die Frage stellen, ob sie nicht die verfügbaren Open-Source-Alternativen für ihre eigene digitale Souveränität nutzen sollten.

Wir haben schon vor mehreren Jahren mit diesen Schritten angefangen. Wir nutzen NEXCLOUD statt Microsoft Cloud, OpenProject statt MS Project, NEXCLOUD TALK statt Teams, Nextcloud Office statt Microsoft Office, etc. Darüber hinaus verwenden wir auch Open Source AI (LocalAI). Damit bleiben alle Daten auf unseren Servern.

Sprechen Sie mich bei Fragen gerne an.

Wissensarchitektur: Brick or Brain?

Image by Pexels from Pixabay

Dass wir als Gesellschaft immer stärker von Wissen abhängig sind, deutet der Begriff Wissensgesellschaft an. Dabei möchte ich anmerken, dass viele Akteure, Verwaltungen, Unternehmen, einzelne Personen noch immer Wissen mit Daten und Informationen gleichsetzen, und z.B. die implizite Dimension des Wissens vernachlässigen.

In der Industriegesellschaft wurden Gebäude geplant und gebaut, die das arbeitsteilige Prinzip des Taylorismus unterstützten. Dabei wurde großer Wert auf das Trennende gelegt: Hier wurde gearbeitet, dort gelebt. Hier gab es das Schuhgeschäft, dort die Schule und an einem anderen Ort das Altenheim. In Zeiten einer Reflexiven Modernisierung kommt es allerdings seit Jahrzehnten immer mehr zu Entgrenzungen und Vernetzungen von bisher getrennten Bereichen.

Immer mehr hybride Strukturen entstehen – im Management, bei der Raumgestaltung, der Architektur. Eine Architektur, die sich an der Wissensperspektive und an einem vielschichtigen Wissensaustausch orientiert, muss sich zwangsläufig von einer Architektur unterscheiden, die eher industriell geprägt war. Es wundert daher nicht, dass immer mehr offene Räume entstehen (Open Spaces), Räume in denen gearbeitet und gelebt wird usw. usw. All das kann aus der Soziologie (Reflexive Modernisierung) und mit Hilfe der Wissensperspektive erklärt werden.

In dem Artikel Schröder, I. (2014): Wissensarchitektur: Erfahrungen eines Wissenschaftsparks, in Wessels (Hrsg.) (2014) stellt die Autorin das Thema Wissensarchitektur anhand eines Wissenschaftsparks dar. Dabei verweist sie auch auf eine einprägsame Formulierung:

“Der Science Park Manchester hat die zu Grunde liegende Wissensarchitektur-Frage in der Kürze auf den Punkt gebracht, die der englischen Sprache eigen ist:: brick or brain? Die deutsche Übersetzung könnte Gebäude oder Geist lauten” (ebd.).

Ergänzend würde ich allerdings hier empfehlen von “Brick and Brain ” auszugehen – ganz im sinne einer hybriden Denk- und Handlungsweise.

Siehe dazu auch Tsigkas, A. (2024): Between Theory and Practice in Architectural Design.