IPMA Leitfaden zum ethischen Einsatz Künstlicher Intelligenz im Projektmanagement

Quelle: Link (PDF)

Es liegt natürlich auf der Hand die für die bestehenden projektmanagement-Standards und Vorgehensmodelle Künstliche Intelligenz einzusetzen. Interessant dabei ist, dass das weltweit führende Institut empfiehlt, ethisch vorzugehen und dazu noch einen Leitfaden herausgebracht hat.

IPMA (2025): IPMA Guidelines on Applying AI in Project Management. Moving the profession forward by acting ethically! | PDF

Auf knapp 30 Seiten wird der Bezug zum professionellen Projektmanagement hergestellt und hervorgehoben, anhand welcher Kriterien Künstliche Intelligenz beurteilt werden sollten (ebd.):

„Selecting the right AI tools is a critical step for project managers. Commercially available AI tools vary in functionality, quality, and ethical considerations. When selecting and using these tools, project managers should evaluate them based on the following criteria:
» Alignment with Project Goals
» Vendor Transparency:
» Ethical and Social Impact:
» Adaptability and Scalability

Wenn Projektmanager weltweit diese Hinweise beachten, so kommen aus meiner Sicht die häufig genutzten, kommerziellen KI-Apps wie ChatGPT, Grok, Gemini etc. nicht infrage, da sie die Punkte „Vendor Transparency“ (Transparent der Anbieter) und „Ethical and Social Impact“ (Ethische und Soziale Auswirkungen) nicht, oder nur wenig berücksichtigen.

Aus meiner Sicht kommen daher hauptsächlich KI-Apps infrage, die der Open Source AI – Definition entsprechen. – ganz im Sinne einer Digitalen Souveränität. Siehe dazu auch

Das Kontinuum zwischen Closed Source AI und Open Source AI

Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften

Herausforderungen bei der Nutzung von KI-Agenten

Eigener Screenshot von einem einfachen Agenten, erstellt in Langflow – alle Daten bleiben dabei auf unseren Servern, ganz im Sinne einer Digitale Souveränität

Wenn es um KI-Agenten geht, wird oft darüber diskutiert, wie das entsprechende Design aussehen sollte, damit der oder die KI-Agenten die wirtschaftlichen Ziele erreichen können. In dem Zusammenhang gibt es immer wieder Hinweise darauf, dass solche gut gemeinten KI-Agenten oftmals unbeabsichtigte Folgen nach sich ziehen können. Die folgende Quelle aus 2025 stellt das unmissverständlich dar:

„When it comes to AI agents, even well-intentioned design can lead to unintended consequences. The challenge isn’t just about making agents work correctly – it’s is about making them work safely and ethically within a complex ecosystem of human and artificial actors“ (Bornet, P. et al. 2025).

Wie vom Autor hervorgehoben, ist es eine der wichtigsten Herausforderungen, dass KI-Agenten sicher und ethisch in einem komplexen Ökosystem von Menschen und „künstlichen Akteuren“ arbeiten.

Ethisch bedeutet hier, innerhalb eines gesellschaftlich akzeptierten Wertesystems – beispielsweise des Wertesystems der Europäischen Union.

Künstliche Intelligenz im Projektmanagement: Ethische Kompetenz für die Projektleitung?

In allen Projekten werden mehr oder weniger oft digitale Tools, bzw. komplette Kollaborationsplattformen eingesetzt. Hinzu kommen jetzt immer stärker die Möglichkeiten der Künstlicher Intelligenz im Projektmanagement (GenAI, KI-Agenten usw.).

Projektverantwortliche stehen dabei vor der Frage, ob sie den KI-Angeboten der großen Tech-Konzerne vertrauen wollen – viele machen das. Immerhin ist es bequem, geht schnell und es gibt auch gute Ergebnisse. Warum sollte man das hinterfragen? Möglicherweise gibt es Gründe.

Es ist schon erstaunlich zu sehen, wie aktuell Mitarbeiter ChatGPT, Gemini usw. mit personenbezogenen Daten (Personalwesen) oder auch unternehmensspezifische Daten (Expertise aus Datenbanken) füttern, um schnelle Ergebnisse zu erzielen – alles ohne zu fragen: Was passiert mit den Daten eigentlich? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Je innovativer ein Unternehmen ist, desto einzigartiger sind seine Daten. Was mit diesen Daten dann passiert, ist relativ unklar. Es wundert daher nicht, dass nur ein kleiner Teil der Unternehmensdaten in den bekannten LLM (Large Language Models) zu finden ist. Siehe dazu Künstliche Intelligenz: 99% der Unternehmensdaten sind (noch) nicht in den Trainingsdaten der LLMs zu finden.

Es stellt sich zwangsläufig die Frage, wie man diesen Umgang mit den eigenen Daten und das dazugehörende Handeln bewertet. An dieser Stelle kommt der Begriff Ethik ins Spiel, denn Ethik befasst sich mit der „Bewertung menschlichen Handelns“ (Quelle: Wikipedia). Dazu passt in Verbindung zu KI in Projekten folgende Textpassage:

„In vielen Projektorganisationen wird derzeit intensiv darüber diskutiert, welche Kompetenzen Führungskräfte in einer zunehmend digitalisierten und KI-gestützten Welt benötigen. Technisches Wissen bleibt wichtig – doch ebenso entscheidend wird die Fähigkeit, in komplexen, oft widersprüchlichen Entscheidungssituationen eine ethisch fundierte Haltung einzunehmen. Ethische Kompetenz zeigt sich nicht nur in der Einhaltung von Regeln, sondern vor allem in der Art, wie Projektleitende mit Unsicherheit, Zielkonflikten und Verantwortung umgehen“ (Bühler, A. 2025, in Projektmanagement Aktuell 4/2025).

Unsere Idee ist daher, eine immer stärkere eigene Digitale Souveränität – auch bei KI-Modellen. Nextcloud, LocalAI, Ollama und Langflow auf unseren Servern ermöglichen es uns, geeigneter KI-Modelle zu nutzen, wobei alle generierten Daten auf unseren Servern bleiben. Die verschiedenen KI-Modelle können farbig im Sinne einer Ethical AI bewertet werden::

Quelle: https://nextcloud.com/de/blog/nextcloud-ethical-ai-rating/

Wie können ethische Überlegungen im Scrum-Framework beachtet werden?

Embedding ethical deliberations into Scrum; based on Zuber et al. (2022) http:// creativecommons.org/licenses/by/4.0/, zitiert in Zuber et al (2024) in Werther et al. (eds) (2024)

Wenn es um Technik geht wird immer wieder die Frage nach der Ethik gestellt, denn Technik kann zum Wohle oder zum Nachteil von (allen) Menschen und der Umwelt genutzt werden. Aktuell geht es dabei beispielsweise um die Ethik bei der Nutzung von Künstlicher Intelligenz. Siehe dazu auch Technikethik (Wikipedia).

In der Softwareentwicklung hat sich der Einsatz von Scrum als Rahmenwerk (Framework) bewährt. In der Abbildung sind die verschiedenen Events, Artefakte und Rollen zu erkennen. Die Autoren Zuber et al. (2024) schlagen nun vor, ethische Überlegungen (ethical deliberations) mit in das Scrum-Framework einzubauen. Diese sind in der Abbildung grün hervorgehoben.

„The core idea is that, before the regular agile cadence begins, in a sprint 0, we first proceed descriptively and align ourselves with societal and organizational value specifications, i.e., we start from a framework defined by society and organization. Second, in the relationship between the product owner and the client, central ethical values are identified within this framework on a project-specific basis, if necessary, and become part of the product backlog. This can be done on the basis of existing codes of conduct or with other tools and methods that are specific to culture and context. We call this the normative horizon that is established during disclosive contemplation. Value-Sensitive Software Design: Ethical Deliberation in Agile. Within each individual sprint, it is a matter of identifying new values and implementing normative demands through suitable technical or organizational mechanisms“ (Zuber et al 2024, in Werther et al (eds.) 2024).

Es ist wichtig, dass wir uns mit den ethischen Fragen neuer Technologien wie z.B. der Künstliche Intelligenz auseinandersetzen und es nicht zulassen, dass Tech-Konzerne die Vorteile der neuen Möglichkeiten in Milliarden von Dollar Gewinn ummünzen, und die sozialen Folgen der der neuen KI-Technologien auf die Gesellschaft abwälzen. Hier muss es eine Balance geben, die durch ethische Fragestellungen in den Entwicklungsprozessen von Technologien mit integriert sein sollten – nicht nur im Scrum-Framework.