Projektmanager: Soziale Interaktionsprozesse und ihre Bedeutung für den Einsatz von Künstlicher Intelligenz (KI)

AdobeStock_527653115

Die Rolle eines Projektmanagers, einer Projektmanagerin, ist vielschichtig. In der Theorie gibt es viele Themen die abgedeckt werden sollen. Dazu zählen planerische, kontrollierende und steuernde Tätigkeiten, Kommunikation und Organisation. Darüber hinaus gehören auch Führungsaufgaben, Weisungen und Entscheidungen zum Arbeitsfeld. Zu all den genannten Punkten gibt es in der Literatur viele Hinweise zur möglichen Umsetzung, doch kommen in der Praxis viele soziale Interaktionen hinzu.

Eigene Darstellung – Quelle: Barth/Sarstedt (2024)

“Ohne soziales Miteinander und soziale Interaktionsprozesse ist kein Projekt zielführend zum Abschluss zu bringen. Der Begriff sozial ist aus dem lat. „sozialis“ abgeleitet, was so viel wie gesellschaftlich, gemeinnützig bzw. hilfsbereit bedeuten kann. Die soziale Interaktion sollte demnach auch innerhalb von einem Projekt von gemeinschaftlichem und sich unterstützendem Handeln geprägt sein” (Barth/Sarstedt 2024).

Betrachten wir die Prozesse in der Realität (Abbildung) so wird deutlich, dass neben den technischen auch viele sozialen Interaktionsprozesse für den Erfolg von Projekten nötig sind. Beispielsweise zählen kognitive und menschliche Sensorik zu einzusetzen, Mensch zu sein (z.B. Emotionen zu zeigen) oder auch Verantwortung zu tragen. zu den jeweiligen Punkten sind in der Abbildung weitere Unterpunkte genannt, auf die ich hier nicht weiter eingehen möchte.

Die gesamten sozialen Interaktionsprozesse können durch “kognitive Empathie und Fingerspitzengefühl” (ebd.) erschlossen werden. An dieser Stelle führt das zu der Frage, inwieweit Künstliche Intelligenz (KI) solche Bereiche abdecken kann. Aktuelle sieht es so aus, dass der Nutzen von Künstlicher Intelligenz (KI) zunächst auf den Punkten liegt, die auf der Seite “Theorie” stehen. Auf der Seite “Praxis” stehen allerdings viele Punkte, die von Künstlicher Intelligenz (aktuell noch) nicht abgedeckt werden. Es wird als Projektmanager daher darauf ankommen, beide Potentiale für das Projektmanagement sinnvoll und angemessen zu nutzen. Siehe dazu auch Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte.

Informationen zu den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten, finden Sie auf unserer Lernplattform.

Nextcloud-Assistent – Lokales LLM als Assistent in Nextcloud integriert

Nextcloud ist eine Open Source Anwendung, die durch verschiedene Apps an die individuellen Anforderungen angepasst werden kann. Damit die Arbeit noch zeitgemäßer, und somit KI-unterstützt durchgeführt werden kann, wurde 2023 die erste Version des Nextcloud Assistenten veröffentlicht. Wir haben nun die Version 1.03 vom Dezember 2023 bei uns problemlos installiert.

Das Symbol für den Nextcloud Assistenten erscheint in der oberen Leiste des Dashboards und in allen Apps, die in unserer Nextcloud verwendet werden. Wie in der Abbildung zu sehen ist, können dabei Context Chat, Free Prompt oder Generate Headline aufgerufen werden. Weitere Funktionen, die sich hinter den drei Punkten verbergen sind Summarize und Reformulate.

Es ist wirklich erstaunlich, wie dynamisch sich Nextcloud entwickelt und die vielfältigen KI-Möglichkeiten integriert – alles Open Source.

Nextcloud: Geeignete KI-Apps selbst auswählen – ein Beispiel

Anwendungen zur Künstliche Intelligenz (KI) gibt es in der Zwischenzeit “wie Sand am Meer”. Dabei decken die kommerziellen Anwendungen einen Großteil des Marktes ab. Immer mehr Organisationen sehen darin allerdings auch Risiken, sodass Open Source Anwendungen , wie z.B. Nextcloud, in den Fokus rücken.

Dabei ist Nextcloud als Kollaborationsplattform mit den Anwendungen zu Dokumenten, Bildern, Webkonferenzen (Talk), Whiteboards, Tasks- bzw. KANBAN Boards, Open Project usw. in der Lage an jeder Stelle der verschiedenen Anwendungen KI-Apps aufzurufen (Smart Picker), die ebenfalls Open Source basiert sind.

Diese KI-Apps sind hier nicht vorgegeben, sondern können je nach Organisation zusammengestellt werden. Die Möglichkeit der eigenen Konfiguration von KI-Apps, die dann auch noch mit Hilfe von Ampelfarben (Rot-Gelb-Grün) charakterisiert sind, ergibt enorme eigene Gestaltungsspielräume.

Die Abbildung zeigt beispielhaft einen Screenshot von unserer Nextcloud, in der ich DECK als Taskboard (KANBAN Board) aufgerufen habe. Innerhalb eines Tasks (Tickets) kann ich im Textfeld mit Hilfe des Smart Pickers verschiedene Anwendungen aufrufen. In dem Beispiel habe ich die KI-App Whisper ausgewählt (AI speech-to-text) mit deren Hilfe ich jetzt einen gesprochen Text erfassen kann. Nextcloud charakterisiert diese Anwendung mit Gelb (Rot-Orange-Gelb-Grün). Ziel der Integration vieler Open Source Anwendungen in einer modernen Kollaborationsplattform ist der Souveräne Arbeitsplatz.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Mensch und Künstliche Intelligenz: Engineering bottlenecks und die fehlende Mitte

Fraunhofer IAO (2023): Leitfaden zu Strategie und Wandel für den KI-Einsatz, in Anlehnung an  Daugherty, P. R.; Wilson, H. J.: Human + Machine. Reimagining Work in the Age of AI. Harvard Business Review Press, 2018

Künstliche Intelligenz hat schon jetzt einen quantitativen und qualitativen technologischen Sprung auf allen gesellschaftlichen Ebenen ermöglicht. Es stellt sich daher immer mehr die Frage nach dem Umgang zwischen Menschen und diesen “Maschinen”. Da ich kein Freund von Dichotomien bin (Entweder-oder), suche ich immer wieder nach angemesseneren Erläuterungen. In dem vom Fraunhofer IAO (2023) veröffentlichten “Leitfaden zu Strategie und Wandel für den KI-Einsatz” gibt es dazu eine sehr gute Darstellung (Abbildung).

Maschinen-Tätigkeiten (hier: KI-Anwendungen) haben ihre Stärken bei Erledigen, Wiederholen, Vorhersagen und Anpassen. Das bedeutet, dass Berufe, die ihren Schwerpunkt bei diesen Tätigkeiten haben, in Zukunft wohl von KI abgelöst werden. Für Techniker/Ingenieure gibt es allerdings menschliche Tätigkeiten wie Führen, Empathisch sein, Kreativ sein und Bewerten, die technisch nicht so leicht zu ersetzen sind, also für Techniker (noch) Engineering bottlenecks darstellen.

Zwischen den beiden Extrempositionen gibt es allerdings einen sehr großen Bereich von Mensch-Maschinen-Tätigkeiten, der als die fehlende Mitte dargestellt wird. Dabei gibt es wiederum zwei Schwerpunkte: Einerseits kann der Mensch die Maschine trainieren, anderseits kann die Maschine dem Menschen assistieren. Gerade diese Bereiche können als die eigentlichen Chancen von Künstlicher Intelligenz (KI) gesehen und zum Wohle von Menschen, Organisationen und Gesellschaften – nicht nur zum Wohle großer, rein kommerziell ausgerichteter Konzerne. Siehe dazu auch Der KI-basierte Arbeitsplatz – eine erste Einordnung.

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Fraunhofer IAO: Rechtliche Fragen bei der Nutzung von Künstlicher Intelligenz (KI)

Der Einsatz von Künstlicher Intelligenz (KI) wird aktuell in allen gesellschaftlichen Bereichen getestet. Bei der wirtschaftlichen Nutzung von KI kommen dabei immer öfter auch rechtliche Fragen auf, die das Fraunhofer IAO (2023) in einem “Leitfaden zu Strategie und Wandel für den KI-Einsatz” zusammengestellt hat. Danach sollte bei der strategischen Planung des KI-Einsatzes insbesondere auf folgende Bereiche geachtet werden:

KI-Einsatz generell:
– Rechteklärung bei der Beschaffung von Trainingsdaten
– Nutzung der KI durch den Anwender / Eingabekontrolle (z. B. Datenschutzrecht, Geschäftsgeheimnisse)

Entscheidungsfindung:
– Arbeitsrecht
– Datenschutzrecht
– Allg. Persönlichkeitsrecht

Produktiver Einsatz von KI
– Schutzfähigkeit von mittels KI produzierten Daten
– Gesetzliche Schutzrechte an den Daten
– Patente / Gebrauchsmuster
– Design (im gesetzlichen Sinne)
– Urheberrechte / Leistungsschutzrechte
– Vertraglicher Schutz der Daten

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.

Global Risks Report 2024: Misinformation und Disinformation neu im Top 10 Ranking

World Economic Forum (2024): Global Risk Report

Das World Economic Forum (2024): World Risk Report (PDF) geht wieder einmal sehr ausführlich auf mögliche globale Risiken ein. Diesmal gibt es allerdings eine Besonderheit, auf die ich etwas ausführlicher eingehen möchte. Unter dem Punkt False Information werden Misinformation und Disinformation neu im Top 10 Ranking aufgenommen. Ein Treiber für diese Entwicklung ist natürlich auch Künstliche Intelligenz (KI), oder Artificial Intelligence (AI):

Misinformation and disinformation is a new leader of the top 10 rankings this year. No longer requiring a niche skill set, easy-to-use interfaces to large-scale artificial intelligence (AI) models have already enabled an explosion in falsified information and so-called ‘synthetic’ content, from sophisticated voice cloning to counterfeit websites. To combat growing risks, governments are beginning to roll out new and evolving regulations to target both hosts and creators of online disinformation and illegal content. Nascent regulation of generative AI will likely complement these efforts. For example, requirements in China
to watermark AI-generated content may help identify false information, including unintentional misinformation through AI hallucinated content. Generally however, the speed and effectiveness of regulation is unlikely to match the pace of development” (WEF (2024:18).

Jeder der die Entwicklung von AI (KI) verfolgt wird erkennen, dass es weltweite Bestrebungen gibt, Grenzen für die Nutzung von KI (AI) zu formulieren. Doch wird auch immer deutlicher, dass Regularien oftmals zu langsam umgesetzt werden, und somit ein Graubereich zwischen den technologischen Möglichkeiten und gesetzten Grenzen entsteht.

Es ist somit auch jeder Einzelne angesprochen, Content kritisch zu hinterfragen. Eine gute Möglichkeit ist, bei selbst generierten Content die Quellen transparent anzugeben, und das auch bei anderen einzufordern. In unserem Blog, oder auch in den für Lehrgänge erstellten Teilnehmerunterlagen, haben wir das schon von Anfang an umgesetzt.

Solche Zusammenhänge berücksichtigen wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz (KI): Lock-in und Switching Costs

In der Vergangenheit wurden z.B. im Projektmanagement nach und nach immer mehr digitale Tools verwendet. Zunächst waren das Anwendungen aus dem Office-Paket, dann kam Microsoft Project hinzu und in der Zwischenzeit gibt es von Microsoft eine integrierte Kollaborationsplattform (Sharepoint, Microsoft Project Online, Teams, Office Apps etc.), die das Arbeiten in Projekten effektiver/produktiver macht. Der nächste Booster wird Künstliche Intelligenz (KI) sein, die über OpenAI als KI-Assistent Projektmanagement-Prozesse unterstützen wird. Andere Tech-Größen wie Google, Facebook und Apple werden diesem Beispiel folgen. Der Vorteil des von Microsoft etablierten IT-Ökosystems ist, dass sich Mitarbeiter, Teams, Organisationen – ja sogar ganze staatliche Verwaltungsstrukturen – an die Logik von Microsoft angepasst haben. Ob das gut ist, kann allerdings infrage gestellt werden. Siehe dazu Warum geschlossene Softwaresysteme auf Dauer viel Zeit und viel Geld kosten.

Dieser Lock-in führt zu einer Pfadabhängigkeit und macht es für Alternativen schwer – Alternativen wie z.B. Open Source Anwendungen. Denn obwohl berechtigte Gründe gegen ein kommerzielles IT-Ökosystem sprechen, bleiben viele Organisationen bei den etablierten IT-Strukturen, da diese Organisationen die Kosten für einen Wechsel (Switching Costs) scheuen. Es wird in Zukunft somit um die Frage gehen, was teurer ist: Das Festhalten an etablierten IT-Strukturen oder ein Wechsel zu Open Source Anwendungen, die einen Souveränen Arbeitsplatz auf Open Source Basis garantieren. Dazu zählt auch, die Verwaltung und die Nutzen der eigenen Daten auf den eigenen Servern, denn Daten sind das neue Öl. Siehe dazu auch Was wäre wenn jeder über seine Daten selbst entscheiden könnte?

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Erzwingt Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz und Empathie?

Die aktuellen Diskussionen um Künstliche Intelligenz (KI) sind oft ambivalent. – wie immer bei Innovationen. Und wie immer ist an allen Argumentationslinien “etwas dran”. In Zukunft wird es daher auch darum gehen, Künstliche Intelligenz so zu nutzen, dass sie ihre Vorteile für Menschen, Organisationen und Gesellschaften entfalten kann. In meinen verschiedenen Beiträgen zur Künstlichen Intelligenz finden Sie dazu weitere Hinweise. Interessant finde ich in diesem Zusammenhang folgende Textpassage, in der davon ausgegangen wird, dass Künstliche Intelligenz einen Aufstieg Menschlicher Intelligenz “erzwingen” wird.

Wir haben nichts zu verlieren als unser inneres Maschine-Sein. Wir haben eine neue, humane Welt zu gewinnen (Horx, 2020). Ethische Kompetenz? Ja! Ambiguität meistern? Ja! Kritisch und reflexiv sein? Ja! Es ist das Zusammenspiel verschiedener Future Skills, das die Zukunft des Bildungssystems bestimmt. Wenn wir KI ernst nehmen. Und damit erzwingt Künstliche Intelligenz einen Aufstieg menschlicher Intelligenz und Empathie. Indem die KI uns verbesserte Prognosen liefert, fordert sie uns gleichzeitig heraus, unsere Zukunftsfähigkeit zu verbessern. Künstliche Intelligenz kann nur wahrhaft intelligent sein, wenn sie durch humane Ziele gestaltet und mit menschlicher Bedeutung imprägniert ist. Was produziert werden soll, welche Mobilitäts- und Kommunikationsformen für die Zukunft sinnvoll sind, das hängt immer von den Kontexten menschlicher Erfahrungen ab. Diese Ziele liegen jenseits maschineller Logik. Sie sind Hervorbringungen der menschlichen Kultur, Ausdrucksformen der Empathie und des Bewusstseins” (Ehlers 2023).

Upgrade auf Nextcloud Hub 7 durchgeführt: Weitere Möglichkeiten, Künstliche Intelligenz (KI) zu integrieren

Eigener Screenshot von unserer Nextcloud Hub 7 – Oberfläche.
Nextcloud Hub 7 wurde am 12.12.2023 veröffentlicht

Als Leser unseres Blogs wissen Sie, dass wir an einem souveränen, projektorientierten Arbeitsplatz auf Open Source Basis arbeiten, und dafür schon viele Bausteine miteinander verknüpft haben. Open Source deshalb, damit alle generierten Daten auf unseren Servern bleiben (Datenschutz und Transparenz).

Neben dem Lernmanagementsystem (LMS) Moodle, sind das OpenProject, BigBlueButton, Greenlight und Nextcloud mit CollaboraOnline, Deck (Task Boards), Talk (Webkonferenzsystem), Fotos, Kalender usw. Weiterhin wollen wir in 2024 verstärkt KI (Künstliche Intelligenz) im Projektmanagement nutzen. Siehe dazu auch KI am Arbeitsplatz.

Mit dem jetzt auf unseren Servern installierten Upgrade auf Nextcloud Hub 7 (veröffentlicht am 12.12.2023) gibt es weitere Verbesserungen einzelner Apps, und es kann nun – neben den schon vorhandenen KI-Möglichkeiten wie Llama-2, Gpt4ALL-J, (Local) Stable Diffusion, Airoboros, Whisper, Dolly, Bark, Piper, Falcon, Bert, GPT-NeoX, MPT – auch noch Aleph Alfa als weitere KI (Künstliche Intelligenz) genutzt werden.

Mit dem Smart Picker kann in Nextcloud u.a. KI (Künstliche Intelligenz) in jeder App, oder auch in jedem Projektmanagement-Prozesschritt (ob klassisch plangetrieben, agil oder hybrid), aufgrufen werden. Das alles wird mit einer Art Ampelfunktion unterstützt. Damit werden KI-Anwendungen mit rot (wei z.B. ChatGPT), gelb oder grün gekennzeichent, je nachdem welche Transparenz bei den verwendeten Daten, und der Vorgehensweisen bei der Nutzung der Daten bekannt ist (Ethical KI).

Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.

Künstliche Intelligenz – ein Kategorienfehler?

Der Begriff Künstliche Intelligenz ist in aller Munde. Es geht dabei allerdings hauptsächlich um die verschiedenen Tools wie ChatGPT, Bard, usw. Es wir suggeriert, dass diese Art der datenbasierten Problemlösung Intelligenz darstellet, eben Künstliche Intelligenz. Dazu gibt es allerdings den Einwand, dass es sich hierbei um einen Kategorienfehler handeln könnte, bzw. handelt. Dazu habe ich folgenden aktuellen Text gefunden:

“Maschinen können helfen, schneller Datenoperationen auszuführen – aber helfen sie auch, bessere Entscheidungen zu treffen? Maschinen helfen logischer zu folgern – aber helfen sie auch, skeptisch zu zweifeln? Maschinen können Daten vereinen aber können sie auch Widerstand organisieren? Maschinen können Informationen aufbereiten aber können sie auch Unbestimmtheit zulassen? Im Begriff der Künstlichen Intelligenz liegt das, was Niklas Luhmann einen Kategorienfehler nannte. Ein Kategorienfehler ist es, wenn eine Bäckerin versucht belegte Brötchen zu backen oder ein Bauer, Bratkartoffeln zu pflanzen. Im Wortspiel Künstliche Intelligenz werden zwei fundamental verschiedene Kategorien verwechselt: das Lösen strategischer (und formalisierbarer) Probleme, das in der KI als Intelligenz interpretiert wird einerseits und das Bewusstsein, das in der Fähigkeit besteht, auf die Komplexität der Welt durch Kreativität und Gefühl zu antworten andererseits. Kann KI letzteres? Nein, denn dazu müssen soziale, emotionale und Künstliche Intelligenz zusammenwirken” (Ehlers 2023, in Schmohl 2023).

Interessant dabei ist, dass nicht nur Nikas Luhmann herangezogen werden kann, sondern auch Howard Gardner in seiner Theorie der Mulftiplen Intelligenz darauf verweist, dass es sich bei Künstlicher Intelligenz um einen Kategorienfehler handelt. Ob Howard Gardner sich direkt dabei auf Luhmann bezieht, kann ich nicht sagen. Siehe dazu Steckt hinter der Künstlichen Intelligenz keine echte Intelligenz? Wie ist das zu verstehen?

Informationen zu unseren Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.