Bei den verschiedenen kommerziellen Anwendungen ist es fast schon Standard, dass Assistenten eingeblendet und angewendet werden, um Künstliche Intelligenz in den jeweiligen Prozess oder Task zu nutzen. Dabei ist immer noch weitgehend unklar, welche Trainingsdaten bei den verschiedenen Trainingsdatenbanken (LLM: Large Language Models) genutzt werden, und was beispielsweise mit den jeweils eigenen Eingaben (Prompts) passiert. Nicht zuletzt werden sich die kommerziellen Anbieter die verschiedenen Angebote mittelfristig auch gut bezahlen lassen.
Es kann daher nützlich sein, Open Source AI zu nutzen.
Praktisch kann das mit NEXTCLOUD und dem darin enthaltenen Nextcloud-Assistenten umgesetzt werden. Jede Funktion (Abbildung) kann man mit einer Traingsdatenbank verbinden, die wirklich transparent und Open Source ist. Solche Trainingsdatenbanken stehen beispielsweise bei Hugging Face zur Verfügung. Darüber hinaus bleiben alle Daten auf dem eigenen Server – ein heute unschätzbarer Wert . Wir werden diesen Weg weitergehen und in Zukunft dazu noch verschiedene Blogbeiträge veröffentlichen. Siehe dazu auch
Jede Sekunde prasseln auf uns eine Unmenge an Daten ein. Zheng und Meister (2024) vom California Institute of Technology haben in ihrem Paper The Unbearable Slowness of Being: Why do we live at 10 bits/s? (PDF) dazu analysiert, dass der gesamte menschliche Körper eine Datenmenge von 109 bits/s absorbieren kann. Die Autoren nennen das “outer brain“.
Dabei stellt sich natürlich gleich die Frage, ob ein Mensch diese Menge auch zeitgleich verarbeiten kann. Die Antwort: Das ist nicht der Fall. Um existieren/leben zu können, müssen wir viele der äußeren Reize / Daten ausblenden. Doch wie viele Daten benötigen wir Menschen bei unserem Verhalten (“inner brain“, ebd.) pro Sekunde? Auch hier geben die Autoren eine deutliche Antwort:
“Human behaviors, including motor function, perception, and cognition, operate at a speed limit of 10 bits/s. At the same time, single neurons can transmit information at that same rate or faster. Furthermore, some portions of our brain, such as the peripheral sensory regions, clearly process information dramatically faster” (Zheng und Meister 2024).
Die Evolution hat gezeigt, dass es für den Menschen von Vorteil ist, gegenüber der absorbierbaren Datenflut (outer brain) ein innerliches Regulativ (inner brain) zu haben. Wir haben in der Vergangenheit auch unsere gesamte Infrastruktur (Straßen, Brücken usw.) auf die 10 bits/s ausgerichtet. Was ist, wenn wir die Infrastruktur auf die neuen technologischen Möglichkeiten ausrichten? Ist der Mensch dann darin eher ein Störfaktor?
Meines Erachtens sollten wir nicht immer versuchen, den Menschen an die neuen technologischen Möglichkeiten anzupassen, sondern die technologischen Möglichkeiten stärker an die menschlichen (inkl. Umwelt) Erfordernisse adaptieren. Aktuell geht die weltweite Entwicklung immer noch zu stark von der Technologie und den damit verbundenen “Märkten” aus. Eine mögliche Alternative sehe ich in der von Japan vor Jahren schon propagierten Society 5.0.
Wissen im Unternehmen ist in allen Prozessen einer Organisation relevant. Manchmal findet man Wissen in Form von Daten und Informationen in IT-Systemen, manchmal ist spezielles Wissen an Personen gebunden.
Solche Schlüsselpersonen werden immer wieder kontaktiert, doch gibt es oftmals keinen Überblick darüber, was solche Schlüsselpersonen ausmacht. In einer Veröffentlichung wurden nun Merkmalscluster für Schlüsselpersonen in Kleinen und mittleren Unternehmen (KMU) ermittelt, die in der genannten Quelle detaillierter dargestellt werden:
Exklusives Wissen – Spezialisierte )Unternehmens-) Kenntnisse und Erfahrungen – Mangelnde Bereitschaft/Möglichkeit Wissen zu teilen
Spezielle Kompetenzen – Stark ausgeprägte soziale Kompetenzen. – Stark ausgeprägte Fach-Kompetenzen
Vernetzung und Beziehung – Interne fachübergreifende Beziehungen – Starke Beziehung zu Geschäftspartner:innen
“Wissensmanagement (WM): Die Wiederverwendung von Wissen, insbesondere Projektwissen, ist im PM essentiell. Angewandte Techniken sind vor allem Information Retrieval (IR), Natural Language Processings, und Ontologien als Wissensspeicher. Kenntnisse aus diesen Wissensgebieten sind notwendig, da sie a) aus PM-Sicht dafür sorgen, dass die richtigen Daten identifiziert werden, b) dass die Daten aus Data Analytics-Sicht richtig erfasst und untersucht werden und c), dass die Daten aus Sicht des Wissensmanagements in einer Wissensstruktur für die Nachnutzung sauber bereitgestellt werden” (…) Die Verwendung von Ontologien als Speicher von Wissensobjekten und die integrierte Anwendung der Methode des Case-Based Reasoning eröffnet im genannten Kontext Potentiale für ein verbessertes Projektmanagement” (Kusturica, W. Laroque, C. (2024) in Bernert et al. (2024): KI in der Projektwirtschaft).
Die Autoren haben diesen Ansatz in dem Beitrag anhand eines Fallbeispiels ausführlich dargestellt.
Solche Zusammenhänge thematisieren wir auch in dem von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.
Spirale des Aufbaus einer Wissensbasis während der Projektabwicklung (Cüppers, C. (2007): Wissensmanagement in Projektorganisationen, projektmanagementaktuell 2/2007)
In Projekten werden viele Daten generiert und Informationen bearbeitet. Beides sind wichtige Bausteine einer Wissensbasis in projektorientierten Organisationen. Diese Wissensbasis baut sich zyklisch über die Projektabwicklung auf (Abbildung).
Die einzelnen Aktivitäten sind dabei die Wissensidentifikation, der Wissenserwerb, die Wissensentwicklung, die Wissensverteilung, die Wissensbewertung und die Wissensnutzung. Es ist deutlich zu erkennen, dass sich die Autorin an den Kernaktivitäten des Wissensmanagements orientiert hat (z.B. nach Probst et al.). Weiterhin zeigt die Abbildung, dass sich die jeweilige Wissensbasis über die Projekte P1 bis P4 immer weiter aufbaut.
“Ein Projekt beginnt zu einem definierten Zeitpunkt mit der Projektinitiierung. Es durchläuft verschiedene Phasen bis hin zum Projektabschluss bzw. zur Projektnachbereitung, in denen sich die in der Abbildung als Spirale dargestellte organisationale Wissensbasis stetig vergrößert. Jedes Projekt durchläuft die komplette Spirale unabhängig von den durchgeführten Projektphasen. Die Projektdauer kann von Projekt zu Projekt unterschiedlich sein, es werden jedoch immer alle Sektoren der Spirale durchlaufen. In den ersten drei Sektoren wird das für das Projekt erforderliche Wissen aus Bekanntem generiert, neu entwickelt und von außen erworben. In den folgenden drei Sektoren wird es dann selektiert, kommuniziert, dokumentiert, gespeichert und angewandt. Die Wissensbasis wächst kontinuierlich, sodass Folgeprojekte profitieren. Da in einem Unternehmen in der Regel mehrere Projekte gleichzeitig ablaufen und die Mitarbeiter zum Teil an mehreren Projekten arbeiten, ist der Übergang zwischen den einzelnen Projekten fließend” (Cüppers 2007).
Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, die wir an verschiedenen Standorten anbieten. Informationen zu unseren Blended Learning Lehrgängen und zu aktuellen Terminen finden Sie auf unserer Lernplattform.
Der Begriff “Wissen” hat sich n der Vergangenheit immer wieder verändert, und wird dies auch in Zukunft tun. In dem Beitrag Vom Wissen als Besitz zum Wissen als Prozess wird diese Transformation deutlich. Zusammen mit den neuen Technologien, wie das WWW oder auch Künstliche Intelligenz, entsteht ein neuer Wissensbegriff.
„Wissen begründet sich in der gegenwärtigen Gesellschaft in dem Zusammenspiel vieler Wissensfragmente, die unter anderem im world wide web (www) technisch zusammengeführt werden und dort als gemeinsam verfügbares Wissen auftauchen, das durch Prozesse der Wissensbegründung in einer Erfahrungsgemeinschaft konstituiert wird. Dieser Wissensbegriff ist neu“ (vgl. Neusser 2013, zitiert in Arnold 2017:88).
Diese Entwicklung wirft zugleich Fragen zum Umgang mit diesem neuen Wissensbegriff auf. Welche Herausforderungen ergeben sich daraus für ein modernes Wissensmanagement?
In der Vergangenheit wurden z.B. im Projektmanagement nach und nach immer mehr digitale Tools verwendet. Zunächst waren das Anwendungen aus dem Office-Paket, dann kam Microsoft Project hinzu und in der Zwischenzeit gibt es von Microsoft eine integrierte Kollaborationsplattform (Sharepoint, Microsoft Project Online, Teams, Office Apps etc.), die das Arbeiten in Projekten effektiver/produktiver macht. Der nächste Booster wird Künstliche Intelligenz (KI) sein, die über OpenAI als KI-Assistent Projektmanagement-Prozesse unterstützen wird. Andere Tech-Größen wie Google, Facebook und Apple werden diesem Beispiel folgen. Der Vorteil des von Microsoft etablierten IT-Ökosystems ist, dass sich Mitarbeiter, Teams, Organisationen – ja sogar ganze staatliche Verwaltungsstrukturen – an die Logik von Microsoft angepasst haben. Ob das gut ist, kann allerdings infrage gestellt werden. Siehe dazu Warum geschlossene Softwaresysteme auf Dauer viel Zeit und viel Geld kosten.
Dieser Lock-in führt zu einer Pfadabhängigkeit und macht es für Alternativen schwer – Alternativen wie z.B. Open Source Anwendungen. Denn obwohl berechtigte Gründe gegen ein kommerzielles IT-Ökosystem sprechen, bleiben viele Organisationen bei den etablierten IT-Strukturen, da diese Organisationen die Kosten für einen Wechsel (Switching Costs) scheuen. Es wird in Zukunft somit um die Frage gehen, was teurer ist: Das Festhalten an etablierten IT-Strukturen oder ein Wechsel zu Open Source Anwendungen, die einen Souveränen Arbeitsplatz auf Open Source Basis garantieren. Dazu zählt auch, die Verwaltung und die Nutzen der eigenen Daten auf den eigenen Servern, denn Daten sind das neue Öl. Siehe dazu auch Was wäre wenn jeder über seine Daten selbst entscheiden könnte?
Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen Projektmanager/in (IHK) und Projektmanager/in AGIL (IHK). Informationen dazu, und zu aktuellen Terminen, finden Sie auf unserer Lernplattform.
Viele Einzelpersonen, Unternehmen, NGO und Öffentliche Verwaltungen haben sich an die Nutzung von allseits bekannter Software gewöhnt. Ob es ERP-Systeme für die technische und kaufmännische Abwicklung von Geschäftsprozessen sind, Webkonferenztools, Kollaborationssoftware usw. – für alles gibt es Anwendungen (Apps) der Marktführer Microsoft, SAP, Apple usw. usw. Die Anwendungen werden oft auch als eigenes Software-Ökosystem beschrieben, bei dem Personen oder Organisationen eben drinnen oder draußen sind – was die Sache schon etwas verkompliziert, wenn nicht sogar auf Dauer unwirtschaftlich macht. Warum könnte das so sein? Dazu habe ich einen Beitrag vom November 2023 gefunden, der das thematisiert und aus dem ich folgendes zitieren möchte:
“In Deutschland haben sich sowohl der Mittelstand als auch viele Großunternehmen an geschlossene Softwaresysteme gebunden, die sie nur in dem Maße gestalten können, wie es die Hersteller der betreffenden Systeme zulassen. Wer als Automobilhersteller beispielsweise auf Apple Carplay setzt, kann neue Features nur dann liefern, wenn Apple das ermöglicht. Das gleiche gilt für Maschinenbauer, die zur Analyse der beim Betrieb ihrer Maschinen anfallenden Daten auf proprietäre Cloud-Lösungen setzen: Es geht dann nicht primär darum, was vorteilhaft wäre, sondern darum, was das System anbietet” (Ganten/Doenheim/Schröter 2023).
Diese einseitige digitale Abhängigkeit ist genau so gefährlich, wie es die Energieabhängigkeit von Russland (Gas) war, und von den Arabischen Staaten (ÖL) noch ist. Wenn Daten das neue Öl sind, so muss Deutschland, bzw. die Europäische Union auf eine Souveränität bei den Daten bestehen, die in der EU generiert werden. Diese Daten können aus meiner Sicht nur mit Hilfe von Open Source Anwendungen (statt geschlossene Anwendungen) geschützt und transparent behandelt werden. Darüber hinaus fördern Open Source Anwendungen den vielfältigen Austausch und somit den Mode 2 in der Wissensproduktion, was wiederum zu mehr Innovation und Agilität führt.
Im klassischen/plangetriebenen Projektmanagement werden an vielen Stellen Daten generiert und benötigt. Es ist daher gut, sich klar zu machen, dass diese Daten in einem recht komplexen Netzwerk mit anderen Systemen verbunden sind.
Im Bereich “Personal” geht es natürlich um die Frage, welche Personalkapazitäten werden für das Projekt benötigt, und welche Kapazitäten stehen aus den Abteilungen zur Verfügung. Ein Ressourcenpool kann hier über viele Arbeitspakete, bzw. über viele Projekte im Multiprojektmanagement helfen, die Übersicht zu behalten. Im Bereich “Finanzen” werden beispielsweise Daten zu Stunden- und Tagessätzen, bzw. Verrechnungssätzen für die Kalkulation der Kosten benötigt. Auch die Liquiditätsplanung für ein Projekte oder auch viele Projekte basiert auf den Projektmanagement-Daten. Weiterhin kann es Sinn machen den Ablauf eines Projekts mit der Logistik abzustimmen. Grundsätzlich sind die Projektmanagement-Daten natürlich auch für das Informations-, Kommunikations- und Berichtswesen (IKBD), sowie für die Dokumentation wichtig.
Das sind nur wenige Beispiele, doch deutet es sich hier schon an, dass eine Software zu Projektmanagement nicht ausreicht, alle Anforderungen an ein professionelles Datenmanagement zu erfüllen. Besser ist es, eine Kollaborationsplattform zu etablieren, in der verschiedene Apps (inkl. Projektmanagement-Apps) zu einem Gesamtsystem integriert sind, und bei dem Sie die Datenhoheit (Datenschutz) in Ihrem Unternehmen behalten. Siehe dazu auch Von der Projektmanagement-Software zur Kollaborationsplattform.
Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.
Ja, es gibt ChatGPT von OpenAI, Bard von Google usw. usw. und ich muss sagen, dass die Ergebnisse z.B. von ChatGPT schon beeindruckend sind. Warum sollte man sich dennoch mit Alternatiuven befassen? Es ist relativ einfach, denn manche Unternehmen verbieten den Einsatz von diesen Systemen. Den Grund liefert die Google-Mutter Alphabet selbst: Bard: Google warnt Mitarbeiter vor der Nutzung des eigenen Chatbots. Hier ein Auszug:
Ausgerechnet die Google-Mutter Alphabet warnt seine Mitarbeiter vor der Nutzung generativer KI – inklusive des hauseigenen Chatbots Bard. Speziell Ingenieure sollten weder Code zur Fehleranalyse in trainierten Sprachmodelle eingeben, noch die ausgegebenen Zeilen nutzen. In einem am 1. Juni aktualisierten Datenschutzhinweis von Google heißt es Reuters zufolge: “Fügen Sie keine vertraulichen oder sensiblen Informationen in Ihre Bard-Konversationen ein”. (ebd.)
Die Entwicklungen von NEXTCLOUD könnten in diesem Zusammenhang interessant werden, da es auf Open-Source-Basis die in KI-Anwednungen generieten Daten in ihrer eigenen geschützten Cloud behält. Wie kann man sich das vorstellen? Wie Sie wissen, haben wir Nextcloud als Open-Source-Anwendung für Cloudanwendungen auf unseren Servern installiert. Dabei war bisher der Schwerpunkt auf der Weiterentwicklung zu einer integrierten Kollaborationsplattform auf Open-Source-Basis.
Seit Nextcloud Hub 4 gibt es die Möglichkeit, Apps zur Künstlicher Intelligenz (KI; AI: Articicial Intelligence) in Dateien aufzurufen. In dem Beispiel (Screenshot) haben wir eine Textdatei (TEXT.md) geöffnet, und mit dem Smart Picker (“/”) verschiedene KI-Anwendungen geöffnet. Eine davon basiert auf Stabe Diffusion und kann Bilder auf Basis einer Eingabe (Prompt) generieren. Beispielhaft haben wir in der vorgesehenen Zeile “Projektmanager in einer Teambesprechung” eingegeben. Das Ergebnis sehen Sie in dem Screenshot. Die generierten Daten und die Prompts bleiben alle auf unseren Servern. In einem der nächsten Blogbeiträge, werde ich eine weitere KI-Anwendung innerhalt von NEXTCLOUD vorstelen.
Ziel von Nextcloud ist es, in Zukunft immer mehr AI-Anwendungen integriert anzubieten, wobei die AI-Apps auch ethisch eingeordnet werden sollen. Basis dafür ist eine Ampelfunktion. Siehe dazu Nextcloud Hub 4 mit “ethical AI” Integration – Open Source.
Wir werden in der nächsten Zeit immer mehr AI-Apps in Nextcloud in Bezug zu unseren Themen wie z.B. Projektmanagement ausprobieren, und so wichtige Erfahrungen sammeln.
Solche Zusammenhänge thematisieren wir auch in den von uns entwickelten Blended Learning Lehrgängen, Projektmanager/in (IHK) und Projektmanager/in Agil (IHK), die wir an verschiedenen Standorten anbieten. Weitere Informationen zu den Lehrgängen und zu Terminen finden Sie auf unserer Lernplattform.
Translate »
Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.