Wie geht Indien mit Künstlicher Intelligenz um?

Quelle: https://static.pib.gov.in/WriteReadData/specificdocs/documents/2025/nov/doc2025115685601.pdf

In dem Beitrag Digitale Souveränität: Europa, USA und China im Vergleich wird deutlich, wie unterschiedlich die Herangehensweisen in den USA, in China und in Europa sind, wenn es um Künstliche Intelligenz geht. Darüber hinaus hat auch Japan mit dem Ansatz einer Society 5.0 beschrieben, dass Künstliche Intelligenz dazu dienen soll, die Herausforderungen einer modernen Gesellschaft zu lösen.

Auch das aufstrebende Indien hat nun seine Richtlinien für die gesellschaftliche Nutzung von Künstlicher Intelligenz (AI: Artificial Intelligence) veröffentlicht. Dabei werden gleich zu Beginn folgende 7 Prinzipien genannt:

01 Trust is the Foundation
Without trust, innovation and adoption will stagnate.
02 People First
Human-centric design, human oversight, and human empowerment.
03 Innovation over Restraint
All other things being equal, responsible innovation should be prioritised over cautionary restraint.
04 Fairness & Equity
Promote inclusive development and avoid discrimination.
05 Accountability
Clear allocation of responsibility and enforcement of regulations.
06 Understandable by Design
Provide disclosures and explanations that can be understood by the intended user and regulators.
07 Safety, Resilience & Sustainability
Safe, secure, and robust systems that are able to withstand systemic shocks and are environmentally sustainable.

Source: Ministry of Electronics and Information Technology (2025): India AI Governance Guidelines. Enabling Safe and Trusted AI Innovation (PDF)

Bemerkenswert finde ich, dass an erster Stelle steht, dass Vertrauen die Grundlage für Innovationen bildet. Vertrauen in die Möglichkeiten der Künstlichen Intelligenz kann man meines Erachtens nur durch Transparenz erreichen. Proprietäre KI-Systeme, bei denen unklar ist, wo die Daten herkommen und wie mit (auch eigenen) Daten umgegangen wird, sind unter der genannten Bedingung (Trust) mit Vorsicht zu genießen.

Siehe dazu auch Digitale Souveränität: Open Source KI-Systeme fördern Innovationen für die gesamte Gesellschaft.

Mit proprietärer Künstlicher Intelligenz (KI) kauft man sich auch die Denkwelt der Eigentümer ein

In dem Blogbeitrag Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century hatte ich schon einmal darauf hingewiesen, dass es nicht richtig ist, dass Europa „nur“ reguliert und die USA „nur“ innovativ sind.

In Europa, und gerade in Deutschland, möchten wir, dass der Rechtsstaat weiter existiert und die Gesellschaft nicht nur als Business Case gesehen wird. Der immer größer werdende Einfluss von aktuell Künstlicher Intelligenz auf eine Gesellschaft kann diese überfordern, denn mit jeder Software geht auch eine bestimmte Denkhaltung einher.

Auf solche Entwicklungen macht ein aktueller Kommentar im Handelsblatt aufmerksam. Hier geht es um die Denkwelt des Firmenchefs von Palantir, die man sich mit der Software mit einkauft:

„Palantir passt nicht zum deutschen Rechtsstaat. Das US-Unternehmen mag für Sicherheitsbehörden eine Hilfe sein. Doch die Haltung des Firmenchefs macht die Software zu einem Risiko für die politische Stabilität in Deutschland“ (Kommentar von Dieter Neuerer im Handelsblatt vom 12.12.2025).

Es stellen sich natürlich gleich weitere Fragen, wie z.B.: Stellen die Karten von Google Maps die Realität dar, oder sind „unliebsame“ Gebiete nicht verzeichnet? Enthalten die bekannten proprietäten KI-Modelle (Closed Models) Einschränkungen, die Ergebnisse tendenziell beeinflussen? Siehe dazu auch Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Proprietäre Software im Vergleich zu Open Source Software

Quelle: SFLC vom 11.11.2025

Digitale Souveränität fängt damit an, sich von propritärer Software unabhängiger zu machen. Proprietäre Software ist Software, deren Quellcode nicht öffentlich ist, und die Unternehmen gehört (Closed Software). Dazu zählen einerseits die verschiedenen Anwendungen von Microsoft, aber auch die von Google oder ZOHO usw.

Demgegenüber gibt es in der Zwischenzeit leistungsfähige Open Source Software. Die indische Organisation SFLC hat am 11. November eine Übersicht veröffentlicht, die Google Workplace, ZOHO Workplace und Nextcloud Office/ProtonMail/BigBlueButton gegenüberstellt – die Abbildung zeigt einen Ausschnitt aus der Tabelle, die in diesem Beitrag zu finden ist.

„The purpose of this comparison is to assess the different approaches, features, and trade-offs each solution presents and to help organizations make informed decisions based on their operational requirements, technical capabilities, and priorities around privacy, flexibility, and cost“ (ebd.).

Wir nutzen seit einiger Zeit Nextcloud mit seinen verschiedenen Möglichkeiten, inkl. Nextcloud Talk (Videokonferenzen), sodass BigBlueButton nicht separat erforderlich ist.

Darüber hinaus nutzen wir LocalAI über den Nextcloud Assistenten, haben OpenProject integriert und erweitern diese Möglichkeiten mit Langflow und Ollama, um KI-Agenten zu entwickeln.

Alles basiert auf Open Source Software, die auf unseren Servern laufen, sodass auch alle Daten auf unseren Servern bleiben – ganz im Sinne einer stärkeren Digitalen Souveränität.

MCP Week 2026 am Balaton in Ungarn

https://mcp-ce.org/

We are delighted to announce and honored to invite you to the Customization and Personalization Week from September 16-19, 2026 in Balatonfured, Hungary as a result of two decades of excellence in research, innovation, and collaboration in the field of mass customization and personalization.    

12th International Conference on Customization and Personalization    
7th Doctoral Students Workshop    
4th Professionals Panels & MEA KULMA Innovation Festival  

For the past 22 years, our conference with accompanying events has been at the forefront of innovation in the fields of customization and personalization. 

We are looking forward to seeing you at Danubius Hotel Marina, Balatonfüred, Hungary!

Website: https://mcp-ce.org/

Apertus: Schweizer Open Source KI – Modell veröffentlicht

Image by Stefan Schweihofer from Pixabay

In der Zwischenzeit gibt es einen Trend zu Open Source KI-Modellen. Aktuell hat beispielsweise die ETH Zürich zusammen mit Partnern das KI-Modell Apertus veröffentlicht:

Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell
Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben am 2. September Apertus veröffentlicht: das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI“ (Pressemitteilung der ETH Zürich vom 02.09.2025)

Der Name Apertus – lateinisch für offen – betont noch einmal das grundsätzliche Verständnis für ein offenes , eben kein proprietäres, KI-Modell, das u.a auch auf Hugging Face zur Verfügung steht. Die beiden KI-Modelle mit 8 Milliarden und 70 Milliarden Parametern bieten somit auch in der kleineren Variante die Möglichkeit, der individuellen Nutzung.

Es gibt immer mehr Personen, Unternehmen und öffentliche Organisationen, die sich von den Tech-Giganten im Sinne einer Digitalen Souveränität unabhängiger machen möchten. Hier bieten in der Zwischenzeit sehr viele leistungsfähige Open Source KI-Modelle erstaunliche Möglichkeiten- auch im Zusammenspiel mit ihren eigenen Daten: Alle Daten bleiben dabei auf Ihrem Server – denn es sind Ihre Daten.

Da das KI-Modell der Schweizer unter einer Open Source Lizenz zur Verfügung steht, werden wir versuchen, Apertus auf unseren Servern auch in unsere LocalAI, bzw. über Ollama in Langflow einzubinden.

Mit Künstlicher Intelligenz zu Innovationen – aber wie?

Wenn es um Innovationen geht, denken viele an bahnbrechende Erfindungen (Inventionen), die dann im Markt umgesetzt, und dadurch zu Innovationen werden.. Da solche Innovationen oft grundlegende Marktstrukturen verändern, werden diese Innovationen mit dem Begriff „disruptiv“ charakterisiert. Siehe dazu auch Disruptive Innovation in der Kritik.

Betrachten wir uns allerdings die Mehrzahl von Innovationen etwas genauer, so entstehen diese hauptsächlich aus der Neukombination von bestehenden Konzepten. Dazu habe ich auch eine entsprechende Quelle gefunden, die das noch einmal unterstreicht.

„New ideas do not come from the ether; they are based on existing concepts. Innovation scholars have long pointed to the importance of recombination of existing ideas. Breakthrough often happen, when people connect distant, seemingly unrelated ideas“ (Mollick 2024).

Bei Innovationsprozessen wurden schon in der Vergangenheit immer mehr digitale Tools eingesetzt. Heute allerdings haben wir mit Künstlicher Intelligenz (GenAI) ganz andere Möglichkeiten, Neukombinationen zu entdecken und diese zu Innovationen werden zu lassen.

Dabei kommt es natürlich darauf an, welche Modelle (Large Language Models, Small Language Models, Closed Sourced Models, Open Weighted Models, Open Source Models) genutzt werden.

Wir favorisieren nicht die GenAI Modelle der bekannten Tech-Unternehmen, sondern offene, transparente und für alle frei zugängige Modelle, um daraus dann Innovationen für Menschen zu generieren.

Wir setzen diese Gedanken auf unseren Servern mit Hilfe geeigneter Open Source Tools und Open Source Modellen um:

LocalAI: Open EuroLLM: Ein Modell Made in Europe – eingebunden in unsere LocalAI

Ollama und Langflow: Ollama: AI Agenten mit verschiedenen Open Source Modellen entwickeln

Dabei bleiben alle Daten auf unseren Servern – ganz im Sinne einer Digitalen Souveränität.

Den Gedanken, dass Künstliche Intelligenz (Cognitive Computing) Innovationen (hier: Open Innovation) unterstützen kann, habe ich schon 2015 auf der Weltkonferenz in Montreal (Kanada) in einer Special Keynote vorgestellt.

Siehe dazu Freund, R. (2016): Cognitive Computing and Managing Complexity in Open Innovation Model. Bellemare, J., Carrier, S., Piller, F. T. (Eds.): Managing Complexity. Proceedings of the 8th World Conference on Mass Customization, Personalization, and Co-Creation (MCPC 2015), Montreal, Canada, October 20th-22th, 2015, pp. 249-262 | Springer

Balanced Resilience – Ansatz: Widerstandsfähigkeit entwickeln

Bourdon, B.; Katzmayr, K. (2012) in Möller et al 49. Aktualisierung

Bei allen Veränderungen stehen Risiken und Chancen im Fokus. Dabei geht es oft darum, beide Extreme auszubalancieren, um widerstandsfähiger (robuster) gegenüber Veränderungsimpulsen zu sein und zu werden.

Hilfreich kann es dabei sein, sich in allen Fällen Misserfolgsfaktoren und Erfolgsfaktoren bewusst zu machen. Die Zusammenhänge sind in der Abbildung in Form einer Kraftfeldanalyse dargestellt.

„Für eine ausbalancierte Risiken- und Chancenfokussierung sorgt hier der Balanced Resilience-Ansatz. Resilience im Sinne einer Widerstandsfähigkeit oder Robustheit fungiert – im Gegensatz zur Excellence – als realistische Leitidee, weil man dadurch sowohl den real existierenden, nicht selten spektakulären Termin- und Budgetüberschreitungen bei PM (Anmerkung RF: Projektmanagement) als auch dem Versanden so manchen Reformprozesses im CM (Anmerkung RF: Changemanagement) Rechnung tragen kann. Im Balanced Resilience-Ansatz sind die Performance-Determinanten im Sinne der Kraftfeld-Analyse als Kräfte modelliert. Zur Sicherstellung der Realistik und der Ausgewogenheit werden vier Performance-Determinanten erfasst. Sie unterscheiden sich hinsichtlich ihrer Richtung und Stärke, wie in der Abbildung verdeutlicht“ (vgl. Bourdon&Katzmar 2012).

Weitere Beiträge zu Resilienz finden Sie hier.

Eine soziologische Perspektive auf „Gemeinschaft“ und „Gemeinsinn“

Image by louisehoffmann83 from Pixabay

In einer heute komplexen Welt wird gesellschaftlich auf allen Ebenen versucht, den Gemeinsinn oder die Gemeinschaft zu beschwören, obwohl das der Realität nicht entspricht.

In den Unternehmen wird oft die Gemeinschaft oder der Gemeinsinn sogar noch mit weiteren Metaphern – wie z.B. „Familie“ – auf die Spitze getrieben. Der Soziologe Armin Nassehi sieht solche Entwicklungen kritisch:

„Wer auf die Gemeinschaft setzt, muss sagen, wer nicht dazugehört. Appelle ans Wir-Gefühl haben immer auch etwas Ausschließendes. Wenn man in einem Unternehmen von der Belegschaft einen starken Gemeinsinn einfordert, riskiert man, dass sich niemand mehr traut, zu widersprechen. Das ist tödlich für alle Kreativität, die man im Unternehmen dringend braucht. Der ausgerufene Gemeinsinn hat eine kompensatorische Funktion, damit soll ein Versagen zum Beispiel des Managements oder der Politik kaschiert werden“ (Nassehi in brand eins 12/2024).

Daraus leitet sich ab, dass Unternehmen bei der Verwendung der genannten Begriffe vorsichtiger sein sollten, wenn sie Kreativität und Innovation in ihrer Organisation benötigen. Siehe dazu auch

Anders über gesellschaftliche Transformation nachdenke

Blockiert die Ausrichtung auf Kernkompetenzen Innovationen?

 

Anders über gesellschaftliche Transformation nachdenken

Image by Engin Akyurt from Pixabay

Früher haben alle in den Organisationen von Change gesprochen, heute reden alle über Transformation. In dem Blogbeitrag Wandel, Change, Transformation oder doch Transition? habe ich dazu verschiedene Perspektiven zusammengefasst.

Auf der gesellschaftlichen Ebene wird im Zusammenhang mit Transformation oft davon ausgegangen, dass es eine relativ homogene Gesellschaft gibt, doch dem ist nicht so. Ein gut gemeinter Wille, beispielsweise der Politik, zur Veränderungen in einer Gesellschaft reicht einfach nicht.

Gerade bei Veränderungsprozessen merken alle Beteiligten – manchmal schmerzhaft- , dass es in einer Gesellschaft viele und vielschichtige Widerstände gibt. Es ist wieder einmal bezeichnend, dass es gerade Soziologen sind, die darauf hinweisen – beispielsweise Armin Nassehi:

„Aber dieser Triumph des Willens rechnet nicht mit dem Eigensinn, mit der inneren Komplexität und den Widerständen einer Gesellschaft, die eben kein ansprechbares Kollektiv ist. Und sie rechnet nicht mit der populistischen Reaktion auf Krisenerfahrungen. Dabei wird immer deutlicher: Man kann nicht gegen die Gesellschaft transformieren, sondern nur in ihr und mit ihr – und nur mit ihren eigenen Mitteln“ (Der Soziologe Armin Nassehi in einem Interview in brand eins 12/2024).

In seinem Buch weist Nassehi auch darauf hin, dass die notwendigen Veränderungen trotz des vielschichtigen Widerstandes in allen Ecken der Gesellschaft schon geschehen.

»Gesellschaftliche Transformation kann nicht als große Form funktionieren, sondern nur als eine, die in konkreten Situationen erfolgreich sein kann. Das ganze Programm der kleinen Schritte läuft längst …“ Armin Nassehi (2024): Kritik der großen Geste. Anders über gesellschaftliche Transformation nachdenken | Bei Amazon

Es ist auch hier wieder interessant zu sehen, dass es immer wieder Soziologen sind, die bei komplexen Zusammenhänge spannende alternative Deutungsmuster anbieten. Der Mainstream wird diese allerdings nicht aufnehmen, da Mainstream häufig nicht klären und aufklären, sondern eher beeinflussen will. Weitere Blogbeiträge dazu finden Sie hier.

Künstliche Intelligenz: Hohe Investitionen und keine Rendite?

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Es ist schon erstaunlich: Tag für Tag lesen wir von Milliardeninvestitionen der Unternehmen in GenAI. Es gibt in der Zwischenzeit auch genügend Beispiele aus allen Branchen die zeigen, wie mit Künstlicher Intelligenz (GenAI) produktiver als vorher gearbeitet werden kann. Somit sollten diese Effekte auch betriebswirtschaftlich nachgewiesen werden können.

Die Frage st also: Gibt es auch eine gewisse Rendite auf die Investitionen, die in solche Projekte gesteckt werden?

Eine MIT-Studie vom Juli 2025 zeigt ein überraschendes Ergebnis: Der Erfolg, in Form einer messbaren Rendite (Return on Investment). kann bei 95% der Organisationen nicht nachgewiesen werden. Hier der Originalabsatz aus der Studie:

Despite $30–40 billion in enterprise investment into GenAI, this report uncovers a surprising result in that 95% of organizations are getting zero return. The outcomes are so starkly divided across both buyers (enterprises, mid-market, SMBs) and builders (startups, vendors, consultancies) that we call it the GenAI Divide. Just 5% of integrated AI pilots are extracting millions in value, while the vast majority remain stuck with no measurable P&L impact. This divide does not seem to be driven by model quality or regulation, but seems to be determined by approach“ (MIT NANDA 2025).

Interessant ist, dass der jeweils gewählte Ansatz (determined by approach) wohl das Grundübel ist. Möglicherweise ist es gar nicht so gut, sich nur auf die sehr großen, proprietären KI-Anbieter zu konzentrieren – ja, sich von diesen abhängig zu machen. Siehe dazu beispielsweise auch KI-Modelle: Monitoring einer Entwicklungsumgebung.