MCP-CE 2026: 12th International Conference on Customization and Personalization

Screenshot von der Konferenzwebsite https://mcp-ce.org/

Manchmal kann ich es gar nicht glauben: Die MCP-CE – Konferenzreihe findet in 2026 zum 12. Mal statt. Seit 2004 gibt es alle 2 Jahre die Möglichkeit, sich zu den Themen Customization und Personalization auszutauschen.

Die Idee zu der Konferenzreihe hatte ich 2001 auf der ersten Weltkonferenz MCP2001 in Hong Kong, an der ich teilgenommen habe. Damals haben mir viele gesagt, dass das wohl kaum funktionieren würde. Doch gemeinsam mit vielen Kollegen aus verschiedenen Ländern ist es gelungen, die Konferenzreihe zu etablieren. An dieser Stelle: Herzlichen Dank an alle, die uns unterstützt haben.

In 2026 werden wir uns mit den verschiedenen internationalen Kollegen aus Forschung und Wirtschaft in Ungarn treffen. Vom 16.-19.09.2026 finden in Balatonfüred insgesamt drei Events statt:

Die Konferenz mit spannenden Beiträgen und Diskussionen.

Ein Workshop für Doktoranden, der schon zum 7. Mal durchgeführt wird.

Das 4. Ideen-Forum: Man weiß nie, was sich aus den vielen Ideen, die auf der Konferenz ausgetauscht werden, entsteht…

Sprechen Sie mich bitte an, wenn Sie weitere Informationen zur Konferenz benötigen.

Künstliche Intelligenz für die Menschen

UN (2024): Governing AI For Humanity

Immer mehr Regionen und Länder stellen fest, dass die Entwicklung der Künstlichen Intelligenz – wie alle Innovationen – mindestens zwei Seiten hat. Es gibt einerseits den Nutzen für Menschen, Unternehmen und Gesellschaften und andererseits auch Schwierigkeiten.

Solche Entwicklungen geben immer Anlass, darüber nachzudenken, ob Künstliche Intelligenz so gesteuert werden kann, dass es nicht nur einzelnen Unternehmen zugute kommt, sondern einer ganzen Gesellschaft.

In der Zwischenzeit gibt es sehr viele nationale und regionale Initiativen, die versuchen, einerseits die Entwicklungen von Künstlicher Intelligenz zu fördern, andererseits aber auch Grenzen zu ziehen, deren Überschreitung zu möglichen gesellschaftlichen Schäden führen können.

Die United Nations (UN) ist für so eine Fragestellung prädestiniert, und hat mit der Veröffentlichung UN /2024): Governing AI For Humanity (PDF) eine gute Basis geschaffen, um ausgewogen über das Thema diskutieren zu können.

Aktuell habe ich den Eindruck, dass die Diskussionen über die Entwicklung und Nutzung Künstlicher Intelligenz von den amerikanischen Tech-Konzernen dominiert werden, die ihre wirtschaftlichen Vorteile sehen, die gesellschaftlich negativen Auswirkungen gerne den jeweiligen Ländern überlassen wollen.

Siehe dazu auch Bris, A. (2025): SuperEurope: The Unexpected Hero of the 21st Century und die Erläuterungen zu einer Society 5.0.

Digitale Souveränität: Nuudle – ein nicht-trackendes Termintool

Screenshot: https://nuudel.digitalcourage.de//

Viele Menschen nutzen Doodle für die einfache Terminabstimmung. Im Sinne einer Digitalen Souveränität kann alternativ Nuudle genutzt werden. Wie die Abbildung zeigt, können über Termine hinaus auch noch klassische Umfragen erstellt werden.

Nuudle ist ein datensparsames Termintool und unterstützt daher Personen und Organisationen, die ihre Daten schützen möchten.

Das Tool ist auf der Website von digitalcourage zu finden, auf der es viele Hinweise dazu gibt, wie man seine eigenen Daten schützen kann. Manches finde ich gut, manches etwas überzogen – wie immer…

Siehe dazu auch Welche Open Source Alternativen gibt es?

Open Source AI: Kimi K2 Thinking vorgestellt

Mit DeepSeek ist chinesischen Entwicklern ein Coup gelungen, denn sie konnten zeigen, dass ein KI-Modell nicht teuer sein muss. Die amerikanischen Tech-Giganten standen damals mit ihren Milliarden-Investitionen ziemlich schlecht dar.

Nun gibt es mit Kimi K2 Thinking ein weiteres Modell, mit dem chinesische Entwickler zeigen, wie mit relativ wenigen Ressourcen – und damit Kosten – ein leistungsfähiges Modell angeboten werden kann. Der Schwerpunkt des Modells liegt dabei auf “Coding”.

Es ist Open Source basiert und wurde unter der MIT-Lizenz veröffentlicht. Diese enthält eine interessante Klausel: Da amerikanische Konzerne chinesische Open Source Modelle gerne für ihre Entwicklungen nutzen – ohne das transparent zu machen – ist die freie kommerzielle Nutzung bis zu einem monatlichen Umsatz von 20 Millionen Dollar möglich.

Kimi K2 Thinking ist ein MoE-Modell, (for Coding) dessen Entwicklung nur 4,6 Millionen Dollar gekostet haben soll – wieder eine beeindruckende Kennzahl. Darüber hinaus zeigen Benchmarks, die enorme Leistungsfähigkeit des Modells. Weitere Informationen sind in dem folgenden Beitrag zusammengefasst:

Moonshot AI stellt Kimi K2 Thinking als “bestes Open-Source-Thinking-Modell” vor (Krempler, J. 2025, in the decoder vom 07.11.2025).

Mal sehen, ob wir das Modell auch in LocalAI, bzw. in Ollama auf unseren Servern einbinden können. Bis dahin kann auf der Landingpage Kimi K2 Thinking getestet werden.

Gedanken zu Vertrauen und Misstrauen

Image by Gerd Altmann from Pixabay

Gerade in Zeiten mit vielfältigen und turbulenten Veränderungen ist es wichtig zu wissen, wem (Personen, Organisationen) man vertrauen kann. Es gibt immer wieder ausführliche Darstellungen darüber, dass “Vertrauen verloren gegangen ist”, wenn es Unternehmen schlecht geht, und dass Vertrauen die Basis für ein gutes Zusammenleben ist.

Vertrauen stellt also einen nicht unerheblichen Faktor im Wirtschaftsleben, aber auch im gesellschaftlichen Zusammenleben dar. Deshalb sollte man sich zunächst einmal darüber klar werden, was unter Vertrauen zu verstehen ist.

Vertrauen als Fähigkeit, soziale Beziehungen in Situationen der Ungewissheit und Mehrdeutigkeit (temporär) zu stabilisieren (vgl. Weick, 1995).

Vertrauen stabilisiert also soziale Beziehungen, was wiederum bedeutet, dass Misstrauen soziale Beziehungen destabilisiert. Es scheint, dass Misstrauen gegenüber Vertrauen stärker verbreitet ist. Im World Social Report 2025 wir deutlich dargestellt, welche Auswirkungen Misstrauen hat.

Hier das eine oder andere Beispiel aus meiner Perspektive:

Lebensmittelbranche: Ich misstraue der Branche grundsätzlich, da sie immer mehr Produkte industriell fertigt und dabei viele Zusatzstoffe verwendet, die Menschen auf Dauer krank machen können. Siehe dazu Die Tricks mit Brot und Brötchen – ARD Mediathek oder die vielen Sendungen von Sebastian Lege.

Gastronomie: Kann man den vielen Gastronomen wirklich vertrauen? Manche schaffen es ja sogar, dem Gast Leitungswasser als “”Eigenmarke” zu Höchstpreisen zu verkaufen.

Gesundheitswesen: Kann ich den Akteuren vertrauen, wenn z.B. ein Arzt nur Geld verdient, wenn ich krank bin? Natürlich gibt es im System Personen, denen ich vertraue, doch kann ich dem Gesundheitssystem vertrauen?

Finanzwesen: Die verschiedenen Finanzprodukte sind schon seit Jahren in der Kritik, da es of an Transparenz fehlt, und mehr der Profit der Bank im Fokus steht, als das Wohl der Kunden.

Künstliche Intelligenz: Kann ich den KI-Angeboten der Tech-Konzerne vertrauen? Es gibt bei den proprietären Angeboten keine Transparenz darüber, welche Daten für die Modelle genutzt wurden und wie mit neuen Daten umgegangen wird. Siehe dazu Künstliche Intelligenz: Würden Sie aus diesem Glas trinken?

Es wäre schön, wenn nicht mehr die Manipulationen von Menschen (Kunden) im Mittelpunkt stehen würden, sondern die wirklichen Bedürfnisse von Menschen.

Siehe dazu auch Neue Arbeitswelt: Vertrauen als Ersatz für Kontrolle? und Produkte und Dienstleistungen als Mehrwert für Kunden: Warum funktioniert das einfach nicht?

IT ALL STARTS WITH TRUST

Open Source AI: OlmoEarth Modell-Familie veröffentlicht

Screenshot: https://allenai.org/blog/olmoearth-models

Über die Open Source AI-Modelle der Olmo2-Familie habe ich schon einmal in diesem Blogbeitrag geschrieben. Grundsätzlich soll mit diesen Modellen die Forschung an Sprachmodellen unterstützt werden. Anfang November hat Ai2 nun bekannt gegeben, dass mit OlmoEarth eine weitere Modell-Familie als Foundation Models (Wikipedia) zur Verfügung steht.

OlmoEarth is a family of open foundation models built to make Earth AI practical, scalable, and performant for real-world applications. Pretrained on large volumes of multimodal Earth observation data” (Source: Website).

Es handelt sich also um eine offene, trainierte Modell-Familie, die zur Lösung realer Probleme (real world problems) beitragen sollen. Hier ein Beispiel von der Nutzung der Daten für eine Fragestellung in Nigeria:

Es gibt vier unterschiedliche Modelle. Interessant dabei ist, dass es auch kleine Modelle (Nano und Tiny) gibt, die kostengünstig sind, und schnell genutzt werden können:

OlmoEarth-v1-Nano (~1.4M parameters) & OlmoEarth-v1-Tiny (~6.2M)—for fast, cheap inference at scale
OlmoEarth-v1-Base (~90M)—balanced accuracy and speed for most use cases
OlmoEarth-v1-Large (~300M)—best performance on challenging tasks

Auf der OlmoEarth-Platform können die Modelle getestet werden.

Innovationen: Künstliche Intelligenz und Neu-Kombinationen

Bei Innovationen sollten wir uns zunächst einmal klar machen, was im Unternehmenskontext darunter zu verstehen ist. Das Oslo Manual schlägt vor, Innovation wie folgt zu interpretieren:

“(…) a new or improved product or process (or combination thereof) that differs significantly from the unit’s previous products or processes and that has been made available to potential users (product) or brought into use by the unit (process)” (Oslo Manual 2018).

Dass Innovation u.a. eine Art Neu-Kombination von Existierendem bedeutet, ist vielen oft nicht so klar (combination thereof). Neue Ideen – und später Innovationen – entstehen oft aus vorhandenen Konzepten. oder Daten.

An dieser Stelle kommen nun die Möglichkeiten der Künstlichen Intelligenz (GenAI oder auch AI Agenten) ins Spiel. Mit KI ist es möglich, fast unendlich viele Neu-Kombinationen zu entwickeln, zu prüfen und umzusetzen. Das können Unternehmen nutzen, um ihre Innovationsprozesse neu zu gestalten, oder auch jeder Einzelne für seine eigenen Neu-Kombinationen im Sinne von Open User Innovation nutzen. Siehe dazu Von Democratizing Innovation zu Free Innovation.

Entscheidend ist für mich, welche KI-Modelle dabei genutzt werden. Sind es die nicht-transparenten Modelle der Tech-Unternehmen, die manchmal sogar die Rechte von einzelnen Personen, Unternehmen oder ganzer Gesellschaften ignorieren, oder nutzen wir KI-Modelle, die frei verfügbar, transparent und für alle nutzbar sind (Open Source AI)?

Wenn wir das Wohl der Menschen, und nicht nur den Profit einzelner Tech-Konzerne in den Mittelpunkt stellen, kommt für mich im Sinne einer Digitalen Souveränität nur Open Source AI infrage. Siehe dazu auch Open Source AI: Besser für einzelne Personen, Organisationen und demokratische Gesellschaften.

9 Anzeichen für einen falschen Umgang mit Komplexität im Unternehmen

In unserem Blog habe ich schon oft über komplizierte und komplexe Aufgabenstellungen geschrieben. Siehe dazu beispielsweise Was sind Eigenschaften von komplexen Aufgabenstellungen? oder Alle reden über Komplexität, doch wer kennt schon Bifurkationspunkte?

Je vernetzter die Strukturen einer Organisation (innen und außen) sind, um so höher ist der Grad an Komplexität. Dabei unterliegen viele einem Irrtum, denn der Begriff „komplex“ ist keine Steigerungsform von „kompliziert“. Interessant ist, dass es durchaus Anzeichen für den falschen Umgang mit Komplexität in Unternehmen git. Dazu habe ich folgendes gefunden:

9 Anzeichen für einen falschen Umgang mit Komplexität im Unternehmen:

(1) Bekämpfung der Symptome anstelle der Ursachen
Es wird immer nur das repariert, was gerade hakt. Eine Suche nach der Ursache hinter dem
Symptom findet nicht statt. Symptom und Problem werden gleichgesetzt.

(2) Übergeneralisierung
Wenige (oft unzusammenhängende) Ereignisse führen zu allgemeinen Regeln und Schlussfolgerungen für ähnliche Situationen in der Zukunft.

(3) Methodengläubigkeit
Um Fehler künftig zu vermeiden und Unwägbarkeiten „bestimmbar“ zu machen, sucht man ständig nach neuen Methoden oder überarbeitet die bestehenden.

(4) Projektmacherei
„Wenn du nicht mehr weiterweißt, bilde einen Arbeitskreis.“ Sobald Aufgaben nicht mehr leicht zu lösen sind, werden Projekte initiiert.

(5) Betriebsame Hektik
Gerade wenn Aufgaben unlösbar erscheinen und der Überblick fehlt, wird viel „gearbeitet“ und wenig übers Handeln kommuniziert und reflektiert.

(6) Denken in „kurzen Laufzeiten“
Bei Entscheidungen wird nur der direkte Wirkzusammenhang in der nahen Zukunft betrachtet, ohne die zeitlich verzögerten Effekte zu berücksichtigen. Der Zeithorizont wird dabei meist durch Rahmenbedingungen (Projektlaufzeit, Zeitvertrag, Berufung Aufsichtsrat usw.) bestimmt, die mit dem System nichts zu tun haben.

(7) Schutz des mentalen Modells vor der Welt
„Das, was ich denke, ist richtig!“, ist eine verbreitete Überzeugung.

(8) Feedback wird weder gehört noch verstanden
Der wichtigste Regelungsmechanismus für komplexe Systeme wird nicht verwendet. Man überhört jede Form von Kritik, Bestätigung, Ideen, Hinweisen und schwachen Signalen und nichts davon findet Eingang in das System.

(9) Mangelndes Systemdenken:
Gedacht, diskutiert und geplant wird in linearen Kausalzusammenhängen, ohne Wechselwirkungen zu betrachten. Der Fokus liegt auf Details, das Big Picture bleibt außen
vor.

Quelle: Stephanie Borgert (2015) : Irrtümer der Komplexität. Gabal, Offenbach.

Kontextorientierte Innovationstrategie in Zeiten von Künstlicher Intelligenz

Innovation ist ein wesentliches Element für den Wohlstand einer Gesellschaft – nicht nur für einzelne Unternehmen. Diese orientieren sich in ihren Strategien oft auf Technik (technikorientiere Innovationsstrategie) und auf Kunden (kundenorientierte Innovationsstrategie). Beide Perspektiven sollten durch ein Denken in Kontexten ergänzt werden.

“Eine kontextorientierte Innovationsstrategie versucht daher, nutzerorientierte Lösungsansätze für die Bewältigung und Entlastung von Alltagskomplexität in innovative Produkte und Dienstleistungen zu übersetzen. (…) Eine kontextorientierte Strategie ist von der Perspektive her langfristig orientiert, verbindet technologisches Wissen mit den jeweiligen soziokulturellen Anwendungskontexten und trägt insofern der rekursiven Beziehung von Innovation und Bedürfnis Rechnung. Dabei zielt eine kontextorientierte Innovationsstrategie letztlich auf Differenzierung am Markt, denn »the essence of strategy is […] choosing to perform activities differently or to perform different activities than rivals« – und damit auf langfristiges Überleben am Markt (Porter 1996, 64)” Quelle: Burmeister et al. (2006): Innovation im Kontext: Ansätze zu einer offenen Innovationsstrategie, in Drossou (2006).

Gerade in Zeiten von Künstlichen Intelligenz werden oftmals nur die Dimensionen “Technik” und “Kunde” thematisiert und zu wenig der gesellschaftliche Kontext von Innovationen mit bedacht. Die ersten beiden Dimensionen sind eher kurzfristig, die kontextorientierte Innovationsstrategie eher langfristig ausgerichtet. Gerade dieser Punkt ist für eine gesellschaftliche Entwicklung wichtig, die alle Menschen mit einbezieht.

Diese Gedanken passen gut zu dem in Japan vorgestellten Ansatz einer Society 5.0.

Menschen und AI Agenten im Zusammenspiel

Conceptual technology illustration of artificial intelligence. Abstract futuristic background

Immer mehr Organisationen fragen sich, inwiefern Workflows und besonders AI Agenten die bisher von Menschen durchgeführten Arbeiten ersetzen werden. In dem Blogbeitrag The Agent Company: KI-Agenten können bis zu 30% der realen Aufgaben eines Unternehmens autonom übernehmen wird deutlich, was heute schon in einzelnen Branchen möglich ist.

Auch der Jobs Reports 2025 des WEF zeigt auf, dass bis 2030 wohl 172 Millionen neue Jobs entstehen, und 92 Millionen wegfallen werden. Es geht dabei nicht immer um komplette Jobs, sondern auch um Teilbereiche oder Tätigkeitsportfolios, die immer mehr von AI Agenten übernommen werden (können).

Alles was mit Logik und Speicherung zu tun hat, ist eher die Stärke von Künstlicher Intelligenz, den Workflows, bzw. den AI Agenten. Doch in welchen Bereichen versagen AI Agenten noch? Dazu habe ich den folgenden Text gefunden:

“AI agents don’t fail because they’re weak at logic or memory. They fail because they’re missing the “L3” regions — the emotional, contextual, and motivational layers that guide human decisions every second” (Bornet 2025 via LinkedIn).

Dabei bezieht sich Bornet auf eine Veröffentlichung von Bang Liu et al. (2025:19-20), in dem die Autoren drei Hirnregionen in Bezug auf AI (Artificial Intelligence) untersuchten. L1: Well developed; L2: Partially developed; L3: Underexplored.

Das Ergebnis ist also, dass AI Agenten in den Ebenen Emotionen, Kontext und Motivation unterentwickelt sind (L3), wenn es um menschliche Entscheidungen geht.

Erkenntnis (Cognition) entsteht dabei nicht nur in einem Bereich im Gehirn, sondern durch das Zusammenspiel vieler unterschiedlich vernetzter Areale. Bei komplexen Problemlösungsprozesse (CPS: Complex Problem Solving) geht es verstärkt um Emotionen, Kontext und Motivation.

Im Idealfall könnten Menschen an diesen Stellen einen Mehrwert für eine qualitativ gute Problemlösung (Erkenntnis) einbringen. Es stellt sich dabei allerdings auch die Frage, wie stark sich Menschen an die Möglichkeiten einer Künstlichen Intelligenz (AI Agenten) anpassen sollen.

Zusätzlich können die in dem sehr ausführlichen wissenschaftlichen Paper von Bang Liu et al. (2025) erwähnten Zusammenhänge Hinweise geben, wie die Zusammenarbeit – das Zusammenspiel – zwischen Menschen und AI Agenten organisiert, ja ermöglicht werden kann.