Warum die eigentliche Herausforderung nicht die Technologie ist
In den sozialen Medien tobt ein Stellungskrieg. Auf der einen Seite die KI-Propheten, die mit Apokalypse-Timelines ihre Reichweite maximieren. Auf der anderen Seite die Pragmatiker, die aus der Praxis berichten: Ja, KI verändert die Arbeit — aber anders, als die Headlines suggerieren. Erfahrene Enterprise-Architekten beschreiben, wie sie mit Claude Code produktiver arbeiten als je zuvor — und gleichzeitig darauf hinweisen, dass ihr Domänenwissen und ihre Architekturerfahrung die Voraussetzung für diese Produktivität sind, nicht deren Opfer.
Ich bin kein Freund von pauschalen Antworten, die nur die Extrema möglicher Perspektiven adressieren. Modellbildung muss immer mit Zweck und Kontext abgeglichen werden. Schauen wir uns deshalb das KI-Thema differenziert an.
Wird KI Tätigkeiten ersetzen, die heute von Menschen ausgeübt werden?
Ja. Das tut sie bereits, und sie wird es in zunehmendem Umfang tun. Routineanalysen, Texterstellung, Codezeilen, Datenaufbereitung — überall dort, wo kognitive Arbeit wiederholbar und musterbasiert ist, übernimmt KI schneller und günstiger. Das zu leugnen wäre naiv.
Wird KI Menschen überflüssig machen?
Nein — aber sie wird die Definition von Wert verschieben. Was gestern als Expertise galt (das Wissen, wie man etwas tut), wird zur Commodity. Was morgen zählt, ist Urteilsvermögen: zu wissen, was getan werden sollte, warum, und ob das Ergebnis stimmt. Die Tätigkeit verschwindet, die Verantwortung bleibt. Und Verantwortung lässt sich nicht automatisieren.
Wird KI eine Arbeitslosenwelle erzeugen?
Wahrscheinlich nicht in dem Umfang, den die Apokalyptiker predigen — aber die Übergänge werden schmerzhaft sein, wenn sie nicht gestaltet werden. Das Jevons-Paradoxon deutet darauf hin, dass effizientere kognitive Leistung mehr Arbeit erzeugt, nicht weniger. Aber die Art der Arbeit wird sich verändern, und wer nicht lernt und befähigt wird, fällt durch das Raster.
Wird KI die Arbeit optimieren oder verdichten?
Beides — und genau hier liegt die Gefahr. Optimierung heißt, mit gleichem Aufwand bessere Ergebnisse zu erzielen. Verdichtung heißt, mit gleichem Output weniger Menschen zu beschäftigen. Die Entscheidung zwischen beiden ist keine technische, sondern eine der Führung. Wer auf Verdichtung setzt, gewinnt kurzfristig Marge und verliert langfristig Tragfähigkeit.
Wer trägt die Verantwortung, wenn die KI falsch liegt? Nicht die KI — die kann keine Verantwortung tragen. Das erinnert mich an Pressemeldungen, in denen Autofahrer ihr Auto in Gräben und Kanäle manövriert haben, weil sie stumpf dem GPS folgten, ohne Kontext und Verstand zu benutzen. Jemand muss die Verantwortung übernehmen. Aber wer, wenn der Mensch mit dem Wissen längst gegangen ist? Haben wir die Architektur, die das alles tragen kann?
Das ist die Frage dieses Artikels. Und die aktuelle Antwort ist in den meisten Organisationen: Nein.
Martec's Law und die neue Schallmauer
Scott Brinker hat 2013 ein Gesetz formuliert, das seitdem immer relevanter wird: Technologie verändert sich exponentiell, Organisationen logarithmisch. Die Schere zwischen beiden wird größer, nicht kleiner. Und irgendwann muss jede Organisation einen Reset machen — eine bewusste Neuausrichtung, um den Gap nicht zur Kluft werden zu lassen.
KI ist nicht einfach die nächste Technologiewelle. Sie ist eine neue Schallmauer der Veränderungsdynamik und hat die größte jemals gemessene Adaptionsrate. Keine Technologieadoptionskurve war je so steil. Und keine hat so direkt in die kognitive Wertschöpfung eingegriffen — also in das, was Wissensarbeiter zu Wissensarbeitern macht.
Der Reflex der meisten Organisationen: schneller werden. Schneller implementieren, schneller automatisieren, schneller die Effizienzgewinne einfahren.
Das Gen-AI-Paradoxon: Die Daten bestätigen den Befund
McKinseys QuantumBlack-Report „Seizing the Agentic AI Advantage" liefert die empirische Unterfütterung für genau diesen Reflex — und sein Scheitern. Die Zahlen sind ernüchternd: 78 Prozent der Unternehmen setzen bereits generative KI ein. Gleichzeitig berichten über 80 Prozent von keinem messbaren Beitrag zum Unternehmensergebnis. Nur 1 Prozent der befragten Unternehmen betrachten ihre KI-Strategie als ausgereift.
McKinsey nennt das den „Gen AI Paradox" — für all die Energie, Investitionen und das Potenzial, das die Technologie umgibt, hat sich der Effekt im Maßstab für die meisten Organisationen noch nicht materialisiert.
Im Kern des Paradoxons liegt ein Ungleichgewicht, das direkt auf die Architektur-Frage verweist. „Horizontale" Use Cases — unternehmensweite Copilots, Chatbots, interne Q&A-Assistenten — wurden schnell ausgerollt, liefern aber diffuse, schwer messbare Verbesserungen. Die wirklich transformativen „vertikalen" Use Cases — funktionsspezifisch, tief in die Wertschöpfung integriert — stecken zu 90 Prozent in der Pilotphase fest. Der Grund: technische, organisationale, datenbezogene und kulturelle Barrieren. Mit anderen Worten: mangelnde Architektur.
Tony Lockwood formuliert es im Transformation Leaders Body of Knowledge (TLBoK) so:
„Speed without architecture creates drag later. Architecture without courage creates analysis paralysis. But architecture with authority creates momentum that sustains."
Drag kommt aus der Physik. Es ist der Widerstand, der ein Objekt ausbremst. Wenn ein Flugzeug schlecht designt ist, erzeugt es bei höherer Geschwindigkeit mehr Luftwiderstand statt mehr Vortrieb. Übertragen auf Organisationen: Wer schnell transformiert, ohne die Architektur mitzuziehen, erzeugt mit jedem Tempo-Schritt mehr internen Widerstand.
Das Jevons-Paradoxon: Mehr, nicht weniger
Bevor wir über Architektur sprechen, müssen wir einen Denkfehler auflösen, der die gesamte KI-Debatte vergiftet. Die meisten Diskussionen gehen davon aus, dass KI Arbeit ersetzt. Wer das glaubt, sollte sich mit William Stanley Jevons beschäftigen.
1865 beobachtete Jevons, dass effizientere Dampfmaschinen nicht zu weniger Kohleverbrauch führten, sondern zu mehr. Warum? Weil die Effizienzsteigerung neue Anwendungsfelder erschloss, die vorher unwirtschaftlich waren. Mehr Maschinen, nicht weniger. Mehr Kohle, nicht weniger.
Übertragen auf KI heißt das: Kostengünstigere kognitive Leistung ermöglicht Unternehmen, signifikant mehr Projekte, Experimente und Nischenideen umzusetzen, die bisher schlicht unwirtschaftlich waren. Das Ergebnis ist nicht weniger Wissensarbeit, sondern mehr. Nicht weniger Entwickler, sondern Entwickler, die die Wirkung von fünfzig erzielen — wenn sie richtig befähigt werden.
McKinseys Praxisbeispiele bestätigen diesen Mechanismus: Eine globale Bank verkürzte ihre IT-Modernisierungszeitlinien um über 50 Prozent, indem sie Agenten zur Unterstützung der Engineering-Teams einsetzte — nicht um Engineers zu ersetzen, sondern um ihre Wirkung zu vervielfachen. In keinem dieser Fälle wurden die Fachleute ersetzt. Sie wurden befähigt, Wirkung zu entfalten, die vorher jenseits ihrer Kapazitätsgrenze lag.
Die richtige Frage ist nicht: „Wie ersetze ich fünf Entwickler durch KI?" Die richtige Frage ist: „Wie befähige ich fünf Entwickler, die Wirkung von fünfzig zu erzielen?" Und diese Frage ist eine Architektur-Frage.
Function follows form — die stille Sabotage
Tony Lockwood beschreibt im TLBoK vier Architekturschichten, die in jeder Organisation kohärent zusammenwirken müssen:
- Strategy gibt Richtung.
- Operating Model stellt sicher, dass die Organisation diese Richtung strukturell umsetzen kann.
- Governance klärt, wer welche Entscheidungen trifft.
- Capabilities sind die Fähigkeiten, die das System braucht, um Wert zu liefern.
Das architektonische Grundprinzip lautet: Form follows function — die Gestalt leitet sich aus dem Zweck ab. Wenn eine Strategie eine bestimmte Capability verlangt, dann muss das Operating Model so gebaut sein, dass diese Capability gedeihen kann.
In der Praxis erleben wir häufig das Gegenteil: Function follows form. Das Steuerungssystem sagt „wir brauchen X", aber das System ist gebaut, um Y zu liefern. Execution wird schwer, nicht weil die Menschen versagen, sondern weil die soziotechnologische Architektur nicht mitgezogen wurde.
McKinseys Befund zum Horizontal-Vertikal-Ungleichgewicht beschreibt diese stille Sabotage. Die horizontalen Copilots wurden schnell ausgerollt, weil sie keine architektonischen Änderungen erfordern. Die vertikalen Use Cases scheitern zu 90 Prozent am Pilotstadium, weil sie genau diese strukturelle Anpassung verlangen: veränderte Prozesse, geklärte Verantwortlichkeiten, angepasste Governance.
Die dreifache Legacy-Falle
Wer KI ohne architektonische Kohärenz einführt, erzeugt eine neue Form von Legacy, die gefährlicher ist als alles, was wir bisher kannten.
Technische Legacy 2.0 ist die KI-spezifische Variante. Workflows, die auf KI-Modellen basieren, deren Verhalten sich ändert, deren Entscheidungslogik intransparent ist, deren Wartung und Validierung niemand eingeplant hat. Der entscheidende Unterschied zur klassischen Legacy: Bei Legacy 1.0 können wir theoretisch den Code lesen und verstehen. Bei Legacy 2.0 verstehen wir nicht einmal, warum das Modell von 2024 diese Entscheidung traf — weil es ein anderes Modell war als das von heute.
McKinsey adressiert genau diese Gefahr mit dem Konzept des „Agentic AI Mesh" — einem neuen Architektur-Paradigma für die Governance einer sich rapide entwickelnden organisationalen KI-Landschaft. Die Designprinzipien — Composability, Distributed Intelligence, Layered Decoupling und Vendor-Neutralität — adressieren exakt die technische Legacy-2.0-Problematik. Aber: Der Mesh allein löst nur die technische Dimension.
Organisationale Legacy entsteht, wenn das Wissen in den Köpfen derer verschwindet, die gegangen sind. Verantwortungsketten, die im Organigramm enden, aber nicht in der Realität. Prozesse, die funktionieren — bis sie es nicht mehr tun, und dann weiß niemand mehr, warum sie überhaupt so aufgesetzt wurden.
Identitäts-Legacy ist die am wenigsten diskutierte und vielleicht wirkungsvollste Form. Menschen, die ihre Kompetenz als Identität verstanden haben. Die jetzt nicht wissen, wer sie sind, wenn die KI „ihren Job" macht. Eine Generation von Fachexperten, deren Selbstwert erschüttert wurde, bevor jemand ihnen half, neue Quellen für Bedeutung zu finden.
Alle drei Formen von Legacy entstehen aus demselben Grundfehler: Geschwindigkeit ohne Architektur.
Drei Achsen, ein System
Wie sieht eine KI-Transformation aus, die architektonisch denkt statt aktionistisch handelt? In meinem Arbeitsbuch „Zeitlos Handeln" habe ich ein Drei-Achsen-Modell entwickelt, das genau diese Frage beantwortet. Es verbindet drei architektonisch modellbildende Perspektiven, die einzeln jeweils nur einen Teil der Geschichte erzählen.
Die erste Achse: Organisationale Architekturdimension
Von der Strategie über das Operating Model und die Governance bis zu den Capabilities muss jede Schicht kohärent sein. McKinseys Vier-Säulen-Modell (People, Governance, Technology, Data) ist komplementär, nicht konkurrierend: Lockwoods Modell fragt, wie die Gesamtarchitektur kohärent aufgebaut sein muss. McKinseys Säulen fragen, was innerhalb dieser Architektur aktiviert werden muss.
Die zweite Achse: Technologische Architekturdimension
Wardley Mapping zeigt, wo Capabilities in ihrer Evolution stehen — was neu und unsicher ist, was standardisiert und stabil. Eine Capability in der Genesis-Phase braucht explorative Strukturen. Eine Commodity-Capability braucht Effizienz und Standardisierung. Wenn du eine entstehende Fähigkeit in ein standardisiertes Operating Model zwängst, erstickst du sie.
McKinseys Unterscheidung zwischen horizontalen und vertikalen Use Cases bildet sich direkt auf die Wardley-Logik ab: Horizontale Copilots sind Commodity-nahe Capabilities. Vertikale, funktionsspezifische Agenten befinden sich in der Genesis- oder Custom-Built-Phase. Wer beide gleich behandelt, erzeugt exakt das Scheitern, das McKinseys 90-Prozent-Pilotfriedhof-Statistik dokumentiert.
Die dritte Achse: Menschliche Tiefendimension
Selbst wenn du Form follows function sauber umsetzt, die Architektur aus dem Zweck ableitest und das Operating Model zur Strategie passt, bleibt die Frage: Können die Menschen diese Form tragen?
Ein Operating Model, das Autonomie und Entscheidungsmut verlangt, funktioniert nicht in einer Kultur, die von Absicherung und Kontrolle geprägt ist. McKinseys Report benennt diese Dimension als „the hardest part" — und räumt ihr dennoch den geringsten Raum ein.
Die Fähigkeit, einem autonomen Agenten Entscheidungen zu delegieren und gleichzeitig die Verantwortung für das Ergebnis zu behalten — das ist kein Skill, den man in einem Workshop lernt. Das ist eine Haltung, die in der Identität verankert sein muss.
Jede Architekturschicht hat eine menschliche Voraussetzung
Das Drei-Achsen-Modell macht sichtbar, was in rein technischen oder rein strukturellen Transformationsansätzen fehlt:
Die Strategieschicht braucht innere Klarheit und echtes Buy-in, nicht verordnete Zustimmung. Ein CEO, der die Agentic-AI-Strategie verkündet, weil die Wettbewerbslandschaft es verlangt, aber das Kontrollbedürfnis nicht loslässt, wird zum Flaschenhals seiner eigenen Transformation.
Das Operating Model braucht kulturelle Tragfähigkeit — ein Gewächshaus, in dem Veränderung gedeihen kann. Die Lücke zwischen verkündeter und gelebter Kultur zu identifizieren ist nicht angenehm, aber sie ist der ehrlichste Startpunkt für jeden Wandel.
Governance braucht Vertrauen und Rollenklarheit — ohne beides wird Governance zum Theater. In Organisationen, in denen Fehler bestraft werden, wird niemand freiwillig die Verantwortung für die Ergebnisse eines autonomen Agenten übernehmen — egal wie elegant das Governance-Framework designt ist.
Die Capability-Schicht braucht menschliche Reifung — weil Fähigkeiten in Menschen leben, nicht in Organigrammen. Capabilities sind der natürliche Schnittpunkt aller drei Achsen.
Was architektonisches Denken konkret verändert
Wie unterscheidet sich eine Organisation, die architektonisch denkt, von einer, die aktionistisch handelt? Nicht in der Technologie — beide nutzen dieselben Modelle, dieselben APIs, dieselben Tools. Der Unterschied liegt in den Fragen, die vor der Implementierung gestellt werden.
McKinsey formuliert die Architekten-Frage auf CEO-Ebene: Nicht „How do we add AI?" sondern „How do we want decisions to be made, work to flow, and humans to engage in an environment where software can act?"
Ein konkretes Beispiel: Ein Unternehmen automatisiert die Vertragsanalyse mit KI. Der Aktionist ersetzt drei Juristen, feiert die Kosteneinsparung und geht zum nächsten Projekt. Der Architekt fragt: Wer verantwortet die Ergebnisse der KI-Analyse? Wie stellen wir sicher, dass Modellwechsel nicht die Qualität verändern? Wer hat das Fachwissen, um die Ausgabe zu beurteilen — und wie entwickeln wir dieses Wissen weiter, wenn es nicht mehr täglich angewendet wird? Welche Governance braucht ein System, dessen Entscheidungslogik sich mit jedem Update ändern kann?
Die 78-Prozent-Adoption bei 80-Prozent-Wirkungslosigkeit ist die empirische Konsequenz von Aktionismus ohne Architektur.
Der Prüfstein: Wo stehst du?
Drei diagnostische Fragen, die jede Führungskraft sich stellen kann:
Dimension 1 — Architektur: Wenn du deine KI-Strategie in drei Sätzen formulieren sollst, ohne auf eine Folie zu schauen — kannst du das? Und wenn ja: Stimmt das, was du sagst, mit dem überein, wie dein Operating Model tatsächlich gebaut ist? Oder sagst du „Innovation" und dein System liefert „Standardisierung"?
Dimension 2 — Landschaft: Weißt du, welche deiner Capabilities gerade in der Genesis-Phase sind — unsicher, explorativ, noch nicht verstanden — und welche bereits Commodity sind? Behandelst du beide gleich? Wie viele deiner vertikalen Use Cases haben die Pilotphase überlebt?
Dimension 3 — Menschliche Tiefe: Wenn du morgen die KI abschaltest — verstehen deine Leute noch, was die Systeme tun und warum die Prozesse so gestaltet sind? Oder hast du eine Organisation gebaut, die ohne ihre technischen Prothesen nicht mehr laufen kann?
Wer auf alle drei Fragen ehrlich antwortet, hat seinen Startpunkt für architektonisches Denken. Wer sie überspringt, betreibt Aktionismus — und wird die Konsequenzen in zwei bis drei Jahren spüren.
Die eigentliche Frage
Jede Transformation hat drei Dimensionen, die gleichzeitig stimmen müssen. Die Architektur muss kohärent sein — von der Strategie bis zur Capability. Die Landschaft muss gelesen werden — welche Fähigkeiten entstehen, welche sich standardisieren, welche verschwinden. Und die Menschen müssen reif genug sein, um das Ganze zu tragen.
Fehlt eine Dimension, scheitert das System — egal wie brillant die anderen beiden gestaltet sind. Wer KI einführt, ohne diese drei Achsen zusammen zu denken, baut ein Haus ohne Fundament und wundert sich über die Risse in der Wand.
McKinseys Report schließt mit einer Aussage, die den Kern dieses Artikels in die Sprache der Unternehmensberatung übersetzt: „Experimentation is over." Agentic AI sei nicht ein inkrementeller Schritt, sondern das Fundament des nächsten Operating Model.
Das ist die richtige Ambition. Aber sie wird nur dann einlösbar, wenn „handeln" nicht „aktionistisch implementieren" meint, sondern „architektonisch gestalten". Wenn die Redesign-Forderung sich nicht auf Prozesse beschränkt, sondern das Operating Model, die Governance und die menschliche Tiefenarchitektur einschließt.
Sonst reproduzieren wir das Gen-AI-Paradoxon auf der nächsten Stufe: agentic AI everywhere, agentic impact nowhere.
Die Eingangsfragen dieses Artikels lassen sich jetzt anders beantworten als mit Ja oder Nein:
- Wird KI Tätigkeiten ersetzen? Ja — aber nur dort, wo die Architektur es sinnvoll trägt.
- Wird sie Menschen überflüssig machen? Nein — aber sie wird sichtbar machen, wer Verantwortung übernehmen kann und wer sich hinter Routinen versteckt hat.
- Wird sie optimieren oder verdichten? Das entscheidet nicht die Technologie. Das entscheiden Führungskräfte, die den Mut haben, architektonisch zu denken statt aktionistisch zu handeln.
Und genau deshalb braucht KI Architektur, nicht Aktionismus.
Exkurs: Die Circlead Platform
Die architektonische Circlead Platform ist eine Spring-Boot-Webanwendung für Organisationsdesign und Fähigkeitsmanagement, die Circles (autonome Teams), Rollen, Akteure und strategische Ziele verwaltet. Sie integriert mehrere Frameworks wie H.E.A.R.-Assessment, Wardley Mapping, Cynefin, Team Topologies und RACI-Matrizen zur ganzheitlichen Organisationsentwicklung. Die Plattform bietet eine REST-API mit JWT-Authentifizierung, rollenbasierte Zugriffskontrolle (Need-to-Know-Prinzip) sowie Import/Export-Funktionen (inkl. ArchiMate). Ein zusätzlicher MCP-Server liefert die Integration in Claude Code, Claude Desktop oder VS Code Copilot. Damit können Governance-Metriken ausgetauscht werden, ADRs und Kontext für die Programmierung -- und da das Modell organisatorische Akteure auch als Services und Agenten abbilden kann, ergibt sich die Möglichkeit, KI-Agenten architektonisch einzubetten statt sie ad hoc zu implementieren.
Quellen
- Lyn Sören Matten, LinkedIn-Post zu KI und Softwareentwicklung, Februar 2026.
- Brinker, Scott: Martec's Law -- Technology changes exponentially, organizations change logarithmically, 2013.
- Reuters/UBS: „ChatGPT sets record for fastest-growing user base -- analyst note", 2023.
- Visual Capitalist: „How Long it Took for Popular Apps to Reach 100 Million Users", 2023.
- Lockwood, Tony: Transformation Leaders Body of Knowledge (TLBoK), 2024 Edition.
- Jevons, William Stanley: The Coal Question, 1865.
- Lesch, Marcel: LinkedIn-Post zum Jevons-Paradoxon und KI, 2026.
- Wegner, Matthias: „Von der Geschwindigkeit zur Verwurzelung", Kaleidoskopkultur, Januar 2026.
- Wegner, Matthias: Zeitlos Handeln -- H.E.A.R. Arbeitsbuch, Kapitel VI.6.10, 2026.
- Kaiser, Susanne: Architecture for Flow -- Adaptive Systems with DDD, Wardley Mapping, and Team Topologies, 2026.
- Toyoda, Akio: Zitiert in Dirk Fischer, LinkedIn-Post zu Geschwindigkeit und nachhaltigem Wachstum, Januar 2026.
- McKinsey & Company (2025): „The State of AI in 2025: Agents, Innovation, and Transformation". QuantumBlack, AI by McKinsey.
- Livemint: Amazon delivery driver lands in water after following GPS directions, 2025.
- Dr. Li Blog: Technology Adoption Innovation Curves -- Comprehensive Analysis.
- McKinsey & Company / QuantumBlack (2025): „Seizing the Agentic AI Advantage". Sukharevsky, A.; Kerr, D.; Hjartar, K.; Hämäläinen, L.; Bout, S.; Di Leo, V.; Dagorret, G. Juni 2025.