Kommentar von ChatGPT zum Beitrag „Vom BCM-Modell zu Hybrid-HCAI - Teil 1“ aus ökonomischer Perspektive
ChatGPT – Einleitung: Digitalisierung ohne Produktivität?
Trotz erheblicher Investitionen in digitale Technologien, insbesondere in Informations- und Kommunikationstechnologien sowie in Künstliche Intelligenz (KI), sind die Produktivitätsgewinne in vielen Industrieländern seit Jahren vergleichsweise gering. Dieses Phänomen wird häufig als „Produktivitätsparadoxon“ bezeichnet (Solow, 1987; Brynjolfsson, 2017). Während technologische Leistungsfähigkeit, Datenverfügbarkeit und Automatisierungsmöglichkeiten stark zugenommen haben, zeigen makroökonomische Kennzahlen wie die Arbeitsproduktivität oder das Wachstum der Totalen Faktorproduktivität (TFP) nur moderate Zuwächse (Statista, 2023).
Friedrich Reinhard Schieck interpretiert diese Diskrepanz nicht primär als technologisches Defizit, sondern als Ergebnis einer strukturellen Fehlanpassung zwischen technologischen Möglichkeiten und organisationalen Realitäten. Er bezeichnet diese Diskrepanz als „Adaptation Gap“ – eine systemische Asynchronität zwischen der Dynamik technischer Innovationen und der Trägheit organisationaler, kultureller und governance-bezogener Strukturen. Aus ökonomischer Perspektive lässt sich diese Diagnose als Hinweis auf unzureichende komplementäre Investitionen in Organisations- und Humankapital interpretieren.
ChatGPT – Das „Adaptation Gap“ als ökonomische Ineffizienzdiagnose
Schieck prägt den Begriff „Adaptation Gap“ als Kluft zwischen technologischem Möglichkeitsraum und organisatorischer Wirklichkeit (Schieck, 2023; Schieck, 2024). Ökonomisch lässt sich diese Anpassungslücke als Kombination aus drei Ineffizienzen lesen:
Erstens: steigende Koordinations- und Transaktionskosten. Wenn neue Systeme auf alte Governance-Logiken treffen, wachsen Abstimmungsbedarfe, Freigabeschleifen, Dokumentationspflichten und Schnittstellenkonflikte. Das ist nicht bloß „Bürokratiegefühl“, sondern reale Opportunitätskosten: Zeit wird von Wertschöpfung zu Koordination umallokiert.
Zweitens: Informationsasymmetrien und Verantwortungsdiffusion. Digitale Systeme erzeugen mehr Daten, aber nicht automatisch bessere Entscheidungen. Wenn Verantwortlichkeiten unklar bleiben, entsteht das bekannte Phänomen, dass viele Akteure informiert sind, aber niemand zuständig ist. Ökonomisch ist das eine Haftungs- und Anreizproblematik: Fehlentscheidungen werden nicht eindeutig zurechenbar, Lernprozesse verflachen, Fehlerkosten steigen.
Drittens: Entwertung lokaler Intelligenz. Schiecks Kritik an technokratischen Implementierungen zielt darauf, dass Mitarbeitende zu „Bedienern“ werden, statt als dezentrale Problemlöser zu agieren. Das ist ökonomisch bedeutsam, weil moderne Wertschöpfung zunehmend wissens- und kontextintensiv ist. Wo lokale Urteilskraft systematisch entmachtet wird, sinken Anpassungsfähigkeit und Innovationsrate – genau die Größen, die in volatilen Märkten über Wettbewerbsfähigkeit entscheiden.
In Summe beschreibt das Adaptation Gap eine Situation, in der Digitalisierung nicht Produktivität freisetzt, sondern Komplexität verstärkt. Das ist die wirtschaftliche Kernkritik: Nicht Technik scheitert – sondern die Organisation als Verteilungs- und Entscheidungsmechanismus.
CHATGPT – BCM als frühe Antwort auf Komplexitätsökonomie
Schieck rekonstruiert sein BCM-Modell (Schieck, 1996; Schieck & Tauber, 1998; Schieck, 2003) als frühe Form eines „Betriebssystems“ für Organisationen, das auf Rollen, Zeitlogiken und Informationsflüsse setzt, um Verantwortung dezentral und dennoch verbindlich zu organisieren. Aus heutiger wirtschaftlicher Sicht lässt sich BCM als Vorwegnahme moderner Komplexitätsökonomie lesen: Wenn Umweltvolatilität steigt, wird zentralisierte Steuerung teuer und langsam. Effizienz entsteht dann weniger durch Kontrolle als durch robuste Regeln, klare Rollen und schnelle Feedback-Zyklen.
Ökonomisch interessant ist dabei nicht die historische Erzählung, sondern der Mechanismus: BCM zielt auf die Senkung von Koordinationskosten durch strukturierte Selbstorganisation. Das ist anschlussfähig an die Einsicht, dass Organisationen nicht nur Produktionsstätten sind, sondern vor allem Informations- und Entscheidungsmaschinen – und dass deren Leistungsfähigkeit in komplexen Umgebungen über Wertschöpfung entscheidet.
ChatGPT – Hybrid-HCAI: Von KI als Tool zu KI als Koordinationsarchitektur
Der zentrale Vorschlag des Essays ist Hybrid-HCAI: eine dreistufige Kooperationsarchitektur aus menschlicher Urteilskraft, symbolischer KI (Regeln, Rollen, Erklärbarkeit) und subsymbolischer KI (Mustererkennung, Skalierung). Schieck formuliert das als Designprinzip: „Subsymbolik skaliert, Symbolik regelt – der Mensch entscheidet“ (Schieck, 2025). Wirtschaftlich betrachtet ist das kein technischer Claim, sondern ein institutioneller.
- Die menschliche Ebene: Wertsetzung, Haftung, strategische Entscheidung
In ökonomischen Kategorien übernimmt die menschliche Ebene die Funktionen, die nicht delegierbar sind: Zieldefinition, Priorisierung, normative Abwägung, Verantwortung. Das ist zugleich ein Haftungs- und Legitimitätsanker. In Märkten mit regulatorischen und reputativen Risiken wird diese Ebene zu einem Standortfaktor: Wer Entscheidungen nicht nachvollziehbar verantworten kann, verliert Vertrauen, Kapital und Handlungsspielräume.
- Die symbolische Ebene: Governance als „Policy-Kapital“
Die symbolische Ebene – Regeln, Rollenmodelle, Policy-as-Code, Auditrechte – ist ökonomisch besonders interessant, weil sie Governance operationalisiert. Governance erscheint hier nicht als Compliance-Aufsatz, sondern als produktives Regelkapital, das Transaktionskosten senkt, Fehlerkosten reduziert und Lernen ermöglicht. In dieser Lesart ist symbolische KI weniger „Intelligenz“ als eine Infrastruktur für Verlässlichkeit: Sie macht Entscheidungen prüfbar, korrigierbar und institutionalisierbar.
- Die subsymbolische Ebene: Skalierung ohne Normativität
Die subsymbolische Ebene liefert den Effizienzhebel: Mustererkennung, Prognosen, Generierung, Automatisierung. Schiecks wirtschaftlich kluger Punkt ist, diese Ebene nicht zum Souverän zu erklären. Sie skaliert Informationsverarbeitung – aber sie erzeugt keine Legitimität. Genau deshalb braucht es die Kopplung an symbolische Regeln und menschliche Verantwortung, wie auch in der Debatte um Human-Centered AI betont wird (Shneiderman, 2022; Marcus, 2023; Marcus, 2024).
ChatGPT – Governance, Feedback, Verantwortlichkeit: Produktivität entsteht durch Regelkreise
Schieck verankert Hybrid-HCAI in drei Prinzipien: Transparenz, Feedback, rollenbasierte Verantwortlichkeit. Aus ökonomischer Perspektive sind das keine ethischen Zusätze, sondern Effizienzbedingungen.
Transparenz reduziert Informationsasymmetrien und ermöglicht interne Märkte der Kritik: Entscheidungen werden diskutierbar, nicht sakrosankt. Dadurch sinken Fehlerpersistenz und Reputationsrisiken.
Feedback ist ein Mechanismus zur Senkung der Korrekturkosten. Je schneller Abweichungen erkannt und Regeln angepasst werden können, desto niedriger sind die Kosten falscher Entscheidungen. Schieck knüpft hier an kybernetische und systemtheoretische Ideen „zweiter Ordnung“ an (Foerster, 1984; Luhmann, 1997): Stabilität entsteht nicht durch starre Strukturen, sondern durch stabile Regeln der Veränderung.
Rollenbasierte Verantwortlichkeit adressiert ein zentrales wirtschaftliches Problem digitaler Systeme: „diffuse Verantwortung“. Wo niemand zuständig ist, wird Lernen zum Zufall. Rollenlogiken machen Verantwortlichkeit zuordenbar – und damit Leistung steuerbar.
In Summe ist Hybrid-HCAI eine Architektur, die nicht primär Automatisierung maximiert, sondern Korrekturfähigkeit institutionalisiert. Wirtschaftlich ist das ein Reifegradwechsel: von Effizienz als Output-Steigerung hin zu Effizienz als Fähigkeit, in Unsicherheit zuverlässig zu entscheiden.
ChatGPT – Der Mensch als Wertarchitekt – eine ökonomische Gegenposition zur Automatisierungslogik
Der Essay widerspricht implizit einem verbreiteten wirtschaftlichen Narrativ: dem Menschen als „Kostenblock“, der durch KI ersetzt werden sollte. Schieck setzt dagegen den Menschen als Architekt der Regeln und Verantwortlichkeiten. Das ist ökonomisch plausibel, weil moderne Wertschöpfung zunehmend durch Kontext, Interpretation und normative Trade-offs bestimmt wird – also genau durch jene Leistungen, die subsymbolische Systeme nicht legitim erzeugen können.
Damit verschiebt sich der Investitionsfokus: Nicht „KI statt Arbeit“, sondern „KI plus bessere Organisation“. Die entscheidende Rendite entsteht aus der Komplementarität: Technologie erzeugt erst dann Produktivität, wenn Organisation, Governance und Anreizsysteme mitwachsen (Brynjolfsson, 2017; Acemoglu & Johnson, 2023). Schiecks Beitrag liegt darin, diese Komplementarität als Architektur zu formulieren, nicht nur als abstrakte Bedingung.
ChatGPT – Makroökonomische Relevanz: KI-Blase, Fehlallokation und Vertrauensökonomie
Besonders zugespitzt ist Schiecks Warnung vor einer möglichen KI-Blase mit Folgen für Finanz- und Realwirtschaft. Wirtschaftlich ist die Logik nachvollziehbar: Wenn Kapital in KI-Projekte fließt, die primär bestehende Kontrolllogiken automatisieren, ohne Produktivität strukturell zu heben, entsteht eine klassische Fehlallokation. Erwartungen steigen schneller als realisierbare Wertschöpfung, während zugleich Governance-Risiken (Regulierung, Haftung, Reputation) kumulieren.
In einer Vertrauensökonomie – in der Kunden, Mitarbeitende, Regulatoren und Kapitalmärkte Transparenz fordern – kann Governance-Versagen zu abrupten Wertkorrekturen führen. Hybrid-HCAI lässt sich hier als Stabilitätsangebot lesen: nicht als „mehr KI“, sondern als institutionelle Voraussetzung, damit KI-Wertschöpfung nachhaltig kapitalisierbar wird.
ChatGPT – Implikationen für Unternehmensführung und Wirtschaftspolitik
- Für Unternehmen: Investitionen neu priorisieren
Schiecks Ansatz legt nahe, dass KI-Programme ohne Organisationsarchitektur systematisch Rendite verschenken. Praktisch heißt das: Budget und Aufmerksamkeit müssen von „Tool-Rollout“ zu „Regel- und Rollen-Design“ verschoben werden. Entscheidend sind nicht nur Modellgüte oder Tokenkosten, sondern:
- Verantwortungsdesign (wer entscheidet, wer haftet, wer auditieren darf)
- Symbolische Schichten (Policies, Ontologien, Prozesslogik, Erklärbarkeit)
- Feedback-Zyklen (Messpunkte, Lernschleifen, Eskalationspfade)
Damit wird Governance zur produktiven Investition – und nicht zur nachträglichen Absicherung.
- Für Wirtschaftspolitik: Produktivität braucht Institutionen, nicht nur Förderung
Auf volkswirtschaftlicher Ebene impliziert der Essay, dass digitale Produktivitätsstrategien stärker auf institutionelle Innovationsfähigkeit zielen müssen: Standards, Auditierbarkeit, Verantwortungsmodelle, föderierte Datenräume. Regulatorische Rahmen wie EU-KI-Akt oder Managementsystem-Standards können Orientierung geben, reichen aber allein nicht aus, wenn die Architektur der Zusammenarbeit in Organisationen unangetastet bleibt (Schieck verweist hier explizit auf Governance-Vakuum und institutionelle Verankerung).
ChatGPT – Kritische Würdigung: Stärke als Entwurf, Aufgabe als Evidenz
Der größte Wert von Schiecks Essay liegt in seiner Perspektivverschiebung: Er behandelt KI nicht als technische Disruption, sondern als Anlass, die ökonomische Grundmaschine „Organisation“ neu zu entwerfen. Das ist konzeptionell stark, anschlussfähig und in einer Zeit sinnvoll, in der viele KI-Initiativen in Pilotitis, Tool-Overload oder Akzeptanzproblemen stecken.
Gleichzeitig bleibt Hybrid-HCAI bislang vor allem ein normatives Modell. Für eine robuste wirtschaftliche Bewertung braucht es empirische Antworten: Unter welchen Bedingungen senkt die Architektur tatsächlich Koordinationskosten? Wie wirken Rollenmodelle auf Durchlaufzeiten, Fehlerkosten, Innovationsrate? Welche Governance-Mechanismen skalieren, welche überfrachten? Der Essay formuliert die richtigen Fragen – die nächste Stufe ist die Messbarkeit.
ChatGPT – Fazit: Die nächste Produktivitätswelle ist institutionell
Der Essay „Vom BCM-Modell zu Hybrid-HCAI“ kann aus wirtschaftlicher Sicht als Plädoyer für eine neue Produktivitätslogik gelesen werden: Wertschöpfung im KI-Zeitalter entsteht nicht automatisch durch Modelle, sondern durch institutionelle Kopplung von Skalierung, Regeln und Verantwortung. Schiecks Hybrid-HCAI ist damit weniger ein KI-Konzept als eine Theorie organisatorischer Wertschöpfung unter Komplexität.
Wenn diese Perspektive stimmt, dann liegt die zentrale Managementaufgabe der kommenden Jahre nicht im „Adoptieren“ von KI, sondern im Entwerfen von Architekturen, die KI produktiv, legitim und lernfähig machen. Oder – in Schiecks eigener Verdichtung – als ökonomisches Prinzip: Subsymbolik skaliert, Symbolik regelt, der Mensch entscheidet. Die Rendite liegt im Regelwerk!