Autor: Friedrich Reinhard Schieck, Veröffentlicht 2025-12-20 – Journal of Strategic Innovation and Sustainability, © North American Business Press, DOI: https://doi.org/10.33423/jsis.v20i4.8022
ABSTRAKT
Dieser Artikel fasst die zentralen Ideen aus Friedrich Schiecks neuem Buch „Vom BCM-Modell zu Hybrid-HCAI (Teil I) – Die Geschichte einer Idee, deren Zeit gekommen ist!“ zusammen. Es rekonstruiert die Entwicklung eines außergewöhnlichen Denkmodells, das von den Umwälzungen der 1990er Jahre, die zur Entstehung des Business Communication Management (BCM)-Modells führten, bis zur Vision einer menschenzentrierten, hybriden künstlichen Intelligenz (Hybrid-HCAI) im Jahr 2025 reicht. Ausgehend von der Überzeugung, dass Unternehmen keine Maschinen, sondern lebendige soziale Systeme sind, formulierte Schieck schon früh Prinzipien, die ihrer Zeit weit voraus waren: Transparenz, Feedback, dezentrale Verantwortung und rollenbasierte Selbstorganisation. Während klassische Kontrollmodelle aufgrund der wachsenden Komplexität zunehmend versagten, bot BCM bereits in den 1990er Jahren ein alternatives Betriebssystem für Organisationen im Wandel.
Drei Jahrzehnte später stehen Wirtschaft und Gesellschaft erneut an einem Wendepunkt. Die digitale Transformation hat vielerorts mehr Bürokratie als produktive Wertschöpfung erzeugt – ein „Adaptions-Gap“ zwischen technologischen Möglichkeiten und organisationaler Wirklichkeit ist offenkundig. Schieck antwortet darauf mit einem neuen Architekturansatz: Hybrid-HCAI. Hier kooperieren drei Intelligenzformen – menschliche Urteilskraft, symbolische KI (Regeln, Erklärbarkeit) und subsymbolische KI (Mustererkennung, Skalierung) – in einem transparenten, föderierten und verantwortungsvollen System. Dieses Buch ist kein technisches Handbuch, sondern ein Erfahrungsbericht, ein Denkmodell und eine Einladung zur Architekturgestaltung. Es richtet sich an Führungskräfte, Wissenschaftler, Organisationsentwickler und alle, die an die Zukunft einer menschenzentrierten digitalen Moderne glauben.
„Die wahre Innovation liegt nicht im Modell, sondern im Regelwerk: Subsymbolik skaliert, Symbolik regelt – der Mensch entscheidet.“ Friedrich Reinhard Schieck – 10/2025
EINLEITUNG UND MOTIVATION
„Es gibt nichts Mächtigeres als eine Idee, deren Zeit gekommen ist.“ – Victor Hugo
Die Frage, wie Organisationen unter Bedingungen des raschen Wandels und zunehmender Komplexität handlungsfähig bleiben können, beschäftigt mich seit Anfang der 1990er Jahre. Nach dem Zusammenbruch der DDR und der Wiedervereinigung Deutschlands erlebte ich als Praktiker tiefgreifende strukturelle Veränderungen.
Diese Erfahrungen, ergänzt durch meine Arbeit in den Bereichen Beratung und I&K-Technologie, bildeten die Grundlage für ein erstes Konzept des Business Communication Management (BCM): ein Modell der strukturierten Selbstorganisation, das Rollen, Zeitlogiken und Informationsflüsse so miteinander verknüpft, dass Verantwortlichkeiten zuverlässig verteilt und Wertschöpfungsprozesse transparent gemacht werden können (Schieck, 1996; Schieck, 1998; Schieck, 2003). Heute, rund drei Jahrzehnte später, tauchen die Herausforderungen von damals in neuer Form wieder auf: im Zuge einer digitalen Transformation, die trotz technologischer Fortschritte oft hinter ihren sozialen und wirtschaftlichen Versprechungen zurückbleibt (Brynjolfsson, 2017; Acemoglu & Johnson, 2023).
Dieser Artikel ist nicht nur eine Rezension, sondern vielmehr eine essayistische Einladung, über grundlegende Denkfehler, unterschätztes Potenzial und notwendige architektonische Veränderungen in der Gestaltung von Organisationen nachzudenken. Trotz erheblicher Investitionen in Informations- und Kommunikationstechnologien und KI-Anwendungen ist die Produktivitätsbilanz in vielen Industrieländern ernüchternd (Brynjolfsson, 2017; Statista, 2023).
Ich behaupte, dass ein Großteil der derzeitigen Ineffizienz in Transformationsprozessen auf die strukturelle Missachtung eines einfachen, aber wirksamen Prinzips zurückzuführen ist: Selbstorganisation ist keine anarchische Freiheit, sondern ein formbares System aus Zielorientierung, Zeitlogik und Informationsverfügbarkeit – technisch unterstützt, aber sozial verankert.
In diesem Sinne ist die Entwicklung hin zu hybrider HCAI (human-centered artificial intelligence in hybrid form) nicht das Ergebnis eines linearen Innovationsprozesses, sondern vielmehr Ausdruck systemischen Lernens – aus Irritationen, Disruptionen und Reibungen. Die zunehmende Verbreitung künstlicher Intelligenz (KI), insbesondere in ihrer generativen oder subsymbolischen Form, rückt die bislang ungelöste Spannung zwischen Automatisierung und Autonomie, zwischen Effizienz und Verantwortung mit neuer Dringlichkeit auf die Tagesordnung (Schieck, 2025; Marcus, 2024; Shneiderman, 2022).
Mein Ansatz zu diesem Thema ist bewusst zweigleisig: empirisch, basierend auf Erfahrungen aus der organisatorischen Realität, und konzeptionell, basierend auf der Suche nach einem Betriebssystem, das Komplexität nicht nur bewältigt, sondern auch so strukturiert, dass sie einen Mehrwert schafft. Die aktuellen Herausforderungen – von sinkender Produktivität (Statista, 2023) über Veränderungsmüdigkeit in Unternehmen (McKinsey, 2015) bis hin zur Vertrauenskrise in datenbasierte Systeme – legen nahe, dass es bei der Debatte um die Digitalisierung weniger um Technologie als um Architektur geht.
Vom empirischen Wissen zur Systemarchitektur: Die Entstehung eines konzeptionellen Modells
Was derzeit unter dem Begriff Hybride-HCAI diskutiert wird, ist im Wesentlichen die Weiterentwicklung einer Idee, die ich erstmals in den 1990er Jahren formuliert habe: Organisationen sind keine Maschinen, sondern lebendige, adaptive Systeme – und benötigen daher kein auf Überwachung basierendes Kontrollsystem, sondern eines, das auf strukturierte Selbstkontrolle abzielt. Damals verband die BCM-Methode organisatorische Rollen, Zeitzyklen und Informationsflüsse in einem Modell, das Verantwortung nicht zentral zuwies, sondern systematisch verteilbar machte (Schieck, 1996, 1998, 2003).
Viele Jahre lang wurde dieses Verständnis von den vorherrschenden Paradigmen der Prozessoptimierung, der Top-down-Beratung und zentralisierten IT-Architekturen überschattet – oft mit der Folge, dass Veränderungen organisatorisch schwerfällig, kulturell widersprüchlich und technisch fragmentiert blieben. Eine Vielzahl von Projekten zeigte, dass technologische Systeme zwar formal effizient, aber sozial inkompatibel waren. Die Menschen wurden nicht befähigt, sondern entmachtet – mit all den bekannten Folgen: Innovationsblockaden, Akzeptanzverlust, Demotivation (Gallup, 2023; Acemoglu, 2024).
Die Renaissance der systemischen Frage im Zeitalter der KI
Mit dem Aufkommen von KI-gestützten Systemen und insbesondere generativen Technologien entsteht nun eine neue Situation: Der Handlungsdruck steigt, aber auch die Möglichkeiten, die Zukunft zu gestalten. Die zentrale Frage lautet nicht mehr: Wie kann KI effizienter arbeiten als Menschen? sondern vielmehr: Wie kann KI die Fähigkeit des Menschen, Urteile zu fällen, zu kooperieren und Verantwortung zu übernehmen, ergänzen, anstatt sie zu ersetzen? (Shneiderman, 2022; Marcus, 2023).
Hybrid HCAI ist mein Vorschlag für eine Architektur, die darauf reagiert: ein dreischichtiges Modell, das menschliche, symbolische und subsymbolische Intelligenz systematisch miteinander verbindet – und dabei Rollen, Feedback und Verantwortung technisch und organisatorisch sicherstellt. Das Ziel ist keine technokratische Überkontrolle, sondern eine verantwortungsvolle Kooperationsarchitektur, in der Mensch und Maschine nicht konkurrieren, sondern sich ergänzen.
Die Grundannahme ist, dass Stabilität in der digitalen Transformation nicht durch starre Kontrolle entsteht, sondern durch die Institutionalisierung einer Reihe von Regeln, die Informationsflüsse, Verantwortlichkeiten und Entscheidungspfade transparent und reversibel machen. In der Sprache der Systemtheorie geht es dabei um Stabilität zweiter Ordnung – also die Stabilität der Regeln, nach denen sich Strukturen dynamisch verändern dürfen (Foerster, 1984; Luhmann, 1997).
Ziel des Beitrags
Dieser Aufsatz soll zu einer interdisziplinären Diskussion anregen. Er skizziert einen Gedankengang, der aufzeigt, wie ein Organisationsmodell aus den 1990er Jahren – BCM – genutzt werden kann, um eine konzeptionelle Brücke zu aktuellen Diskursen über menschenzentrierte KI und Governance-Innovation zu schlagen. Gleichzeitig plädiert der Artikel für einen Perspektivwechsel: weg von einem Fokus auf Technologieeinführungen hin zu einer architektonischen Fragestellung. Nicht die Fähigkeiten der KI bestimmen den Fortschritt, sondern die Art und Weise, wie sie in Systeme der Verantwortung, Kommunikation und des Lernens eingebettet ist.
Der Rest dieses Artikels verfolgt diesen Weg: von der Entstehung von BCM über Überlegungen zu den Paradoxien der digitalen Transformation bis hin zu einer Vision eines normativen Betriebssystems, das nicht nur die Nutzung von KI ethisch einschränkt, sondern sie auch operativ produktiv macht.
RÜCKBLICK AUF EINE DIGITALE TRANSFORMATION, DIE NICHT STATTFAND
Zwischen technologischem Fortschritt und struktureller Stagnation
Die Wellen der Digitalisierung in den letzten zwei Jahrzehnten haben zu tiefgreifenden technologischen Veränderungen in fast allen Bereichen der Gesellschaft und Wirtschaft geführt: Cloud-Infrastrukturen, mobile Geräte, Plattformökonomien und algorithmische Entscheidungssysteme prägen heute die operative Realität vieler Organisationen. Und doch sind die Ergebnisse ernüchternd: Trotz massiver Investitionen in digitale Technologien ist der erhoffte Sprung in Sachen Produktivität, Innovation und organisatorischer Resilienz in vielen Fällen ausgeblieben (Schieck, 2023; Brynjolfsson, 2017; Acemoglu & Johnson, 2023).
Diese Diskrepanz verdeutlicht ein zentrales Problem: Die Digitalisierung wurde oft als Technologieimplementierungsprojekt und nicht als architektonische Erneuerung betrachtet. Infolgedessen blieb die tiefgreifende Transformation sozialer und organisatorischer Strukturen weitgehend aus. Adaptive, kooperative Organisationsformen wurden oft durch digital verbesserte Varianten klassischer Kontrolllogiken ersetzt – mit entsprechenden Reibungsverlusten, Pfadabhängigkeiten und kulturellen Spannungen.
Das Produktivitätsparadoxon neu betrachtet
Das sogenannte Produktivitätsparadoxon wurde bereits in den 1980er Jahren formuliert: „Das Computerzeitalter ist überall zu spüren, nur nicht in den Produktivitätsstatistiken“ (Solow, 1987). Dieses Paradoxon erlebt im digitalen Zeitalter eine Renaissance. Trotz exponentiellen Wachstums bei Rechenleistung, Vernetzung und Datenverfügbarkeit stagniert die Produktivität in vielen Industrieländern seit Jahren (Statista, 2023).
Brynjolfsson (2017) argumentiert, dass diese Lücke weniger ein technisches Defizit als vielmehr Ausdruck eines „Implementierungsrückstands“ ist: Neue Technologien entfalten ihren sozialen und wirtschaftlichen Nutzen nur dann, wenn sie in komplementäre Organisationsstrukturen eingebettet sind. Acemoglu und Johnson (2023) stellen fest, dass technologische Innovationen zunehmend durch „verzerrten technologischen Wandel“ gekennzeichnet sind – also Innovationspfade, die bestehende Macht- und Kontrollstrukturen verstärken, anstatt neue, kooperative Wertschöpfungsmodelle zu ermöglichen.
In vielen Organisationen manifestierte sich dieser Widerspruch in einer Koexistenz von digitalisierten Frontends und analogen Kontrollkernen. Prozesse wurden automatisiert, Schnittstellen modernisiert und Datenmengen vervielfacht – während Entscheidungslogik, Rollenarchitekturen und Verantwortungsstrukturen weitgehend unverändert blieben. Das Ergebnis: eine digital glänzende Oberfläche über einem tayloristischen Kontrollsystem.
Die Anpassungslücke: Eine soziologische Erkenntnis aus dem Bereich der Organisationsforschung
Um dieses strukturelle Defizit genauer zu definieren, habe ich den Begriff „Adaptation Gap” vorgeschlagen. Damit meine ich die wachsende Kluft zwischen der Dynamik der technologischen Entwicklung und der Trägheit organisatorischer Kontroll-, Kommunikations- und Lernstrukturen (Schieck, 2023; Schieck, 2024).
Diese Anpassungslücke hat mehrere Dimensionen:
- Strukturelle Dimension: Organisationen sind oft nach hierarchischen bürokratischen Prinzipien strukturiert, die in der industriellen Moderne entstanden sind. Diese Strukturen sind auf Stabilität, Kontrolle und Effizienz in relativ stabilen Umgebungen ausgelegt – nicht auf Zusammenarbeit in hochdynamischen, komplexen Umgebungen.
- Kulturelle Dimension: Digitale Technologien sind in soziale Praktiken eingebettet, die von impliziten Normen, Routinen und Machtverhältnissen geprägt sind (Orlikowski, 2007). Diese kulturellen Muster ändern sich viel langsamer als technische Infrastrukturen.
- Governance-Dimension: Oft fehlt ein normativer Rahmen, der den Einsatz digitaler Technologien mit klaren Mechanismen für Verantwortung, Entscheidungsfindung und Feedback verknüpft. Technologieentscheidungen werden eher technokratisch getroffen als kooperativ ausgehandelt.
„Adaptation Gap” ist daher kein kurzfristiger Implementierungsrückstand, sondern Ausdruck einer systemischen Asynchronität zwischen Technologie und Organisation. Diese Asynchronität führt zu Reibungsverlusten, demotiviert die Mitarbeiter und schränkt die Fähigkeit ein, komplexe Probleme produktiv zu lösen (Schieck, 2023; Schieck, 2024).
Fehlgeleitete Kontrolle aufgrund technokratischer Ansätze zur Digitalisierung
In der Praxis zeigte sich diese Asynchronität besonders deutlich in den Digitalisierungsprogrammen der 2000er und 2010er Jahre. Anstatt Strukturen und Prozesse durch adaptive Selbstorganisation neu zu gestalten, entschieden sich viele Unternehmen für groß angelegte, zentral gesteuerte Technologieeinführungen. ERP-Systeme, Workflow-Automatisierungen und Big-Data-Plattformen wurden implementiert, ohne die zugrunde liegende Logik der Zusammenarbeit zu hinterfragen. Diese technokratischen Ansätze folgten implizit einem Kontrollmodell, das Menschen als „Bediener” oder „Datenlieferanten” technologischer Systeme betrachtete – nicht als kreative Akteure. Mit dem Aufkommen der generativen KI droht sich dieses Muster zu verstärken: Anstatt KI als Partner in einer kooperativen Architektur zu verstehen, wird sie weitgehend als Werkzeug zur weiteren Automatisierung bestehender Prozesse eingesetzt (Marcus, 2023).
Das Ergebnis ist eine paradoxe Beschleunigung: Die Technologie entwickelt sich schneller, aber in vielen Fällen beschleunigt sie alte Muster, anstatt neue Formen der Zusammenarbeit zu ermöglichen. Der Adaption-Gap vergrößert sich – strukturell, kulturell und normativ.
Konsequenzen: Von technischen Projekten zu architektonischen Debatten
Das Ergebnis der Digitalisierungswellen legt nahe, dass eine nachhaltige Transformation nicht einfach durch die Einführung neuer Technologien erreicht werden kann. Was benötigt wird, ist ein architektonischer Wandel, der die strukturellen, kulturellen und normativen Grundlagen von Organisationen berücksichtigt. Hier liegt die Verbindung zur Debatte über menschenzentrierte künstliche Intelligenz (HCAI) (Shneiderman, 2022) und deren Weiterentwicklung zu hybriden Modellen. KI sollte nicht als Ersatz, sondern als ergänzender Kooperationspartner in einer neu gestalteten soziotechnischen Architektur verstanden werden.
Das bedeutet, Governance-Strukturen, Rollenmodelle und Feedback-Systeme so zu gestalten, dass sie Komplexität produktiv verarbeiten können, anstatt sie zu unterdrücken. Dadurch verlagert sich die Diskussion über KI zu einer Diskussion über Architektur, die sich weniger auf die Leistung einzelner Modelle konzentriert, sondern vielmehr auf die Frage, wie menschliche, symbolische und sub-symbolische Intelligenz in Organisationen, Verwaltungen und sozialen Institutionen kooperativ miteinander verbunden werden können.
Dies ebnet den Weg für die Vision eines hybriden HCAI-Modells, das im nächsten Abschnitt entwickelt wird und eine Architekturlogik präsentiert, die die Lehren aus der Anpassungslücke ernst nimmt und Selbstorganisation, Verantwortung und technologische Unterstützung systematisch integriert.
HYBRID-HCAI ALS NEUE ARCHITEKTONISCHE LOGIK
Von der KI-Euphorie zum Governance-Vakuum
Während die letzten Jahre von einem regelrechten Innovationsschub im Bereich der künstlichen Intelligenz (KI) geprägt waren, wurde ein entscheidender Aspekt weitgehend übersehen: die Frage der institutionellen und architektonischen Einbettung. Die öffentliche und unternehmerische Debatte konzentrierte sich stark auf die Leistungskennzahlen einzelner Modelle – Genauigkeit, Größe, Geschwindigkeit –, aber kaum auf die Bedingungen, unter denen diese Technologien in komplexen sozialen Systemen tatsächlich wirksam, legitim und kontrollierbar werden können (Marcus, 2024; Shneiderman, 2022). Diese Asymmetrie zwischen technologischer Dynamik und Governance-Innovation schafft ein strukturelles Vakuum. Während sich die technischen Möglichkeiten erweitern, fehlt es oft an einem kohärenten Regulierungsrahmen, der sowohl die Rechenschaftspflicht als auch die kollektive Fähigkeit zur Gestaltung der Zukunft gewährleistet. Dieses Problem zeigt sich besonders deutlich auf organisatorischer Ebene:
KI-Systeme werden oft ad hoc integriert – beispielsweise zur Automatisierung einzelner Aufgaben –, ohne dass eine übergreifende Architektur vorhanden ist, die Menschen, Symbolik und Subsymbolik systematisch miteinander verbindet. Dadurch entstehen „Governance-Lücken”: Entscheidungen werden zunehmend von intransparenten Modellen beeinflusst, ohne dass nachvollziehbare Rückkopplungsschleifen, Auditrechte oder Rechenschaftsstrukturen eingerichtet werden. Die Folgen sind nicht nur ethischer Natur. Sie wirken sich direkt auf die Produktivität, Innovationsfähigkeit und Widerstandsfähigkeit von Organisationen und Gesellschaften aus. Ohne klare Verantwortlichkeitsstrukturen laufen KI-Systeme Gefahr, entweder in starre Kontrolllogiken eingebettet zu werden, die ihr Potenzial bremsen, oder unbeabsichtigte Effekte zu haben, die schwer zu korrigieren sind (Acemoglu, 2024). Die aktuelle KI-Euphorie ist somit auch Ausdruck eines Governance-Vakuums: einer Architekturkrise, die weniger mit technologischer Entwicklung als mit organisatorischer Gestaltung zu tun hat.
Das hybride HCAI-Modell: Dreistufige Kooperationsarchitektur
Vor diesem Hintergrund kann das Konzept der hybriden HCAI als architektonische Antwort auf das oben erwähnte Vakuum verstanden werden. Hybride HCAI bezieht sich nicht auf eine einzelne Technologie, sondern auf ein Strukturierungsprinzip, das drei sich ergänzende Formen der Intelligenz in eine kooperative, rückkopplungsfähige Ordnung bringt:
- Die menschliche Ebene bildet die normative und kontextuelle Grundlage. Hier entstehen Ziele, Werturteile, ethische Leitlinien, kontextuelle Interpretationen und Verantwortlichkeiten. Der Mensch bleibt Herr über das System – nicht durch permanente Mikrokontrolle, sondern durch die Gestaltung der Regeln und Rückkopplungsmechanismen, nach denen die KI arbeitet (Shneiderman, 2022).
- Die symbolische Ebene bildet die explizite Darstellung von Wissen: Regeln, Rollenmodelle, Prozesse, Entscheidungslogik und Ontologien. Sie fungiert als „Schiedsrichter” der Zusammenarbeit zwischen Mensch und KI, indem sie Erklärbarkeit, Überprüfbarkeit und Revidierbarkeit sicherstellt. Symbolische Systeme verankern Kausalität, Normativität und Strukturen – sie übersetzen menschliche Governance in eine maschinenlesbare Form.
- Die sub-symbolische Ebene umfasst KI-Modelle im engeren Sinne – neuronale Netze, generative Modelle, statistische Methoden. Sie bietet Wahrnehmung, Mustererkennung, Textgenerierung, Vorhersagen und Vorschläge. Ihre Stärke liegt in der Skalierung der Informationsverarbeitung, nicht in der normativen Entscheidungsfindung.
Das zentrale Designprinzip der hybriden HCAI besteht darin, diese drei Ebenen durch klar definierte Schnittstellen und kontinuierliches Feedback architektonisch zu koppeln. Sub-symbolische Systeme arbeiten innerhalb symbolisch festgelegter Parameter; symbolische Systeme wiederum sind dynamisch durch menschliche Ziele, Werte und Organisationsstrukturen verankert. Die menschliche Ebene kontrolliert nicht jeden Prozess, sondern gestaltet die Architektur, in der Entscheidungen getroffen werden können.
Diese dreischichtige Struktur kann als Alternative zu aktuellen zentralisierten KI-Paradigmen gesehen werden, die oft eine einseitige Delegation praktizieren: Daten rein, Entscheidung raus – ohne kontrollierbare Räume für Interaktion. Hybrid HCAI hingegen betrachtet Menschen und KI als Akteure, die auf der Grundlage einer Arbeitsteilung zusammenarbeiten und durch eine transparente, föderierte und adaptive Architektur miteinander verbunden sind (Schieck, 2025; Helbing, 2025).
Governance, Feedback und Anpassungsfähigkeit
Eine solche Architektur kann jedoch nur funktionieren, wenn sie durch ein systematisch gestaltetes Governance- und Feedback-System unterstützt wird. Governance wird hier nicht als ein externes Regelwerk verstanden, das lediglich die Technologie begleitet, sondern als integraler Bestandteil der Systemarchitektur. Drei Prinzipien stehen dabei im Mittelpunkt:
- Transparenz: Entscheidungen müssen über alle drei Ebenen hinweg nachvollziehbar sein. Dazu gehören die Herkunft der Daten, Regeln und Maschinenvorschläge sowie menschliche Priorisierungen. Transparenz ist eine Voraussetzung für Überprüfbarkeit und Vertrauen.
- Feedback: Entscheidungen, Ergebnisse und Abweichungen müssen in strukturierte Feedback-Zyklen einfließen. Analog zu kybernetischen Konzepten der „Stabilität zweiter Ordnung“ (Foerster) geht es nicht um die starre Einhaltung fester Strukturen, sondern um die kontinuierliche Anpassung der Regeln, nach denen Korrekturen vorgenommen werden.
- Rollenbasierte Verantwortlichkeit: Die Governance muss klar zuordenbar sein. Anstelle diffuser Verantwortlichkeiten definieren rollenbasierte Modelle, wer welche Verantwortlichkeiten trägt – normative (menschliche), formale (symbolische) und operative (technische).
Diese Prinzipien lassen sich technisch über föderierte Daten- und Richtlinienarchitekturen, Audit- und Erklärbarkeitsschichten sowie rollenbasierte Zugangs- und Entscheidungsmodelle umsetzen. Entscheidend ist jedoch, dass Governance nicht als Kontrollinstrument gegen KI verstanden wird, sondern als kooperative Steuerungslogik, die menschliche, symbolische und maschinelle Intelligenz in produktive Bahnen lenkt.
Anwendungsszenarien und Auswirkungen
Die Stärke des hybriden HCAI-Ansatzes liegt nicht nur in seiner theoretischen Eleganz, sondern auch in seiner praktischen Anwendbarkeit in verschiedenen organisatorischen Kontexten. Drei Anwendungsszenarien veranschaulichen sein Spektrum:
- Organisationsentwicklung in Unternehmen und Verwaltung: In traditionellen Organisationen sind zentrale Kontrollstrukturen oft überlastet, während lokale Akteure nicht über die notwendigen Werkzeuge verfügen, um komplexe Aufgaben selbstorganisiert zu bewältigen. Hybrid-HCAI kann hier als organisatorisches Betriebssystem fungieren, das die Arbeitsteilung zwischen Menschen, Symbolik und KI systematisch gestaltet. So können beispielsweise Entscheidungsprozesse, die zuvor in hierarchischen Kaskaden stattfanden, über rollenbasierte Ontologien, Policy-as-Code und Echtzeit-Feedback-Mechanismen dezentralisiert werden. KI unterstützt diesen Prozess nicht als Ersatz, sondern als Kontextverbesserer: Sie liefert Vorschläge, erkennt Muster und simuliert Szenarien, während die symbolische Ebene für Governance und Erklärbarkeit sorgt und die menschliche Ebene Entscheidungen trifft und Regeln entwickelt (Shneiderman, 2022).
- Netzwerkorganisationen und föderierte Systeme: Im Kontext dezentraler Netzwerke – wie branchenübergreifenden Kooperationen, Lieferketten oder öffentlichen Infrastrukturen – ermöglicht hybride HCAI eine verteilte Koordination ohne zentrale Kontrollinstanz. Durch föderierte Datenarchitekturen und gemeinsame symbolische Referenzrahmen (z. B. Rollenmodelle, gemeinsame Ontologien) können verschiedene Organisationseinheiten autonom agieren und gleichzeitig innerhalb eines gemeinsamen Governance-Systems interagieren. Dies eröffnet neue Möglichkeiten, insbesondere für internationale Kooperationen, da Werte, Verantwortlichkeiten und Entscheidungsrechte architektonisch verankert und nicht nur vertraglich festgelegt sind (Helbing, 2025).
- Soziale Systeme und öffentliche Governance: Schließlich hat hybride HCAI das Potenzial, soziale Infrastrukturen über den Unternehmenskontext hinaus zu gestalten. In Bereichen wie Arbeitsmarktsteuerung, Mobilität, Energie oder Bildung können hybride Architekturen als Grundlage für partizipative, datenhohe Systeme dienen, in denen KI eher als Werkzeug für soziale Selbstorganisation denn als externes Kontrollinstrument fungiert. Die normativen und verfassungsrechtlichen Implikationen sind hier besonders deutlich: Hybride HCAI kann als Baustein einer digitalen Verfassung verstanden werden, die technologische Leistungsfähigkeit mit demokratischer Legitimität verbindet (Acemoglu, 2024; Helbing, 2015).
All diesen Szenarien ist gemeinsam, dass Komplexität nicht durch Zentralisierung „gezähmt”, sondern durch transparente Rollen, Regeln und Feedback produktiv gemacht wird. Hybride HCAI liefern dafür die notwendige architektonische Logik.
Forschungsperspektiven und Ausblick
Hybrid HCAI ist kein fertiges Modell, sondern ein offenes Forschungs- und Entwicklungsfeld, das technologische, organisatorische und gesellschaftliche Perspektiven systematisch miteinander verknüpft. Für die wissenschaftliche Debatte ergeben sich drei zentrale Perspektiven:
- Theoretische Konnektivität: Hybrid-HCAI knüpft an verschiedene Forschungsstränge an: Organisationssoziologie (z. B. Luhmanns Rollenmodelle und Systemtheorie), kybernetische Konzepte der Stabilität zweiter Ordnung (Foerster), KI-Forschung zur neuro-symbolischen Integration (Marcus, 2024) sowie Governance- und Demokratietheorien im digitalen Raum (Helbing, 2025). Eine systematische Synthese dieser Ansätze steckt noch in den Kinderschuhen, eröffnet jedoch ein beträchtliches Potenzial für interdisziplinäre Forschung.
- Empirische Erprobung hybrider Architekturen: Bislang gibt es nur wenige reale Implementierungen, die alle drei Ebenen – menschlich, symbolisch, subsymbolisch – systematisch miteinander verbinden. Zukünftige Forschungen müssen zeigen, unter welchen Bedingungen hybride HCAI tatsächlich Auswirkungen auf Organisationen haben: Welche Architekturen sind skalierbar? Welche Governance-Modelle sind realisierbar? Welche Formen der Mensch-Maschine-Kooperation steigern nachweislich Produktivität, Partizipation und Resilienz? Pilotprojekte in Unternehmen, Verwaltungen oder organisationsübergreifenden Netzwerken sind hierfür ideal geeignet.
- Institutionelle und normative Verankerung: Langfristig wird die zentrale Frage sein, wie hybride HCAI in rechtliche, regulatorische und soziale Systeme integriert werden können. Standards wie der EU-KI-Akt (Europäische Union, 2024) oder ISO/IEC 42001 (ISO, 2023) bieten erste Rahmenbedingungen, gehen jedoch bislang kaum auf die architektonische Kopplung verschiedener Formen von Intelligenz ein. Die Entwicklung einer Informationsverfassung, die Transparenz, Überprüfbarkeit, Partizipation und Verantwortung institutionell verankert, wird eine der wichtigsten Aufgaben der kommenden Jahre sein (Shneiderman, 2022; Helbing, 2025).
FAZIT
Hybrid HCAI steht für einen notwendigen Architekturwandel: von der selektiven Technologieintegration hin zu einer systemischen Kopplung von menschlicher, symbolischer und maschineller Intelligenz. Bei diesem Wandel geht es weniger um technische Leistungsfähigkeit als vielmehr um Governance, Feedback und institutionelle Verankerung.
Damit schließt sich der Kreis, der von der Kritik an den Wellen der Digitalisierung über die Diagnose der Anpassungslücke bis hin zum Entwurf einer neuen, menschenzentrierten Architektur führt. Hybrid-HCAI ist kein Allheilmittel, sondern ein strukturierter Rahmen, in dem Innovation, Verantwortung und Partizipation systematisch zusammen betrachtet werden können. Ich glaube, dass ohne einen Paradigmenwechsel hin zu hybriden HCAI-Architekturen die KI-Blase platzen könnte, mit weitreichenden Folgen für die Finanz- und Realwirtschaft und drastischen Wohlstandsverlusten.
HINWEIS ZUM GLEICHNAMIGEN BUCH
Dieser Aufsatz fasst die Kerngedanken meines Buches „Vom BCM-Model zu Hybrid-HCAI – Teil I: Die Geschichte einer Idee, deren Zeit gekommen ist” zusammen.
Das Buch ist jetzt erhältlich bei Amazon unter: https://www.amazon.de/dp/B0GHTCTP7L
METHODIK UND DANKSAGUNG
Ich möchte Horst Tauber und Dr. Ingo Schrewe für den reflektierenden Gedankenaustausch Ende der 1990er und Anfang der 2000er Jahre danken, ebenso wie Prof. Dirk Helbing für die Bereitstellung seiner Publikationen und Arbeiten im Juli 2025.
ChatGPT (OpenAI, Version GPT-4o/5) wurde zur Unterstützung bei der Formulierung einzelner Textabschnitte verwendet. Dieses Tool half bei der Rechtschreibung, der Grammatikprüfung, der Umstrukturierung von Sätzen und der Verbesserung der Klarheit. Der generierte Inhalt wurde vom Autor kritisch geprüft und überarbeitet, der für die endgültige Fassung verantwortlich ist. Die tatsächlichen Ideen, Argumente und Interpretationen in diesem Dokument stammen vom Autor.
In diesem Zusammenhang stellte ich fest, dass ChatGPT entweder abstürzte oder widersprüchliche und unlogische Antworten auf komplexe Fragen gab. Erst nach einem ausführlichen Dialog mit ChatGPT erhielt ich schlüssige Ergebnisse. Mit anderen Worten: ChatGPT lernte im Dialog von mir, kausale und logische Zusammenhänge zu verstehen und wiederzugeben.
Da ich davon ausgehe, dass andere ChatGPT-Nutzer ähnliche Erfahrungen gemacht haben, möchte ich mich bei allen genannten und unbekannten Autoren bedanken, die bewusst oder unbewusst ihr Wissen mit ChatGPT geteilt haben!
REFERENZEN:
- Acemoglu, D., & Johnson, S. (2023). Power and Progress. MIT Press.
- Brynjolfsson, E. (2017). Artificial Intelligence and the Modern Productivity Paradox. NBER Working Paper.
- (2023). Engagement Index Deutschland.
- Marcus, G. (2023). Rebooting AI. Pantheon Books.
- (2015). Changing Change Management.
- Schieck, F. (1996). Systemisches und ganzheitliches Management auf der Grundlage einer verhaltensgesteuerten Organisationsmethode.
- Schieck, F., & Tauber, H. (1998). Business Communication Management – Der Weg zum unternehmensweiten Wissensmanagement. OrgNews GfO.
- Schieck, F. (2003). Die Paradoxie der Beratung – Oder von rasantem Wandel und verspäteten Konzepten. Magazin für Digitalisierung, Vernetzung & Collaboration.
- Shneiderman, B. (2022). Human-Centered AI. Oxford University Press.
- Acemoglu, D., & Johnson, S. (2023). Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity. MIT Press.
- Brynjolfsson, E. (2017). Artificial Intelligence and the Modern Productivity Paradox: A Clash of Expectations and Statistics. NBER Working Paper.
- Marcus, G. (2023). Rebooting AI. Pantheon Books.
- Orlikowski, W. (2007). Sociomaterial practices: Exploring technology at work. Organization Studies, 28(9), 1435–1448.
- Shneiderman, B. (2022). Human-Centered AI. Oxford University Press.
- Solow, R. (1987, July 12). We’d better watch out. New York Times Book Review.
- (2023). Arbeitsproduktivität in Deutschland 1991–2023.
- Journal of Strategic Innovation and Sustainability Vol. 20(4) 2025
2 Antworten
Kommentar von ChatGPT aus ökonomischer Perspektive:
Zum kompletten Kommentar »
Kommentar von ChatGPT aus wissenschaftlicher Perspektive:
Zum kompletten Kommentar »