Die Perspektive eines Key Account Managers der Consulting- und ICT-Branche.
Abstrakt
Dieser Artikel untersucht das Potenzial der Künstlichen Intelligenz (KI), um das Produktivitätswachstum zu fördern und den Bürokratieabbau in Unternehmen voranzutreiben. Obwohl generative künstliche Intelligenz (GenAI) als vielversprechende Technologie gilt, bleiben viele Unternehmen hinter den Erwartungen zurück, da die erhofften Produktivitätsgewinne häufig ausbleiben. Studien zeigen, dass GenAI-Tools für viele Nutzer schwer zu integrieren sind, was zu einer erhöhten Arbeitsbelastung und neuen bürokratischen Hürden führt.
In diesem Zusammenhang setzt sich der Beitrag mit der Frage auseinander, wie Künstliche Intelligenz als Querschnittstechnologie dazu beitragen kann, den nicht-wertschöpfenden Organisations- und Kommunikationsaufwand der Mitarbeiter und Führungskräfte drastisch zu senken, um Produktivität und Agilität im Unternehmen zu verbessern. In diesem Kontext beleuchtet der Artikel den Ansatz der Human-Centered Artificial Intelligence (HCAI), der eine stärkere Nutzerzentrierung und Anpassungsfähigkeit der KI-Systeme fordert. Dabei werden die Ansätze generativer KI-Modelle und menschenzentrierter KI-Modelle näher untersucht und gegenübergestellt.
Während der GenAI-Ansatz eher auf einzelne Aufgaben und Prozesse bestimmter Nutzergruppen ausgerichtet ist, stellt der HCAI-Ansatz die Individualisierbarkeit, Anpassungsfähigkeit und Skalierbarkeit der gesamten Arbeitsumgebung der Nutzer eines Unternehmens in den Mittelpunkt. Es wird argumentiert, dass ein grundlegender Paradigmenwechsel im Methoden- und Architekturansatz sowie einem Algorithmus zur Umsetzung von Human-Centered Design-Prinzipien erforderlich ist, bei dem sich KI-Modelle an die Arbeitsweise der Nutzer anpassen, und nicht die Arbeitsweise der Nutzer an die KI-Modelle.
Die Schlussfolgerung des Artikels betont, dass nur durch die Weiterentwicklung hin zu einer menschenzentrierten KI das volle Potenzial von KI-Technologien ausgeschöpft werden kann. Erst ein neuer Methoden- und Architekturansatz zur intelligenten Vernetzung der menschlichen Intelligenz durch künstliche Intelligenz wird der Schlüssel sein, um KI zu einer „Killerapplikation“ für Produktivitätswachstum und Bürokratieabbau zu machen. Ein solcher Ansatz wäre nicht nur technologisch bahnbrechend, sondern würde auch die Beziehung zwischen Mensch und Maschine neu definieren, indem er den Menschen ins Zentrum der KI-Nutzung stellt und die Produktivität steigert, ohne den menschlichen Beitrag zu verdrängen.
(Friedrich Schieck / 09/2024)
Inhaltsverzeichnis
- Produktivitätsentwicklung gestern, heute und morgen
- Status Quo heutiger KI-Modelle und Anwendungen
- Perspektiven aus der Beratungs- und I&K-Branche
- Zwei Perspektiven aus der Wissenschaft
- Anforderungen an zukünftige Methoden und KI-Modelle
- Das Konzept für Human-Centered Artificial Intelligence (HCAI)
- Die wesentlichen Unterscheidungsmerkmale von GenAI und HCAI
- GenAI- und HCAI-Merkmale hinsichtlich Wissens-Input & Wissens-Output
- Anforderungen an einen ganzheitlichen HCAI Methoden- & Architekturansatz
- Meine vorläufige Schlussfolgerung
- Mein Statement
- Quellen
Produktivitätsentwicklung gestern, heute und morgen
Ein Blick in die Zukunft erfordert einen Rückblick auf die Vergangenheit und eine Analyse dessen, was sich bis heute verändert hat und welche Entwicklungen in der Zukunft zu erwarten sind. Rückblickend prognostizierten Analysten Ende der 1990er Jahre ein anhaltendes Produktivitätswachstum für die folgenden zwei Jahrzehnte. Besonders die Digitalisierung, der Einsatz von Informations- und Kommunikationstechnologien (I&K-Technologien) sowie das Aufkommen des Internets wurden als treibende Kräfte dieser Entwicklung angesehen. Es wurde erwartet, dass diese Technologien die Effizienz steigern und zu einem nachhaltigen Produktivitätswachstum führen würden.
Heute wissen wir jedoch, dass die Produktivität pro Beschäftigtem in Deutschland zwischen 1991 und 2023 trotz steigender Investitionen in Beratung, Digitalisierung und Informations- und Kommunikationstechnologien rückläufig war [1]. Zusätzlich haben Bürokratie und die Unzufriedenheit vieler Arbeitnehmer zugenommen. Dabei ist Produktivitätswachstum entscheidend für die Wirtschaftlichkeit und Wettbewerbsfähigkeit ganzer Volkswirtschaften sowie für den Wohlstand der Bevölkerung.
Optimistische Prognosen für die Zukunft:
Studien der letzten fünf Jahre zeichnen erneut ein optimistisches Bild für die kommenden zwei Jahrzehnte. Laut dem McKinsey Global Institute Report vom 14. Juni 2023, The economic potential of generative AI: The next productivity frontier, könnten „die Auswirkungen der generativen KI auf die Produktivität der Weltwirtschaft einen Mehrwert in Billionenhöhe bringen.
Unsere neueste Studie schätzt, dass generative KI den Gegenwert von 2,6 bis 4,4 Billionen Dollar jährlich in den von uns analysierten 63 Anwendungsfällen hinzufügen könnte [2].“ Für Deutschland geht McKinsey in einer Veröffentlichung vom 24. November 2023, Fachkräftemangel: GenAI kann akuten Bedarf bei hochqualifizierten Jobs lindern, davon aus,
Unsere neueste Studie schätzt, dass generative KI den Gegenwert von 2,6 bis 4,4 Billionen Dollar jährlich in den von uns analysierten 63 Anwendungsfällen hinzufügen könnte.
dass die frühzeitige Einführung und Nutzung von GenAI das Bruttoinlandsprodukt (BIP) bis 2040 um bis zu 585 Milliarden Euro (13 %) steigern und die Produktivität um 18 % erhöhen könnte [3].
Zweifel an der Realisierbarkeit dieser Prognosen:
Doch aktuelle Veröffentlichungen relativieren diese optimistischen Prognosen. Trotz weltweiter privater Investitionen im Bereich Künstlicher Intelligenz von über 395 Milliarden US-Dollar [4] kommt eine Studie von Upwork Research [5] aus dem Juli 2024 zu dem Ergebnis: „Fast die Hälfte (47 %) der Arbeitnehmer, die KI einsetzen, gibt an, keine Ahnung zu haben, wie sie die Produktivitätssteigerungen erreichen sollen, die ihre Arbeitgeber erwarten. Mehr als drei Viertel (77 %) berichten, dass KI-Tools ihre Produktivität verringert und ihre Arbeitsbelastung in mindestens einem Bereich erhöht haben [5].“
In diesem Zusammenhang hat die Investmentbank Goldman Sachs in ihrem Bericht GEN AI: TOO MUCH SPEND, TOO LITTLE BENEFIT? vom Juni 2024 die Frage aufgeworfen, ob die hohen Investitionen in Künstliche Intelligenz überhaupt wirtschaftlich sinnvoll sind. Experten wie Daron Acemoglu vom MIT, Brian Janous von Microsoft sowie Jim Covello, Kash Rangan und Eric Sheridan von Goldman Sachs diskutieren darin die wirtschaftliche Rentabilität dieser Investitionen [6].
Erste Anzeichen einer KI-Ernüchterung:
Gary Marcus, emeritierter Professor der New York University, geht in seinem Beitrag AlphaProof, AlphaGeometry, ChatGPT, and why the future of AI is neurosymbolic vom Juli 2024 noch weiter und schreibt: „Ich gehe fest davon aus, dass die Blase der generativen KI in den nächsten zwölf Monaten zu platzen beginnen wird, und zwar aus vielen Gründen:
Der derzeitige Ansatz hat ein Plateau erreicht, es gibt keine Killer-App, Halluzinationen bleiben (d. h. die KI erzeugt weiterhin falsche oder erfundene Informationen), schwerwiegende Fehler bestehen weiterhin, niemand hat einen Wassergraben (also keinen nachhaltigen Wettbewerbsvorteil), und die Menschen beginnen, all dies zu erkennen [7].“
Der derzeitige Ansatz hat ein Plateau erreicht, - Es gibt keine Killer-App, - Halluzinationen bleiben, - Schwachsinnige Fehler bleiben, - Niemand hat einen Wassergraben, - die Menschen beginnen, all dies zu erkennen.
Am 5. August 2024 schreibt Markus Diem Meier von Handelszeitung.ch in seinem Beitrag Warum die Stimmung radikal gekippt ist: über die veränderte Stimmungslage. Bereits seit einem Monat brachen die Aktien von Alphabet, Amazon und Microsoft um zweistellige Prozentsätze ein; Gleiches gilt für Nvidia [8].
Fazit: Ein Hype oder die Zukunft der Produktivität?
Angesichts solcher Expertenmeinungen, Studienergebnisse und aktueller Börsenentwicklungen stellt sich die Frage: Was sind die Ursachen für diese widersprüchlichen Perspektiven, und wohin wird sich der Markt für Künstliche Intelligenz in den nächsten Jahren entwickeln? Ist Künstliche Intelligenz nur ein Hype, oder ist sie tatsächlich eine Zukunftstechnologie für Produktivitätswachstum und Bürokratieabbau?
Status Quo heutiger KI-Modelle und Anwendungen
Der KI-Index-Bericht 2024 der Stanford University [9] zeigt eindrucksvoll die Entwicklungen im Bereich der Künstlichen Intelligenz. Die Forscher zählten im vergangenen Jahr 149 neue KI-Modelle [10] und allein in diesem Jahr weitere 50 neue KI-Modelle [11]. Diese Zahlen verdeutlichen, dass der Hype um KI-Technologien unvermindert anhält, während große Tech-Unternehmen wie Microsoft, OpenAI, Alphabet, Meta, Apple und Amazon weiterhin enorme Summen in die Entwicklung neuer KI-Technologien investieren.
Der Erfolg der verschiedenen KI-Modelle in Unternehmen hängt entscheidend von den Business-Anwendungen ab, die zur Produktivitätssteigerung im operativen Tagesgeschäft von Mitarbeitern und Führungskräften beitragen sollen. Eine der bekanntesten Anwendungsbereiche der Künstlichen Intelligenz ist die Generierung von Inhalten. Unternehmen erhoffen sich von den richtigen KI-Assistenten, ihre Prozesse zu optimieren, die Produktivität zu steigern und innovative Inhalte zu erstellen. Diese Tools sollen Inhalte wie Texte, Bilder oder Sprache auf Grundlage großer KI-Modelle generieren und interaktiv mit den Nutzern kommunizieren.
Eines der am häufigsten verwendeten KI-Anwendungen in Unternehmen ist Microsoft 365 Copilot, ein innovatives Werkzeug, das die Interaktion zwischen Mensch und Maschine auf ein neues Niveau heben soll. Dieser „Copilot“ ist in diverse Microsoft 365-Apps wie Word, Excel, PowerPoint und Teams integriert und bietet zudem den Microsoft Business Chat an. Dieser Chat nutzt Unternehmensdaten und Microsoft 365-Apps, um Anweisungen in natürlicher Sprache zu verarbeiten und daraus beispielsweise Berichte oder E-Mails zu erstellen. Darüber hinaus gibt es eine Vielzahl weiterer intelligenter KI-Assistenten, die in unterschiedlichen Bereichen eingesetzt werden. Der Jahresbericht 2024 des Work Trend Index von Microsoft und LinkedIn bietet einen umfassenden Überblick über die aktuelle Entwicklung und den Einsatz generativer Künstlicher Intelligenz (GenAI) [12].
In einem Podcast der Harvard Business School mit dem Titel Microsoft’s AI perspective: From chatbots to reengineering the organization erklärt Jared Spataro, Corporate Vice President of Modern Work and Business Applications bei Microsoft:
„Basierend auf unseren Telemetriedaten werden fast 60 Prozent der Arbeitszeit eines durchschnittlichen Informationsarbeiters für Kommunikation und Koordination aufgewendet—nur um den Rest seiner Arbeit zu erledigen. Dies geschieht beispielsweise in Besprechungen, Chats oder E-Mails. Dieser Prozentsatz steigt monatlich weiter an, und es ist nicht absehbar, dass er sich verlangsamt.
Basierend auf unseren Telemetriedaten werden fast 60 Prozent der Arbeitszeit eines durchschnittlichen Informationsarbeiters tatsächlich für Kommunikation und Koordination aufgewendet – nur um den Rest seiner Arbeit zu erledigen.
Was uns die Leute in den qualitativen Studien tatsächlich sagen, ist: ‚Ich habe kaum Zeit, den Job zu erledigen, für den ich eingestellt wurde [13].“
Es wird deutlich, dass KI-Assistenten theoretisch das Potenzial haben, die Produktivität zu steigern. Dennoch bestehen erhebliche Zweifel, ob sie den nicht-wertschöpfenden Organisations- und Kommunikationsaufwand von Mitarbeitern und Führungskräften im operativen Tagesgeschäft signifikant reduzieren und somit das Produktivitätswachstum substanziell steigern können. Viele Studien, wie die oben genannten, deuten darauf hin, dass die erfolgreiche Integration dieser Technologien in den Arbeitsalltag für zahlreiche Nutzer eine große Herausforderung darstellt.
Perspektiven aus der Beratungs- und I&K-Branche
Vor dem Hintergrund zunehmender Zweifel an der wirtschaftlichen Sinnhaftigkeit generativer KI-Technologien (GenAI) geben Beratungs- und I&K-Branchen unterschiedliche Empfehlungen, wie Unternehmen diesen Herausforderungen begegnen können.
Tom Davenport von Deloitte Analytics und John J. Sviokla von PwC beschreiben in ihrem Beitrag The 6 Disciplines Companies Need to Get the Most Out of Gen AI vom 8. Juli 2024, dass viele Unternehmen beginnen, sich zu fragen, ob KI genug wirtschaftlichen Wert schaffen kann, um ihre hohen Kosten zu rechtfertigen. Sie kommen zu dem Schluss, dass KI dies tun kann, jedoch nur, wenn Unternehmen bestimmte disziplinierte Fähigkeiten entwickeln.
Diese umfassen Verhaltensänderungen, kontrollierte Experimente, die Messung des Geschäftswerts, Datenmanagement, die Entwicklung von Humankapital und Systemdenken [15]. Diese Fähigkeiten sollen Unternehmen helfen, die richtigen KI-Projekte auszuwählen und erfolgreich umzusetzen.
Diese umfassen Verhaltensänderungen, kontrollierte Experimente, die Messung des Geschäftswerts, Datenmanagement, die Entwicklung von Humankapital und Systemdenken.
McKinsey hebt in seinem Beitrag KI beschleunigt Umbrüche am Arbeitsmarkt die Bedeutung des schnellen Einsatzes neuer Technologien hervor. McKinsey argumentiert, dass ein rascher Einsatz von KI-Technologien das Produktivitätswachstum um bis zu drei Prozent pro Jahr steigern könnte. Allerdings ist dafür eine umfassende Weiterbildung und Umschulung der Beschäftigten erforderlich. Ohne solche Maßnahmen könnte KI ihr Potenzial nicht voll entfalten [16].
Das ICT Workforce Consortium, das unter der Leitung von Cisco gegründet wurde, hat eine Initiative ins Leben gerufen, um sich auf die Weiterbildung und Umschulung von Arbeitnehmern zu konzentrieren, die am ehesten von KI betroffen sein werden. Führende Unternehmen wie Accenture, Google, IBM und Microsoft beteiligen sich daran und investieren erheblich in dieses Vorhaben [17].
Diese Empfehlungen fokussieren sich stark darauf, die Arbeitsweisen der Mitarbeitenden und Führungskräfte an die KI-Technologien anzupassen. Umfangreiche Weiterbildungen, Schulungen und Beratungen sollen dabei helfen, die verfügbaren KI-Lösungen in die Praxis zu integrieren. Dies wirft jedoch die Frage auf, ob es nicht sinnvoller wäre, die KI-Systeme stärker an die Arbeitsweisen und Bedürfnisse der Nutzer anzupassen, anstatt die Arbeitsweisen an die KI-Technologie. Kann das prognostizierte Produktivitätswachstum tatsächlich erreicht werden, oder bleibt das Potenzial ungenutzt, weil die Anforderungen der Mitarbeitenden nicht ausreichend berücksichtigt werden?
Zwei Perspektiven aus der Wissenschaft
Die erste Perspektive stammt von Daron Acemoglu, Professor am Massachusetts Institute of Technology (MIT), der in seinem Artikel The Simple Macroeconomics of AI vom 12. Mai 2024 die tiefgreifenden Auswirkungen Künstlicher Intelligenz untersucht. Acemoglu verwendet ein aufgabenbasiertes Modell, das sowohl die Automatisierung als auch die Komplementarität von Aufgaben einbezieht, um die Effekte von KI besser zu verstehen. Er schreibt: „Meine Einschätzung ist, dass die generative KI, die eine vielversprechende Technologie darstellt, in der Tat viel größere Gewinne verspricht. Doch diese Gewinne werden schwer zu erreichen sein, wenn es nicht zu einer grundlegenden Neuausrichtung der Industrie kommt.
Diese Neuausrichtung könnte eine wesentliche Änderung der Architektur der gängigen generativen KI-Modelle, wie etwa der Large Language Models (LLMs), beinhalten. Der Fokus sollte auf verlässlichen Informationen liegen, die die Grenzproduktivität verschiedener Arten von Arbeitnehmern erhöhen, anstatt den derzeitigen Schwerpunkt auf menschenähnliche Konversationswerkzeuge zu legen. Der Allzweckcharakter des derzeitigen Ansatzes der generativen KI könnte sich als ungeeignet erweisen, um solche zuverlässigen Informationen zu liefern [18].“
Acemoglu kritisiert somit den aktuellen Schwerpunkt auf generative KI-Modelle, die stark auf Konversationsfähigkeiten und menschenähnliche Interaktionen ausgelegt sind. Stattdessen plädiert er für einen größeren Fokus auf Modelle, die echte Produktivitätsgewinne durch den Zugang zu verlässlichen Informationen ermöglichen, die für die Erhöhung der Arbeitsleistung in verschiedenen Bereichen unerlässlich sind.
Die zweite Perspektive stammt von Ethan Mollick, Professor für Innovation und Künstliche Intelligenz an der University of Pennsylvania. In seinem Beitrag Latent Expertise: Everyone is in R&D – Ideas come from the edges, not the center vom 20. Juni 2024 hebt Mollick die Nachteile zentralisierter, auf Effizienz ausgerichteter Systeme hervor. Er schreibt: „Mit zentralisierten, auf Effizienz ausgerichteten Systemen zu beginnen, birgt nicht nur das Risiko der Wachstumshemmung, sondern hat noch weitere Nachteile.
Im Moment hat niemand—weder Berater noch typische Softwareanbieter—eine allgemeingültige Antwort darauf, wie KI effektiv eingesetzt werden kann, um neue Möglichkeiten in bestimmten Branchen zu erschließen. Unternehmen, die sich auf zentralisierte Lösungen verlassen, die wie herkömmliche IT-Projekte behandelt werden, werden daher wahrscheinlich keine bahnbrechenden Ideen finden, zumindest vorerst nicht [19].“
Im Moment hat niemand - von Beratern bis hin zu typischen Softwareanbietern - allgemeingültige Antworten darauf, wie KI eingesetzt werden kann, um neue Möglichkeiten in einer bestimmten Branche zu erschließen.
Mollicks Kritik richtet sich gegen Unternehmen, die in erster Linie auf standardisierte und zentralisierte Lösungen setzen, um Effizienzgewinne zu erzielen. Er argumentiert, dass bahnbrechende Innovationen und Ideen oft von den Rändern und nicht aus dem Zentrum eines Unternehmens kommen. Dies bedeutet, dass Unternehmen flexibler und experimenteller mit neuen Technologien umgehen sollten, anstatt diese lediglich als effizienzsteigernde Werkzeuge zu betrachten.
Zusammenfassung der Perspektiven:
Acemoglu und Mollick argumentieren beide, dass der gegenwärtige Einsatz von KI nicht das volle Potenzial der Technologie ausschöpft. Während Acemoglu eine Neuausrichtung der Technologie hin zu verlässlicheren und produktivitätssteigernden Anwendungen fordert, betont Mollick, dass Unternehmen durch ihre Fixierung auf zentrale, effizienzorientierte Systeme möglicherweise innovative Chancen verpassen. Beide weisen darauf hin, dass die gegenwärtigen Strukturen und Ansätze überdacht werden müssen, um das wahre Potenzial von KI für Produktivitätssteigerung und Innovation zu entfalten.
Anforderungen an zukünftige Methoden und KI-Modelle
Wie bereits in meinem Leitartikel Wo liegt der Fehler im System der digitalen Transformation….[20] hervorgehoben, besteht eine dringende Notwendigkeit für eine grundlegende Änderung der Methoden- und Architekturansätze heutiger KI-Modelle, um ein höheres Produktivitätswachstum und weniger Bürokratie in Unternehmen zu erreichen. Diese Notwendigkeit stützt sich unter anderem auf die folgenden Thesen:
- Das Scheitern von Transformations- und Change-Management-Initiativen liegt weniger am Verhalten oder Mindset der Mitarbeiter und Führungskräfte, sondern vielmehr an den eingesetzten Methoden und digitalen Technologien (KI-Modellen).
- Der Schwerpunkt sollte nicht allein auf den Menschen gelegt werden, sondern auf die Instrumente, die für den Wandel genutzt werden.
- Es ist ein Paradigmenwechsel erforderlich: weg vom klassischen, tayloristischen Ansatz der fremdorganisierten Automatisierung, Überwachung und Steuerung (heutiger GenAI-Ansatz) hin zu einem kollaborativen Ansatz der selbstorganisierten Automatisierung, Überwachung und Steuerung (zukünftiger HCAI-Ansatz).
- Dieser neue Ansatz sollte nicht nur Produktivität, Agilität und Innovationsfähigkeit fördern, sondern auch strukturelle und kulturelle Stabilität sicherstellen.
- Das Ziel sollte nicht das fremdorganisierte Ersetzen der menschlichen Intelligenz durch Künstliche Intelligenz sein, sondern die intelligente, selbstorganisierte Vernetzung der menschlichen Intelligenz durch Künstliche Intelligenz.
- Nur so können die notwendigen Voraussetzungen für einen fortlaufenden, effizienten Transformationsprozess geschaffen werden.
- Jeder methodische und KI-technische Architekturansatz muss sich daran messen lassen, inwieweit er alle Mitarbeiter und Führungskräfte in den Transformationsprozess einbezieht und gleichzeitig den nicht-wertschöpfenden Organisations- und Kommunikationsaufwand reduziert, anstatt ihn zu erhöhen.
- Es geht darum, den Fokus auf die tatsächliche Wertschöpfung zu legen und unnötige bürokratische Hürden abzubauen.
- Ein fortlaufender Transformationsprozess erfordert, dass die Zeit zur Anpassung der Organisations-, Informations- und Prozessstrukturen an neue Rahmenbedingungen und Kundenbedürfnisse kürzer sein muss als die zur Verfügung stehende Zeit.
- Andernfalls entsteht eine sogenannte Adaptionslücke, die den Transformationsprozess kontraproduktiv macht.
Während einige Analysten und Wissenschaftler diese Thesen teilen, gibt es nach wie vor viele offene Fragen bezüglich der konkreten Ausgestaltung eines solchen grundlegenden Ansatzwechsels in den Methoden und KI-Modellen. Ein vielversprechender Weg könnte in der verstärkten Erforschung und Entwicklung von menschenzentrierten KI-Modellen (Human-Centered AI, HCAI) liegen. Diese Modelle stellen den Menschen in den Mittelpunkt und zielen darauf ab, Technologien so zu gestalten, dass sie die menschliche Arbeit nicht ersetzen, sondern ergänzen und verbessern. Dieser Ansatz könnte eine Antwort darauf geben, wie zukünftige KI-Systeme gestaltet sein müssen, um die beschriebenen Herausforderungen zu meistern und langfristig ein höheres Maß an Produktivität und Effizienz bei gleichzeitiger Verringerung der Bürokratie zu erreichen.
Das Konzept für Human-Centered Artificial Intelligence (HCAI)
Prof. Ben Shneiderman von der Universität Maryland fasst in seinem Beitrag Human-Centered Artificial Intelligence: Three Fresh Ideas vom September 2020 die Anforderungen an eine menschenzentrierte KI treffend zusammen. Er schlägt eine alternative Vision der KI vor, die auf der Schaffung zuverlässiger, sicherer und vertrauenswürdiger Systeme basiert. Diese sollen es den Menschen ermöglichen, von der Leistungsfähigkeit der KI zu profitieren, während sie gleichzeitig die Kontrolle behalten [21].
Ben Shneiderman befürwortet einen KI-Ansatz, der Systeme so gestaltet und entwickelt, dass sie die Selbstwirksamkeit des Menschen unterstützen, Kreativität fördern, Verantwortung klar definieren und soziale Teilhabe erleichtern. Diese Grundprinzipien sollen Designern helfen, technische Ziele wie Datenschutz, Sicherheit, Fairness, Zuverlässigkeit und Vertrauenswürdigkeit zu erreichen.
Ben Shneiderman befürwortet einen KI-Ansatz, der Systeme so gestaltet und entwickelt, dass sie die menschliche Selbstwirksamkeit unterstützen, die Kreativität fördern, Verantwortung klar definieren und soziale Teilhabe erleichtern.
Diese Grundprinzipien sollen Designern helfen, technische Ziele wie Datenschutz, Sicherheit, Fairness, Zuverlässigkeit und Vertrauenswürdigkeit zu erreichen. Mit seiner Aussage, „HCAI sei eine zweite kopernikanische Revolution“, unterstreicht er die zentrale Bedeutung dieses Ansatzes [22].
In dem Beitrag An HCAI Methodological Framework: Putting It Into Action to Enable Human-Centered AI stellen die Wissenschaftler Wei Xu, Zaifeng Gao und Marvin Dainoff einen umfassenden methodischen Rahmen zur Entwicklung menschenzentrierter KI vor. Dieser besteht aus sieben zentralen Komponenten: Designziele, Designprinzipien, Implementierungsansätze, Designparadigmen, interdisziplinäre Teams, Methoden und Prozesse. Ziel ist es, intelligente HCAI-Systeme praxisnah zu konzipieren, zu entwickeln und zu implementieren, um den Einsatz menschenzentrierter KI in der realen Welt zu unterstützen [23]. Wei Xu und Zaifeng Gao erweitern diese Idee in einem weiteren Beitrag, An intelligent sociotechnical systems (iSTS) concept: Toward a sociotechnically-based hierarchical human-centered AI approach. Hier wird ein Konzept für intelligente soziotechnische Systeme (iSTS) entwickelt, das auf die Anforderungen des KI-Zeitalters abgestimmt ist. Das iSTS-Konzept betont die gemeinsame Optimierung auf individueller, organisatorischer, ökosystemischer und sozialer Ebene, um soziotechnische Herausforderungen ganzheitlich zu lösen [24].
Ein weiteres Beispiel für HCAI findet sich in der Dissertation von Dr. Janika Kutz mit dem Titel: Menschenzentrierte industrielle Künstliche Intelligenz: Ansätze zur Gestaltung akzeptierter und vertrauenswürdiger KI-basierter Services in der Produktion (2024). Ihr Ziel ist es, KI-basierte Services in Produktionsumgebungen so zu gestalten, dass sie von den Mitarbeitenden akzeptiert und genutzt werden. Zwei entwickelte Modelle unterstützen Entwickler bei der ko-kreativen Gestaltung dieser Services: das „Generische Rollenmodell“ und das „Vorgehensmodell zur Nutzung von Design-Prinzipien“. Diese Modelle fördern eine stärkere Einbindung der Mitarbeitenden, insbesondere der Endanwender, in den Entwicklungsprozess [25].
Die Centred Artificial Intelligence Research Group um Prof. Ernesto William De Luca von der Otto-von-Guericke-Universität Magdeburg untersucht ebenfalls verschiedene Forschungsbereiche im Zusammenhang mit HCAI und Human-Centered Design (HCD). Im Mittelpunkt stehen dabei Responsible AI, Ethical AI, Machine Learning, Natural Language Processing, Human-Computer Interaction, User-Adaptive Systems und Usability.
Sie betonen die Bedeutung der Benutzermodellierung, Anpassung und Personalisierung, um sicherzustellen, dass KI-Systeme menschliche Bedürfnisse, Werte und Erfahrungen in den Mittelpunkt stellen. Der iterative Prozess des Human-Centred Design (HCD) stellt sicher, dass Nutzer in jeder Phase des Entwurfsprozesses eingebunden sind, wodurch die Usability stetig verbessert wird [26].
Sie betonen die Bedeutung der Benutzermodellierung, Anpassung und Personalisierung, um sicherzustellen, dass KI-Systeme menschliche Bedürfnisse, Werte und Erfahrungen in den Mittelpunkt stellen.
Auch führende Unternehmen wie Microsoft, OpenAI, Alphabet, Amazon, IBM, Meta, SAP und Aleph Alpha, etc. investieren verstärkt in die Entwicklung menschenzentrierter KI-Modelle, insbesondere im Bereich der generativen KI (GenAI). Diese Unternehmen haben sich zum Ziel gesetzt, Technologien zu entwickeln, die menschliche Arbeit unterstützen und verbessern, ohne unnötige Komplexität zu schaffen—ein Schlüsselmerkmal menschenzentrierter KI.
Fazit: Die Vision der menschenzentrierten Künstlichen Intelligenz (HCAI) setzt auf die Entwicklung von Systemen, die nicht nur technisch leistungsfähig sind, sondern auch die menschlichen Bedürfnisse, Werte und Erfahrungen berücksichtigen. Dies stellt einen bedeutenden Unterschied zu vielen aktuellen Ansätzen der generativen KI dar, die oft technikgetrieben sind und dabei die Nutzererfahrung nicht ausreichend berücksichtigen. HCAI bietet eine langfristige Perspektive auf die Entwicklung von KI-Systemen, die nicht nur leistungsfähiger, sondern auch ethisch und sozial verantwortungsvoll sind.
Die wesentlichen Unterscheidungsmerkmale von HCAI und GenAI
Die Unterschiede zwischen der idealen Vision von Human-Centered Artificial Intelligence (HCAI), den aktuellen HCAI-Forschungsergebnissen und den heutigen generativen KI-Modellen (GenAI) lassen sich im Kontext von Produktivitätswachstum und Bürokratieabbau wie folgt zusammenfassen:
1. Individualisierbarkeit – Aufgabenorientierung und Nutzerzentrierung: | ||
Ideale Vision (HCAI): Die ideale HCAI strebt an, KI-Systeme zu entwickeln, die spezifische, aufgabenzentrierte Unterstützung bieten und individuell auf die Bedürfnisse der Mitarbeiter zugeschnitten sind. Dies führt zu einer deutlichen Steigerung der Produktivität, da Mitarbeiter gezielte Hilfe erhalten, die genau auf ihre Tätigkeiten abgestimmt ist. Solche Systeme können Bürokratie reduzieren, indem sie administrative Abläufe automatisieren. |
Aktuelle Forschung (HCAI): Die Forschung von Xu, Gao und anderen betont die Notwendigkeit, KI-Systeme zu schaffen, die organisatorische Prozesse verbessern und an individuelle Anforderungen angepasst werden können. Dies würde bedeuten, dass bürokratische Prozesse durch effizientere, KI-gestützte Lösungen ersetzt werden, die dennoch transparent und nachvollziehbar bleiben. Dies würde wesentlich zur Produktivitätssteigerung beitragen. |
Aktuelle GenAI-Modelle: Heutige GenAI-Modelle bieten bereits Tools zur Automatisierung und Optimierung von Aufgaben, die die Produktivität erhöhen können. Allerdings wird die Nutzerzentrierung oft vernachlässigt, da diese Systeme darauf ausgelegt sind, generische Lösungen für eine breite Anwendergruppe bereitzustellen. Dies kann zu neuen bürokratischen Hürden führen, wenn die Lösungen nicht gut in bestehende Prozesse integriert sind, oder sich Aufgaben permanent ändern. |
2. Anpassungsfähigkeit – Adaptivität und Lernfähigkeit: | ||
Ideale Vision (HCAI): Eine KI, die sich kontinuierlich an neue Anforderungen anpasst und aus den Interaktionen mit den Mitarbeitern lernt, könnte zur Reduzierung von Bürokratie beitragen. Sie würde veraltete Aufgaben und Prozesse erkennen und vorschlagen, wie diese vereinfacht oder automatisiert werden können, was zu einem signifikanten Produktivitätswachstum führt. |
Aktuelle Forschung (HCAI): Die Forschung unterstreicht die Bedeutung adaptiver Systeme zur Minimierung von Bürokratie. Durch automatisches Lernen und Anpassung könnten Unternehmen bürokratische Hürden abbauen, die durch ständig wechselnde Aufgaben, Prozesse und Vorschriften entstehen. Die Herausforderung besteht darin, solche Systeme so zu gestalten, dass sie in dynamischen und komplexen Arbeitsumgebungen effektiv funktionieren. |
Aktuelle GenAI-Modelle: GenAI-Modelle können sich zwar an neue Daten anpassen und aus Nutzerinteraktionen lernen, ihre Fähigkeit, komplexe Bürokratiestrukturen zu erkennen und zu optimieren, ist jedoch begrenzt. Oft konzentrieren sie sich auf Datenanalyse und Optimierung innerhalb bestehender Strukturen, ohne diese grundlegend zu hinterfragen. |
3. Skalierbarkeit – Erweiterung und Integration: | ||
Ideale Vision (HCAI): Eine skalierbare und gut integrierte HCAI-Architektur könnte das Produktivitätswachstum erheblich fördern, indem sie eine nahtlose Zusammenarbeit zwischen verschiedenen Abteilungen und Ebenen eines Unternehmens ermöglicht. Ein flexibles System, das sich auf eine große Anzahl von Nutzern ausweiten lässt, ohne die individuelle Nutzererfahrung zu beeinträchtigen, könnte ineffiziente Prozesse abbauen und zur Steigerung der Produktivität beitragen. |
Aktuelle Forschung (HCAI): Die Forschung erkennt die Bedeutung von Skalierbarkeit und Integration, betont jedoch die Schwierigkeiten, diese auf eine Weise zu erreichen, die gleichzeitig nutzerzentriert und effizient bleibt. Wissenschaftliche Ansätze wie der iSTS-Rahmen betonen die Notwendigkeit, HCAI auf verschiedenen Ebenen eines Unternehmens zu skalieren, um Effizienz und Produktivität zu steigern. Diese Forschung erkennt die Komplexität der Integration und Skalierung an, weist aber darauf hin, dass eine solche Herangehensweise das Potenzial hat, Bürokratie abzubauen. |
Aktuelle GenAI-Modelle: GenAI-Systeme sind oft skalierbar und können in großen Organisationen eingesetzt werden, um Produktivitätsvorteile zu erzielen. Allerdings kann die Integration solcher Systeme zusätzliche Bürokratie erfordern, insbesondere wenn bestehende Prozesse und Infrastrukturen angepasst werden müssen, um die neuen Technologien zu unterstützen. |
4. Benutzerfreundlichkeit und intuitives Design: | ||
Ideale Vision (HCAI): Ein benutzerfreundliches und intuitives HCAI-Design ist entscheidend, um sicherzustellen, dass Mitarbeitende ohne große Hürden produktiv arbeiten können. Dies würde den Schulungsaufwand minimieren und den Abbau bürokratischer Prozesse unterstützen, indem die Systeme für alle Nutzer leicht zugänglich sind. |
Aktuelle Forschung (HCAI): Die Forschung unterstützt die Notwendigkeit benutzerfreundlicher Systeme, erkennt jedoch an, dass es eine Herausforderung ist, komplexe Systeme für alle Benutzergruppen zugänglich zu machen. Ein benutzerfreundliches Design ist entscheidend, um Bürokratie zu reduzieren, da es die Interaktion mit den Systemen erleichtert. |
Aktuelle GenAI-Modelle: Moderne GenAI-Systeme haben bedeutende Fortschritte in der Benutzerfreundlichkeit gemacht, jedoch bleibt die Komplexität oft ein Problem. Wenn diese Systeme zu schwer zu bedienen sind, können sie zusätzliche bürokratische Ebenen erzeugen, da Nutzer gezwungen sind, umfangreiche Schulungen oder Support in Anspruch zu nehmen. |
5. Usability und User Experience (UX): | ||
Ideale Vision (HCAI): Ein hohes Maß an Usability und eine positive User Experience sind entscheidend, um sicherzustellen, dass Mitarbeiter die Systeme gerne nutzen und produktiver arbeiten können. Dies kann direkt dazu beitragen, bürokratische Hindernisse abzubauen, da ein benutzerfreundliches System weniger fehleranfällig ist und eine höhere Effizienz mit sich bringt. |
Aktuelle Forschung (HCAI): Die Forschung betont, dass eine positive Nutzererfahrung entscheidend ist, um die Effektivität von KI-Systemen zu maximieren. Es wird jedoch darauf hingewiesen, dass Usability in komplexen Systemen oft schwer zu erreichen ist und Kompromisse bei der Funktionalität erfordern kann. |
Aktuelle GenAI-Modelle: Große Unternehmen investieren stark in UX, was die Produktivität fördern kann. Allerdings kann die Fokussierung auf allgemeine Usability, ohne spezifische Aufgaben und Arbeitsprozesse zu berücksichtigen, zu einer weniger optimalen Nutzererfahrung führen, was wiederum Bürokratie und Komplexität verstärken kann. |
6. Erklärbarkeit und Transparenz: | ||
Ideale Vision (HCAI): In einem HCAI-Modell wären KI-Systeme so gestaltet, dass ihre Funktionsweise und Entscheidungsprozesse für alle Mitarbeiter nachvollziehbar sind. Dies würde nicht nur das Vertrauen in die Systeme stärken, sondern auch den Abbau unnötiger Bürokratie fördern, indem Prozesse transparenter und verständlicher gestaltet werden. |
Aktuelle Forschung (HCAI): Die Forschung betont die Wichtigkeit von Erklärbarkeit und Transparenz, um die Akzeptanz und das Vertrauen in KI-Systeme zu erhöhen. Dies könnte zu einem reduzierten Bedarf an bürokratischer Kontrolle führen, da transparente Systeme leichter zu überwachen und zu verstehen sind. |
Aktuelle GenAI-Modelle: Während viele Gen-AI-Systeme heute eine gewisse Transparenz bieten, bleibt die Erklärbarkeit oft auf technische Aspekte beschränkt. Die tatsächliche Optimierung und der Abbau von Bürokratie erfordern jedoch eine tiefere Integration und Erklärbarkeit, die derzeit oft noch fehlt. |
7. Ethische und soziale Verantwortung: | ||
Ideale Vision (HCAI): Ethische KI-Systeme, die soziale Verantwortung in den Vordergrund stellen, könnten langfristig Produktivitätswachstum fördern und Bürokratie abbauen, indem sie faire und inklusive Prozesse unterstützen. Systeme, die ethische Prinzipien einhalten, minimieren das Risiko von Konflikten und Compliance-Problemen, die oft zu bürokratischer Überwachung führen. |
Aktuelle Forschung (HCAI): Die Forschung erkennt die Notwendigkeit, ethische Prinzipien in den Entwicklungsprozess zu integrieren, um negative Auswirkungen auf die Arbeitsumgebung zu vermeiden. Dies umfasst auch die Gewährleistung, dass der Bürokratieabbau nicht zu Lasten der Fairness oder der Rechte der Mitarbeiter erfolgt. |
Aktuelle GenAI-Modelle: Obwohl Unternehmen versuchen, ethische Prinzipien in ihre KI-Systeme zu integrieren, gibt es Bedenken, dass kommerzielle Interessen über ethische Überlegungen gestellt werden. Dies könnte dazu führen, dass Bürokratie nicht vollständig abgebaut wird, da zusätzliche Kontrollmechanismen notwendig sind, um ethische Bedenken zu adressieren. |
8. Daten und Datenschutz: | ||
Ideale Vision (HCAI): Ein HCAI-Modell würde Datenschutz an erste Stelle setzen, während es gleichzeitig effiziente Arbeitsprozesse ermöglicht. Bürokratie könnte abgebaut werden, indem sichere und transparente Datennutzungspraktiken etabliert werden, die den Mitarbeitern Vertrauen geben und administrative Überprüfungen überflüssig machen. |
Aktuelle Forschung (HCAI): Die Forschung zeigt, dass Datenschutz eine zentrale Herausforderung ist, die oft in direktem Konflikt mit der Effizienz von KI-Systemen steht. Der Abbau von Bürokratie muss mit einem verantwortungsvollen Umgang mit Daten einhergehen, um rechtliche und ethische Bedenken auszuräumen. |
Aktuelle GenAI-Modelle: Datenschutz bleibt ein zentrales Anliegen in der Implementierung von GenAI-Systemen. Während große Fortschritte gemacht wurden, bleibt oft die Frage, ob der Datenschutz vollständig gewährleistet ist. Dies führt in vielen Unternehmen dazu, dass zusätzliche bürokratische Maßnahmen eingeführt werden, um Compliance sicherzustellen. |
Fazit: Die ideale Vision eines HCAI-Modells unterstützt sowohl Produktivitätswachstum als auch Bürokratieabbau in Unternehmen, indem es nutzerzentrierte, adaptive, transparente und ethisch verantwortungsvolle Systeme schafft. Aktuelle Forschungsarbeiten bemühen sich, diese Vision in die Praxis umzusetzen, sehen jedoch noch wesentliche Herausforderungen bei der Skalierung und Integration solcher Systeme in komplexen organisatorischen Umgebungen.
Die GenAI-Modelle der heutigen großen Technologieunternehmen haben zwar das Potenzial, produktivitätssteigernd zu wirken, könnten aber gleichzeitig neue bürokratische Hürden schaffen, wenn sie nicht nutzerorientiert entwickelt und vor allem nicht zeitnah und effizient an aktuelle Anforderungen angepasst werden können. Es besteht ein Bedarf an einer stärkeren Ausrichtung dieser Modelle an den Prinzipien von HCAI, um nachhaltig die Produktivität zu steigern und Bürokratie abzubauen.
GenAI- und HCAI-Merkmale hinsichtlich Wissens-Input & Wissens-Output
Im Kontext von Wissens-Input und Wissens-Output bieten Human-Centered Artificial Intelligence (HCAI) und generative KI (GenAI) unterschiedliche Ansätze zur Interaktion mit den Nutzern. HCAI-Modelle betonen die bidirektionale Beziehung zwischen Nutzern und KI sowie den Nutzern untereinander, wobei ein kontinuierlicher Wissensaustausch stattfindet, während GenAI-Modelle traditionell einen eher statischen Ansatz verfolgen. Im Folgenden werden die wesentlichen Unterschiede zwischen HCAI und GenAI hinsichtlich Wissens-Input, Wissens-Output, dynamischem Wissensaustausch und Integration in Arbeits- und Lernumgebungen beschrieben:
1. Permanenter Wissens-Input | |
HCAI-Modelle: HCAI-Modelle sind darauf ausgelegt, kontinuierlichen Wissensinput zu integrieren. Sie nutzen verschiedene Mechanismen, um Informationen von den Nutzern zu sammeln, einschließlich direktem Feedback, Analyse von Nutzungsdaten und Beobachtung der Interaktionen. Diese kontinuierliche Rückkopplungsschleife ermöglicht es HCAI, sich fortlaufend anzupassen und weiterzuentwickeln, was sowohl die Produktivität als auch die Nutzererfahrung verbessert. HCAI-Systeme können aus jeder Nutzerinteraktion lernen und den Input dynamisch auf die spezifischen Bedürfnisse der Nutzer zuschneiden. | GenAI-Modelle: GenAI-Modelle verarbeiten während der Trainingsphase große Mengen an Daten, jedoch bleibt ihr Wissensinput in der Anwendungsphase oft statisch. Das bedeutet, dass sie in Echtzeit nur selten auf den Input von Nutzern reagieren und sich nur begrenzt anpassen können. GenAI-Modelle sind darauf ausgelegt, vorab trainierte Daten zu verwenden, und sind daher nicht immer in der Lage, kontinuierlich neues Wissen von den Nutzern aufzunehmen und anzuwenden. |
2. Wissens-Output: Informationsbereitstellung | |
HCAI-Modelle: HCAI strebt an, Outputs zu liefern, die nicht nur auf die unmittelbare Anfrage reagieren, sondern auch lernbasierte, kontextualisierte und personalisierte Informationen bieten, die auf vorherigen Interaktionen und dem erlernten Verständnis der Aufgaben und Verantwortlichkeiten der Nutzer basieren. Der Wissensoutput in HCAI-Systemen ist darauf ausgerichtet, den Nutzer proaktiv mit Informationen zu versorgen, die seinen Bedürfnissen und seiner aktuellen Situation entsprechen, und dabei die persönliche Entwicklung und Effizienz zu unterstützen. | GenAI-Modelle: GenAI-Systeme bieten Antworten oder Lösungen basierend auf den eingegebenen Daten oder Anfragen. Der Output ist oft statisch in dem Sinne, dass er nicht auf frühere Interaktionen zurückgreift oder sich dynamisch an den Kontext anpasst. Die Informationen sind in der Regel standardisiert und nicht spezifisch für den individuellen Lernfortschritt oder die Bedürfnisse des Nutzers angepasst. |
3. Dynamischer Wissensaustausch und Anpassungsfähigkeit | |
HCAI-Modelle: HCAI ermöglicht einen dynamischen, kontinuierlichen Wissensaustausch zwischen Nutzern und dem System sowie zwischen Nutzern untereinander. Dieser bidirektionale Austausch erlaubt es dem System, sich ständig weiterzuentwickeln und aus dem Input der Nutzer zu lernen. HCAI-Modelle sind adaptiv und personalisiert und können den Nutzern kontextbezogene Vorschläge machen, bevor diese sie explizit anfordern. Diese Fähigkeit zur Vorhersage und Anpassung hilft, Produktivitätshindernisse zu beseitigen und Arbeitsabläufe effizienter zu gestalten. | GenAI-Modelle: GenAI-Modelle bieten zwar in gewissem Maße Anpassungsfähigkeit, sind jedoch oft weniger dynamisch in der kontinuierlichen Anpassung und dem Wissensaustausch. Während einige Modelle über adaptive Lernsysteme verfügen, sind die meisten GenAI-Systeme nicht in der Lage, den Wissensaustausch über lange Zeiträume kontinuierlich zu optimieren oder vorhersehbare Unterstützung zu leisten. |
4. Integration in die Arbeits- und Lernumgebungen | |
HCAI-Modelle: HCAI-Modelle zeichnen sich durch ihre nahtlose Integration in die alltäglichen Arbeits- und Lernumgebungen der Nutzer aus. Sie sind in der Lage, kontextuelle Hinweise zu verstehen und ihre Funktionen entsprechend anzupassen. Dies ermöglicht eine tiefere Unterstützung der Nutzer, indem die Systeme relevante und kontextsensitive Informationen bereitstellen, die genau auf die jeweilige Arbeitsumgebung zugeschnitten sind. | GenAI-Modelle: GenAI-Modelle sind oft weniger eng mit den spezifischen Arbeits- und Lernumgebungen der Nutzer verbunden. Sie bieten generische Lösungen, die in vielen Fällen isoliert von der tatsächlichen Umgebung des Nutzers funktionieren. Dies kann dazu führen, dass sie nicht optimal auf die spezifischen Bedürfnisse oder den Arbeitskontext der Nutzer abgestimmt sind, was die Effizienz verringern und neue Hindernisse schaffen kann. |
Fazit: Die wesentlichen Unterschiede zwischen HCAI und GenAI in Bezug auf Wissens-Input und -Output lassen sich wie folgt zusammenfassen:
- Wissens-Input: HCAI-Modelle integrieren kontinuierlich Nutzerdaten und passen sich dynamisch an. GenAI-Modelle hingegen verarbeiten hauptsächlich vordefinierte Daten und lernen selten in Echtzeit.
- Wissens-Output: HCAI bietet personalisierte und kontextualisierte Informationen, die sich an den Nutzer anpassen, während GenAI-Systeme standardisierte, statische Informationen liefern, die weniger an individuelle Bedürfnisse angepasst sind.
- Dynamischer Wissensaustausch: HCAI ermöglicht einen kontinuierlichen Wissensaustausch, der das System stetig verbessert, während GenAI in seiner Anpassungsfähigkeit oft limitiert ist.
- Integration in Arbeits- und Lernumgebungen: HCAI passt sich nahtlos an die spezifischen Arbeits- und Lernkontexte an, während GenAI-Modelle oft isolierter agieren und nicht optimal in die individuellen Arbeitsumgebungen integriert sind.
Insgesamt bieten HCAI-Modelle ein dynamischeres und stärker personalisiertes Nutzererlebnis, das besser auf die einzigartigen Bedürfnisse der Nutzer abgestimmt ist. Dies führt zu einer intelligenteren, anpassungsfähigeren und produktiveren Interaktion, während GenAI-Modelle stärker auf generische Lösungen setzen und weniger auf die individuellen Anforderungen der Nutzer eingehen.
Anforderungen an einen ganzheitlichen HCAI Methoden- und Architekturansatz
Bis heute gibt es noch erhebliche Unterschiede zwischen dem theoretischen Ansatz der Human-Centered Artificial Intelligence (HCAI) und ihrer praktischen Umsetzung. Es fehlt nach wie vor an einem umfassenden Methoden- und Architekturansatz sowie an einem durchdachten Vorgehens-, Prozess- und Rollenmodell, das die Prinzipien des Human-Centered Design (HCD) integriert und die erfolgreiche Implementierung von HCAI in der Praxis sicherstellt.
Im Mittelpunkt sollte die Schaffung von Rahmenbedingungen stehen, die den nicht-wertschöpfenden Organisations- und Kommunikationsaufwand für Mitarbeiter und Führungskräfte deutlich reduzieren. Gleichzeitig muss eine hohe Motivation zur kooperativen Wissensteilung sichergestellt werden, um sowohl die Produktivität zu steigern als auch Bürokratie effizient abzubauen.
Folgende Schlüsselaspekte sind aus meiner Sicht essenziell, um eine ganzheitliche Implementierung von HCAI zu ermöglichen:
- Individualisierbarkeit – Aufgabenorientierung und Nutzerzentrierung: Ein HCAI-System muss die gesamte Arbeitsumgebung auf die Bedürfnisse der Nutzer zuschneiden, indem es ein umfassendes Verständnis für deren Aufgaben und Verantwortlichkeiten entwickelt. Das bedeutet, dass das System sich nicht nur auf einzelne Aufgaben fokussiert, sondern ein umfassendes Verständnis für den Kontext und die Bedürfnisse des Nutzers entwickelt. Das System muss den gesamten Arbeitskontext des Nutzers verstehen und eine maßgeschneiderte Arbeitsumgebung schaffen. Dies umfasst die Bereitstellung relevanter Daten, Informationen, Wissensquellen und Anwendungen in einer strukturierten und individualisierten Form, die er zur Erfüllung seiner aktuellen Aufgaben und Verantwortlichkeiten benötigt. Nur durch die KI-gestützte Individualisierung des digitalen Arbeitsplatzes können die notwendigen Voraussetzungen für produktive Wertschöpfung geschaffen werden.
- Dynamische Individualisierung: Jeder Nutzer benötigt eine individualisierte Arbeitsumgebung, die auf seine spezifischen Aufgaben und Verantwortlichkeiten zugeschnitten ist. Dies schafft die Grundlage für produktives Arbeiten und eine höhere Effizienz.
- Anpassungsfähigkeit – Adaptivität und Lernfähigkeit: Ein HCAI-System sollte aus jeder Interaktion, Kommunikation und Information lernen, um sich dynamisch an die sich ändernden Aufgaben und Verantwortlichkeiten der Nutzer anzupassen. Dies setzt voraus, dass das System jeden Anwender adäquat in das Organisations- und Prozessdesign einbezieht, um dessen Arbeitsumgebung zeitnah und effizient an seine Bedürfnisse anzupassen. Hierfür sind fortgeschrittene Techniken des maschinellen Lernens und kontinuierliche Feedbackschleifen notwendig. Das System muss flexibel genug sein, um Änderungen in den Arbeitsanforderungen schnell zu erkennen und darauf zu reagieren. Es sollte proaktiv Anpassungen vorschlagen und den digitalen Arbeitsplatz der Nutzer effizient auf ihre Bedürfnisse ausrichten.
- Adaptives Lernen: HCAI-Systeme müssen in der Lage sein, die individualisierte Arbeitsumgebung jedes Nutzers dynamisch an neue Aufgaben und Verantwortlichkeiten anzupassen, indem sie fortlaufend aus der Kommunikation und Interaktion der Nutzer lernt.
- Skalierbarkeit – Erweiterung und Integration: Das HCAI-System muss in der Lage sein, die Individualisierbarkeit und Anpassungsfähigkeit der Arbeitsumgebung auf eine beliebig große Anzahl von Nutzern auszuweiten, ohne die Qualität der Nutzererfahrung zu beeinträchtigen. Das bedeutet, dass das System in der Lage sein muss, eine personalisierte Arbeitsumgebung für jeden Nutzer in einem großen Unternehmen zu schaffen, ohne den Organisations- und Kommunikationsaufwand zu erhöhen. Eine optimale Skalierbarkeit ist dann erreicht, wenn das System mit zunehmender Nutzerzahl an Effizienz gewinnt und individuelle Anpassungen dynamisch und präzise durchführt.
- Erweiterung und Integration: Das System muss auf eine beliebige Anzahl Nutzer skalierbar sein, mit dem Ergebnis, dass sich die Individualisierung und Aktualisierung der Arbeitsumgebung verbessert, je mehr Nutzer das System nutzen. Dies ist entscheidend für den Erfolg in großen Organisationen.
- Fairness – Ethische und soziale Verantwortung: Aus der Perspektive eines Unternehmens bedeutet Human-Centered Artificial Intelligence (HCAI), KI-Systeme zu entwickeln, die den Menschen in den Mittelpunkt stellen und faire, transparente sowie verantwortungsbewusste Entscheidungen unterstützen. Dies beinhaltet die vollständige Offenlegung der Quellen der bereitgestellten Daten und Informationen sowie die Einbindung aller betroffenen Mitarbeiter und Führungskräfte in den SOLL-/IST-Dialog- und Entscheidungsprozess zur kooperativen Wissensteilung. Eine vertrauenswürdige KI gewährleistet einen fairen Ausgleich zwischen dem, was jeder Einzelne einbringt und zurückbekommt. Die Motivation zur Wissensteilung basiert stark auf der Wahrnehmung von Fairness; Mitarbeiter teilen ihr Wissen eher, wenn sie dies als gerecht empfinden und ihr Beitrag anerkannt wird. Durch diese Fairness im Umgang mit Wissen fördert HCAI ein stärkeres Vertrauen in das System, erhöht die Bereitschaft zur Zusammenarbeit und stärkt das Unternehmensimage.
- Ethische und soziale Verantwortung: Das System muss sicherstellen, dass die Wissensaustausch- und Entscheidungsprozesse transparent und fair gestaltet sind, damit die Nutzer Vertrauen in das System aufbauen und bereit sind, Wissen zu teilen.
- Benutzerfreundlichkeit / intuitives Design: Ein HCAI-System sollte von Anfang an ohne umfangreiche Schulungen nutzbar sein. Die Technologie muss sich nahtlos in die natürliche Arbeitsweise der Nutzer einfügen und gleichzeitig aus ihren Interaktionen lernen, um sich dynamisch an die sich ändernde Anforderungen anzupassen. Die Benutzerfreundlichkeit ist ein kontinuierlicher Optimierungsprozess, der die Effizienz und die Akzeptanz des Systems fördert. Ein intuitives Design sorgt dafür, dass der digitale Arbeitsplatz unkompliziert und flexibel bleibt, ohne die Nutzer mit zusätzlichen Komplexitäten zu belasten.
- Intuitive Nutzung und Benutzerfreundlichkeit: Von Beginn an sollte das System benutzerfreundlich und ohne Schulungen bedienbar sein. Die Benutzerfreundlichkeit muss kontinuierlich verbessert werden, um sich an die wechselnden Bedürfnisse der Nutzer anzupassen.
- Erklärbarkeit / Transparenz: Die Erklärbarkeit ist ein wesentlicher Faktor für das Vertrauen in ein HCAI-System. Nutzer müssen verstehen, warum das System bestimmte Vorschläge macht oder Aktionen empfiehlt. Ein transparentes System, das seine Entscheidungslogik erklärt, erhöht nicht nur die Akzeptanz, sondern ermöglicht es den Nutzern, die Technologie besser zu nutzen. Diese Transparenz sollte auch in den Bereichen Individualisierung, Anpassungsfähigkeit und Skalierbarkeit vorhanden sein, damit die Nutzer wissen, wie und warum das System auf ihre spezifischen Anforderungen reagiert.
- Erklärbarkeit und Transparenz: Die Nutzer müssen jederzeit nachvollziehen können, warum das System bestimmte Änderungen vornimmt, um Vertrauen aufzubauen und die Nutzung des Systems zu optimieren.
- Compliance / Datenschutz: Angesichts der Vielzahl an Daten, die über Aufgaben, Verantwortlichkeiten und Arbeitsweisen von Mitarbeitern und Führungskräften gesammelt werden, muss das HCAI-System sämtliche betrieblichen und rechtlichen Compliance- und Datenschutzrichtlinien einhalten. Der Schutz dieser sensiblen Daten, insbesondere in unterschiedlichen rechtlichen Kontexten, ist von zentraler Bedeutung. Ein HCAI-System muss so gestaltet sein, dass es die Datenverarbeitung transparent und sicher gestaltet, um das Vertrauen der Nutzer zu stärken und rechtlichen Anforderungen gerecht zu werden.
- Datenschutz und rechtliche Compliance: Das System muss alle erforderlichen Datenschutzrichtlinien und rechtlichen Vorschriften einhalten, um den Schutz sensibler Daten sicherzustellen.
Ein ganzheitlicher HCAI-Methoden- und Architekturansatz muss mehrere Schlüsselaspekte berücksichtigen, um erfolgreich in der Praxis umgesetzt zu werden. Der erste Schritt beinhaltet die Klärung der Individualisierbarkeit, Anpassungsfähigkeit und Skalierbarkeit des Systems. Auf dieser Grundlage können im zweiten Schritt Fragen zu Fairness, Benutzerfreundlichkeit, Erklärbarkeit sowie zur Einhaltung von Compliance- und Datenschutzvorgaben beantwortet werden. Diese Aspekte sind entscheidend, um nicht nur die Produktivität zu steigern, sondern auch das Vertrauen und die Motivation der Nutzer zu fördern.
Das Ziel eines solchen Ansatzes ist es, ein dynamisches System zu schaffen, das sich flexibel den Bedürfnissen der Nutzer anpasst, während die Nutzer die Kontrolle über das System behalten. Gleichzeitig soll der Organisations- und Kommunikationsaufwand minimiert werden. Dies trägt dazu bei, dass das HCAI-System nicht nur effektiv, sondern auch vertrauenswürdig und nutzerfreundlich ist.
Meine These: Künstliche Intelligenz kann die McKinsey-Prognosen zum Wirtschafts-wachstum noch weit übertreffen, jedoch nur, wenn sich der Methoden- und Architekturansatz generativer KI-Modelle in Richtung menschenzentrierter KI (HCAI) weiterentwickelt.
Mit anderen Worten: Künstliche Intelligenz muss sich an die Bedürfnisse der Nutzer anpassen und nicht die Bedürfnisse der Nutzer an die KI-Technologie!
Meine These:
Künstliche Intelligenz kann die McKinsey-Prognosen zum Wirtschaftswachstum noch weit übertreffen, jedoch nur, wenn sich der Methoden- und Architekturansatz generativer KI-Modelle in Richtung menschen-zentrierter KI (HCAI) weiterentwickelt.
Diese These basiert auf der Überlegung, dass HCAI-Modelle dazu beitragen, nicht-wertschöpfende Aufgaben zu minimieren, indem sie effiziente, intuitive und unterstützende Technologien bereitstellen, die sowohl die individuelle als auch die organisatorische Leistungsfähigkeit steigern. In einem HCAI-gestützten digitalen Arbeitsplatz agiert die KI als nahtlose Erweiterung des menschlichen Nutzers, ohne dass Schulungen, Change-Management oder Kulturwandel erforderlich sind.
Das System lernt und reagiert auf die individuellen Bedürfnisse der Nutzer und unterstützt diese in ihren Aufgaben und Verantwortlichkeiten. Durch eine intelligente Vernetzung der Nutzer ermöglicht es effiziente Informations-, Kommunikations- und Interaktionsprozesse und reduziert damit den nicht-wertschöpfenden Organisations- und Kommunikationsaufwand erheblich. Dies führt zu höherer Produktivität, Agilität und Innovationsfähigkeit sowie zu struktureller und kultureller Stabilität in Unternehmen.
Die Herausforderung bei der praktischen Umsetzung des Human-Centered Artificial Intelligence (HCAI)-Ansatzes liegt darin, den passenden Methoden- und Architekturansatz sowie geeignete Algorithmen zu finden, die die Prinzipien des Human-Centered Design tatsächlich verwirklichen. Ein HCAI-basierter digitaler Arbeitsplatz muss die drei zentralen Anforderungen – Individualisierbarkeit, Anpassungsfähigkeit und Skalierbarkeit – erfüllen, unabhängig von der Größe des Unternehmens oder der Anzahl der Arbeitsplätze. Ob es sich um 100 oder 10.000 Arbeitsplätze handelt, die gewählte KI-Technologie, sei es Generative AI (GenAI) oder HCAI, muss in der Lage sein, diese Kriterien zu erfüllen und gleichzeitig den nicht-wertschöpfenden Organisations- und Kommunikationsaufwand erheblich reduzieren.
Die Lösung liegt aus meiner Sicht in einem einfachen, aber effektiven Methoden- und Architekturansatz, der durch einen leicht verständlichen Algorithmus unterstützt wird. Dieser Algorithmus sollte die Prinzipien des Human-Centered Design umsetzen, indem er menschliche Intelligenz vernetzt, anstatt sie zu ersetzen. Auf diese Weise schafft der HCAI-Ansatz ein System, das Menschen stärkt und dabei die Grundlage für ein nachhaltiges Produktivitätswachstum und konsequenten Bürokratieabbau legt.
Ein solcher Ansatz wäre nicht nur technologisch bahnbrechend, sondern würde auch die Beziehung zwischen Mensch und Maschine neu definieren, indem er den Menschen ins Zentrum der KI-Nutzung stellt und die Produktivität steigert, ohne den menschlichen Beitrag zu verdrängen. Um dieser Perspektive näher zu kommen, sollten sich Unternehmen als Erstes die Frage stellen: Welche Auswirkungen hätte es auf Produktivität, Agilität und Innovations-fähigkeit sowie auf strukturelle und kulturelle
Ein solcher Ansatz wäre nicht nur technologisch bahnbrechend, sondern würde auch die Beziehung zwischen Mensch und Maschine neu definieren, indem er den Menschen ins Zentrum der KI-Nutzung stellt und die Produktivität steigert, ohne den menschlichen Beitrag zu verdrängen.
Stabilität, wenn ein HCAI-gestützter Arbeitsplatz den nicht-wertschöpfenden Aufwand der Mitarbeiter und Führungskräfte nachhaltig um (z.B.) die Hälfte reduzieren würde? Ich glaube, dass würde Unternehmen im ersten Schritt helfen, eine andere Perspektive für den Einsatz von künstlicher Intelligenz einzunehmen.
In diesem Kontext sollten sich Unternehmen folgende Schlüsselfragen stellen:
- Welche Prozesse tragen zum nicht-wertschöpfenden Organisations- und Kommunikationsaufwand der Mitarbeiter und Führungskräfte bei?
- Unternehmen müssen diese Prozesse unabhängig von Rolle und Funktion identifizieren und analysieren.
- Wie lässt sich der nicht-wertschöpfende Aufwand messen?
- Eine konkrete Metrik ist erforderlich, um den aktuellen Aufwand zu quantifizieren und eine Grundlage für Verbesserungen zu schaffen.
- Wie und in welcher Weise wirken sich diese Prozesse auf Produktivität, Agilität und Innovationsfähigkeit sowie auf die strukturelle und kulturelle Stabilität im Unternehmen aus?
- Das Verständnis dieser Auswirkungen ist entscheidend für die Priorisierung von HCAI-Initiativen.
- Wie können diese nicht-wertschöpfenden Prozesse durch HCAI automatisiert oder eliminiert werden?
- HCAI sollte als Hebel dienen, um ineffiziente Prozesse durch KI-gestützte Automatisierung zu verbessern.
- Wie muss ein Methoden- und Architekturansatz aussehen, um HCAI-Anforderungen zu erfüllen?
- Ein ganzheitlicher Ansatz, der Individualisierbarkeit, Anpassungsfähigkeit und Skalierbarkeit sicherstellt, muss entwickelt werden.
- Welche Algorithmen garantieren die Umsetzung von HCD-Prinzipien?
- Algorithmen müssen es ermöglichen, dass sich eine beliebige Anzahl digitaler Arbeitsplätze effizient an individuelle Nutzerbedürfnisse anpasst.
- Wie können Unternehmen auf Basis von HCAI eine klare KI-Strategie und umsetzbare Roadmap entwickeln?
- Es ist notwendig, eine praxisorientierte Strategie und Roadmap zu entwickeln, um diese erfolgreich im Unternehmen zu implementieren.
- Wie lässt sich der ROI von HCAI-Projekten messen?
- Unternehmen müssen in der Lage sein, den echten Mehrwert von HCAI zu erfassen und den Return on Investment (ROI) transparent darzustellen.
Entscheidend ist jedoch, dass man nachhaltiges Produktivitätswachstum und fairen Bürokratieabbau mittels HCAI auch wirklich haben möchte. Hier scheinen mir die Interessen oftmals weit auseinanderzugehen. Auch große KI-Unternehmen und deren Investoren sollten überlegen, ob die Milliardeninvestitionen in die Entwicklung einer Artificial General Intelligence (AGI) wirtschaftlich und ethisch überhaupt sinnvoll sind, wenn eine solche Form der Intelligenz bereits bei acht Milliarden Menschen vorhanden ist. Diese Investitionen wären meiner Meinung nach besser in die Entwicklung eines HCAI-Modells angelegt, das die bereits vorhandene menschliche Intelligenz intelligent vernetzt und so zu einer echten, menschenzentrierten AGI führt.
Eine Hypothese auf die Zukunft: Ich bin überzeugt, dass das HCAI-Modell (Human-Centered Artificial Intelligence) das Potenzial hat, nachhaltiges Produktivitätswachstum, Bürokratieabbau und Wohlstand zu fördern und das Bewusstsein für sozial-ökologische Herausforderungen zu stärken. Nur Menschen, die durch Wohlstandsgewinne geprägt sind, entwickeln ein tieferes Verständnis für diese Herausforderungen.
Spannend bleibt die Frage, wer als Erster auf das HCAI-Modell setzt: die Tech-Giganten im Silicon Valley, ein Startup in der EU oder die chinesische Regierung. China könnte HCAI als Ergänzung zum Social-Credit-System nutzen, um selbstbestimmtes Arbeiten zu fördern und eine Balance zwischen individueller Autonomie im Arbeitsleben und staatlicher Kontrolle im Privatleben zu schaffen. Die autokratische Struktur Chinas erlaubt eine schnelle und effiziente Entwicklung und Implementierung von HCAI, wodurch China möglicherweise einen strategischen Vorteil gegenüber westlichen Demokratien gewinnen könnte.
Falls China diesen Weg beschreitet und HCAI-Systeme zur Produktivitätssteigerung subventioniert, geraten westliche Unternehmen unter Druck. Ein technokratischer Vorsprung Chinas könnte die Anpassungs- und Innovationsfähigkeit westlicher Unternehmen und Demokratien herausfordern und zu spürbaren Nachteilen führen.
Fazit: HCAI könnte zu einem Modell werden, das Überwachung und Kontrolle in sozialen Systemen mit selbstbestimmtem Arbeiten in Unternehmen vereint und damit sowohl Produktivitätssteigerung als auch Wohlstand fördert. Für autokratische Systeme wie China könnte dies erhebliche strategische Vorteile bringen, während westliche Unternehmen und Demokratien die Herausforderung hätten, darauf angemessen zu reagieren.
Mein Statement
Dieser Beitrag sollte im Kontext meines Leitartikels „Wo liegt der Fehler im System der Digitalen Transformation und welche Anforderungen ergeben sich damit für den Einsatz von künstlicher Intelligenz?“ vom 27.09.2023 verstanden werden.
Ich hoffe, mit diesem Beitrag eine weitere Diskussion anzustoßen, die dem Thema Künstliche Intelligenz eine neue Perspektive vermittelt. Sollten sich Fragen und Kommentare zu diesem Beitrag ergeben, dann können Sie mir diese gern über das Antwortformular oder per eMail zukommen lassen.
Friedrich Reinhard Schieck / BCM Consult – 26.09.2024
eMail: fs@bcmconsult.com; friedrich@schieck.org;
Website: www.bcmconsult.com
© 2024 Friedrich Schieck – BCM Consult
Quellen:
(1) Statista (2023) | Veränderung der Produktivität je Erwerbstätigenstunde bis 2022
(2) McKinsey (2023) | The economic potential of generative AI: The next productivity frontier
(3) McKinsey (2023) | Fachkräftemangel: GenAI kann akuten Bedarf bei hochqualifizierten Jobs lindern
(4) Statista (2024) | Weltweite, private Investments im Bereich Künstliche Intelligenz bis 2023
(5) Upwork Research (Juli 2024) | From Burnout to Balance: AI-Enhanced Work Models
(6) Investmentbank Goldman Sachs (Juni 2024) | GEN AI: TOO MUCH SPEND, TOO LITTLE BENEFIT?
(7) Gary Marcus (2024) | AlphaProof, AlphaGeometry, ChatGPT, and why the future of AI is neurosymbolic
(8) Markus Diem Meier – Handelszeitung (2024) | Warum die Stimmung radikal gekippt ist
(9) Stanford University (2024) | KI-Index-Bericht 2024 / Measuring trends in AI
(10) Stanford University (2023) | 149 neue KI-Modelle – ecosystem graphs
(11) Stanford University (2024) | 50 neue KI-Modelle – ecosystem graphs
(12) Microsoft und Linkedin (2024) | Jahresbericht 2024 des Work Trend Index
(14) Michael Bradley University of Oxford (2024) | The AI Efficiency Paradox
(16) McKinsey (2024) | KI beschleunigt Umbrüche am Arbeitsmarkt: Produktivitätsschub von 3% möglich
(17) Cisco (2024) | AI-Enabled Information and Communication Technology (ICT)
(18) Daron Acemoglu / MIT (2024) | The Simple Macroeconomics of AI
(20) Friedrich Schieck (2023) | Wo liegt der Fehler im System der digitalen Transformation….
(21) Ben Shneiderman / Uni Maryland (2020)| Human-Centered Artificial Intelligence: Three Fresh Ideas
(22) Ben Shneiderman / Uni Maryland (2020)| Human-Centered Artificial Intelligence: Three Fresh Ideas
(23) Xu, Gao, Dainoff (2023) | An HCAI Methodological Framework
(24) Wei Xu, Zaifeng Gao (2024) | An intelligent sociotechnical systems (iSTS) concept
(27) denkfabrik-bmas.de (2022) | Arbeiten mit Künstlicher Intelligenz
(28) McKinsey (2023) | The economic potential of generative AI: The next productivity frontier
(29) Investmentbank Goldman Sachs (2024) | GEN AI: TOO MUCH SPEND, TOO LITTLE BENEFIT?
(30) Luisa Bomke – Handelsblatt (2024) | Ist der KI-Hype eine Blase?
2 Antworten
Kommentar von ChatGPT-4o aus wissenschaftlicher Perspektive
zum kompletten Kommentar
Kommentar von ChatGPT-4o aus unternehmerischer Perspektive
zum kompletten Kommentar