Viele von uns sind fasziniert von dem, was die neuesten KI-Errungenschaften leisten können – da zähle ich mich auch dazu.
Doch so beeindruckend die Technologie auch ist: Eine große Herausforderung bei der Einführung von KI-Lösungen liegt nicht im Code oder den Algorithmen. Sie liegt bei uns Menschen.
Egal ob es um interne Tools wie KI-gestützte Meeting-Protokolle geht oder um externe Lösungen wie Chatbots, Vertriebsassistenten oder smarte Kundenservices: Der Business Case für KI steht und fällt mit einer simplen Frage: Wird die Technologie tatsächlich genutzt?
Und genau hier kommt die Verhaltensökonomie ins Spiel. Denn es reicht nicht aus, dass eine KI-Lösung “nur” ein relevantes Problem löst. Das liegt daran, dass wir Menschen keine rationalen Maschinen sind, die stets ihren Nutzen maximieren. Wir haben Emotionen (und simulieren diese nicht nur), wir unterliegen Biases, wir sind Gewohnheitstiere und wir sind oft skeptisch gegenüber allem, was neu und unbekannt ist, auch wenn es große Vorteile mit sich bringt.
Folgende 6 menschliche Faktoren gilt es bei der Einführung von KI-Lösungen daher zu beachten:
Stellen Sie sich vor, Sie rufen im Kundenservice an. Der Mitarbeitende ist gestresst, liefert zuerst eine falsche Antwort und erst nach mehrmaligem Nachfragen korrigiert er sich. Das ist zwar nervig - aber okay, er ist halt auch nur ein Mensch.
Jetzt stellen Sie sich vor, sie schreiben mit KI-Chatbot und machen die gleiche Erfahrung. Würden Sie den Chatbot noch einmal verwenden?
Bei einer vor Kurzem durchgeführten Umfrage kam heraus: 68 % der Kunden nutzen einen Chatbot nach nur einer schlechten Erfahrung nicht mehr (Salesforce 2023)
Warum ist das so? An die KI haben wir höhere Erwartungen als an Menschen. Und das ist durchaus ironisch. Denn wir verzeihen der KI weniger, obwohl sie oft besser performt als Menschen.
Was kann man bei der Einführung von KI-Tools also tun? Es gilt, aktiv und im Vorhinein zu kommunizieren, dass KI nicht unfehlbar ist. Fehler müssen transparent gemacht werden und es braucht die klare Botschaft, dass die KI noch dazulernen wird.
Vertrauen basiert nicht auf Fehlerlosigkeit, sondern auf Transparenz im Umgang mit Fehlern und den geeigneten Selbstokorrekturmechanismen, wie sie Yuval Harari in seinem Buch Nexus nennt.
Auch wenn wir die Erwartung haben sollten, dass KI Fehler macht, sollte es trotzdem kein zufriedenstellender Zustand sein. Und besonders die generative KI macht Fehler, weil sie auf Wahrscheinlichkeiten basiert und nicht darauf, „die Wahrheit“ zu finden. Ein Sprachmodell “weiß” nicht, dass Paris die Hauptstadt von Frankreich ist – es weiß nur, dass „Paris“ sehr oft im Zusammenhang mit der „Hauptstadt von Frankreich“ auftaucht.
Die Herausforderung dabei ist: Wenn eine KI zuverlässig genug ist und wir gute Erfahrungen mit ihr machen, neigen wir dazu, ihr immer mehr blind zu vertrauen. Menschen sind bequem – warum schon wieder prüfen, wenn es bisher immer gepasst hat?
Für den Erfolg ist es aber wichtig, dass es einen konsequent gelebten Monitoring-Prozess gibt. Nicht aus Kontrollwahn, sondern als Sicherheitsnetz.
Es braucht klare Regeln, wann und wie KI-Ergebnisse von Menschen überprüft werden. Ohne dieses Netz wird die anfängliche Wachsamkeit mit der Zeit verschwinden. Und gerade in sensiblen Bereichen sollte man nicht passiv darauf warten, bis der erste große Fehler erkannt wird.
Ich habe das Buch Per Anhalter durch die Galaxis zwar nicht gelesen, doch ich habe schon öfter von der Stelle gehört, in der ein Supercomputer auf alle Fragen des Universums antwortet und folgende Antwort ausspuckt:
„42.“
Damit kann man selbstverständlich wenig anfangen und die Antwort veranschaulicht folgendes Problem sehr gut: der Prozess, wie man zu einem Ergebnis kommt, ist wichtig, um die Validität des Ergebnisses beurteilen zu können.
Und viele KI-Modelle sind so ähnlich wie der Supercomputer in Per Anhalter durch die Galaxis: Sie liefern Ergebnisse, aber der Weg dorthin ist für viele Menschen nur schwer nachvollziehbar.
Und darunter kann die menschliche Akzeptanz des KI-Outputs stark leiden, insbesondere in sensiblen Bereichen wie Finanzen, Personalentscheidungen oder dem Gesundheitswesen.
Nicht umsonst wird der Ansatz von Explainable AI (XAI) daher zurzeit viel diskutiert, bei dem es darum geht, die Nachvollziehbarkeit von KI-Ergebnissen zu erhöhen.
Einfache Modelle oder visuelle Aufbereitungen können beispielsweise komplexe Modelle “annähern”, um den dahinter liegenden Prozess verständlicher zu gestalten. Denn wir Menschen vertrauen mehr, wenn wir verstehen, was passiert.
Wir alle kennen diesen einen Kollegen, der bei der Einführung von jeder neuen Software sagt: „Das habe ich aber schon immer anders gemacht.“
Diese Aussage muss nicht notwendigerweise Widerstand gegen eine Technologie bedeuten. Dahinter kann auch ein starkes Bedürfnis nach Selbstbestimmung und Autonomie stecken.
Wir Menschen wollen das Gefühl haben, Einfluss nehmen zu können (auch wenn es manchmal nur um das Gefühl geht). Das ist beispielsweise der Grund, warum wir Daumen drücken oder besonders lange den Würfel schütteln, bevor er gerollt wird.
Wenn es um die Autonomie bzw. den Widerstand gegenüber Algorithmen geht, spricht die Forschung von Algorithm Aversion, also dem Phänomen, dass Menschen misstrauisch gegenüber Algorithmen sind, besonders wenn sie keinen Einfluss darauf haben.
Die Lösung besteht darin, Mitarbeitende aktiv in den KI-Prozess einzubinden. Denn sobald wir Teil der Lösung sind, sinkt unsere Skepsis. Ob durch Feedbackschleifen, Anpassungsmöglichkeiten innerhalb des KI-Workflows oder hybride Systeme, bei denen Menschen stets Teil des Inputs liefern.
KI-Modelle lernen aus Daten. Daten kommen von Menschen. Und Menschen sind… sagen wir mal so: nicht die Meister der Objektivität (auch wenn die meisten besser darin sind als Mr. Trump).
Das Ergebnis: Bias in den Daten und Bias im Output. Also systematische Verzerrungen, die gewisse Aspekte einer Lösung zu wenig oder gar nicht berücksichtigen.
KI kann bei zu wenig Diversität der Daten im Lernprozess die Vorurteile von Menschen übernehmen - und hier meine ich nicht nur “klassische” Vorurteile gegenüber anderen Menschen, sondern auch Vorurteile und blinde Flecken gegenüber Business-Problemen. Besonders kritisch wird es, wenn Feedback-Loops zum An- und Weiterlernen der KI einseitig sind – etwa wenn immer dieselben Personen das System trainieren.
Man stelle sich als extremes Beispiel vor, eine Person, die bei der Einschätzung eines Problems systematisch falsch liegt, ist die einzige Person, die einem Algorithmus Feedback gibt.
Die Lösung besteht darin, die Diversität zu erhöhen. Und zwar nicht nur bei den Trainingsdaten, sondern auch beim Feedback. Je vielfältiger die Perspektiven, desto robuster und besser wird das Modell. Und das ist nicht nur ethisch wichtig, sondern auch geschäftlich klug.
Kennen Sie das Gefühl, dass Sie gerade eine Anfrage in einem Chat geschickt haben und sich jetzt nicht sicher sind, wer “da eigentlich antwortet?”
Das löst irgendwie ein mulmiges und unsicheres Gefühl aus. Denn Menschen hassen es, getäuscht zu werden.
Es ist grundsätzlich kein Problem, wenn ein KI Chatbot antwortet (und die obigen Punkte beachtet werden) – aber es ist ein Problem, wenn ich davon ausgehe, dass ein Mensch antwortet und sich im Nachhinein herausstellt, dass es doch die KI war.
Transparenz ist deswegen äußerst wichtig. Und KI ist nichts, das man verstecken muss (auch wenn es nicht viel bringt, damit zu werben - das ist aber ein anderes Thema).
Offene Kommunikation schafft Vertrauen, während Täuschung das Gegenteil bewirkt. Und ohne Vertrauen funktioniert unsere Wirtschaft nicht - auch nicht, wenn sie von KI durchdrungen ist.
KI kann viel. Sie kann Prozesse optimieren, Entscheidungen unterstützen und sogar kreativ sein. Aber ohne den Menschen im Zentrum bleibt sie ein Werkzeug ohne Wirkung.
Die Einführung von KI ist nicht nur ein IT-Projekt, sondern es geht auch darum, Vertrauen, Transparenz, Fairness und Mitgestaltungsmöglichkeiten zu schaffen - für interne Mitarbeitende und für Kunden.
Denn am Ende entscheidet nicht der Algorithmus über den Erfolg einer KI – sondern der Mensch, der sie nutzt.
Schreiben Sie mir eine Nachricht oder besuchen Sie meine LinkedIn-Seite. Ich rufe Sie zurück oder antworte Ihnen digital - wie es Ihnen lieber ist!