Ohne Vertrauen kein KI-Erfolg. Obwohl bereits jeder dritte Mensch in Deutschland KI-Systeme wie ChatGPT nutzt, bleiben viele skeptisch gegenüber automatischen Entscheidungen. Das ist kein Wunder: Skandale und Negativschlagzeilen dominieren oft die Wahrnehmung. Vertrauensproblem KI: „Grund für das Misstrauen sind Betrugs- und Desinformations-Fälle, die mithilfe von KI durchgeführt und in den Medien groß herausgestellt werden – größer als die lebensrettenden oder umsatzsteigernden Anwendungen, die dank KI realisiert werden“ (KI jetzt!, S. 24). Wenn ein KI-Modell Falschnachrichten produziert oder spektakulär danebenliegt, schafft es sofort Schlagzeilen, während die vielen stillen Erfolgsgeschichten weniger Aufmerksamkeit bekommen.
Für Unternehmen bedeutet dies: Sie müssen aktiv Vertrauen schaffen, wenn sie KI einsetzen. Kunden, Mitarbeitende und die Öffentlichkeit wollen sicher sein, dass KI-Systeme zuverlässig und fair arbeiten. Transparenz und Kontrolle sind daher keine Kür, sondern Pflicht.
Erklärbarkeit und Nachvollziehbarkeit: KI erklären können
Niemand vertraut gerne einer Black Box. XAI – erklärbare KI: Nachvollziehbarkeit wird zur zentralen Anforderung, damit Entscheidungen von KI-Systemen transparent und vertrauenswürdig bleiben. (KI jetzt!, S. 35) Schon im Entwicklungsprozess sollte daher daran gedacht werden, wie eine KI ihren Output erklären kann. Das hilft intern (die eigenen Fachleute verstehen, was die KI tut) und extern (Nutzer akzeptieren KI-Entscheidungen eher, wenn sie nachvollziehbar begründet werden).
Wir schlagen daher vor, statt von bloßer „Erklärbarkeit“ lieber von Nachvollziehbarkeit zu sprechen. Denn es geht darum, dass Menschen den Entscheidungsweg der KI nachvollziehen können – also verstehen, welche Faktoren ein Ergebnis beeinflusst haben. Unternehmen sollten Tools einsetzen, die solche Einblicke bieten. Beispielsweise gibt es KI-Systeme, die zu jeder Prognose einen sogenannten Feature Importance-Score liefern, der zeigt, welche Eingabedaten wie stark ins Gewicht fielen.
Der Gesetzgeber zieht ebenfalls nach: Der EU AI Act – das erste große KI-Gesetz – schreibt für viele Anwendungen Transparenzpflichten vor[1]. Unter anderem müssen KI-generierte Inhalte künftig eindeutig gekennzeichnet werden und bei hochriskanten KI-Systemen (etwa in der Medizin oder im Finanzbereich) sind ausführliche technische Dokumentationen Pflicht. All das soll das Vertrauen der Bürgerinnen und Bürger stärken.
Mensch in der Schleife: KI nicht unkontrolliert lassen
Ein weiterer Baustein für Vertrauen ist die klare Regel: KI-Output sollte immer vom Menschen überprüft werden, bevor wichtige Entscheidungen umgesetzt werden. Moderne Chatbots haben eine faszinierende Fähigkeit, Texte zu generieren – doch sie sind manipulierbar“ (KI jetzt!, S. 34). Es wurde schon oft gezeigt, dass man Sprach-KIs mit geschickten Eingaben dazu bringen kann, Fehlinformationen oder unethische Inhalte auszuspucken. Genau deshalb gilt: ChatGPT und Co. sollten also stets nur als Anregung oder Zwischenschritt genutzt werden; das Denken müssen grundsätzlich immer noch Menschen übernehmen!
In der Praxis heißt das: Egal ob KI einen Vertragsentwurf schreibt oder eine Bewerbervorauswahl trifft – eine qualifizierte Person sollte das Ergebnis prüfen, plausibilisieren und freigeben. Dieses Vier-Augen-Prinzip (drei Augen davon sind halt virtuell) stellt sicher, dass Fehler der KI rechtzeitig entdeckt werden. Es bewahrt auch davor, dass die Verantwortung an die Maschine abgeschoben wird. Am Ende muss immer ein Mensch für eine Entscheidung geradestehen – und entsprechend die Kontrolle behalten.
Große Tech-Unternehmen betonen daher zunehmend die Rolle menschlicher Aufsicht. OpenAI etwa hat nach Kritik an mangelnder Transparenz bei GPT-4o angekündigt, mehr Informationen über Trainingsdaten und Modellgrenzen offenzulegen (auch wenn das nur in Maßen geschieht). Plattformen wie YouTube, Facebook und TikTok führen Kennzeichnungen für KI-erstellte Inhalte ein, damit Nutzer besser einschätzen können, was echt ist und was nicht[2]. Solche Maßnahmen sollen verhindern, dass Deepfakes und Fake News das Vertrauen zerstören … wie bereits mehrfach geschehen. Es geht hier nicht bloß um weiche Faktoren, sondern umsatzrelevante Größen.
Fazit: Ohne Vertrauen keine KI-Zukunft
Unternehmen, die auf KI setzen, müssen das Vertrauen aller Beteiligten gewinnen – das der Kunden, der Mitarbeitenden und der Regulierer. Das gelingt nur mit Transparenz, Verlässlichkeit und klaren Richtlinien. Vertrauen ist keine Zugabe, sondern die Grundvoraussetzung.
Konkret sollten Entscheider:innen darauf achten, dass jedes KI-Projekt Fragen beantwortet wie: Können wir erklären, wie die KI zu ihrem Resultat kam? Haben wir genügend Kontrollmechanismen eingebaut? Werden Datenschutz und Fairness gewahrt? Nur wenn all dies erfüllt ist, wird KI langfristig akzeptiert und erfolgreich sein.
KI kann enorme Vorteile bringen – aber nur, wenn die Menschen ihr vertrauen. Dieses Vertrauen aufzubauen erfordert Mühe und Weitsicht, zahlt sich jedoch aus: Es minimiert Risiken, steigert die Qualität der Ergebnisse und sorgt letztlich dafür, dass KI-Projekte nicht am Widerstand der Nutzer scheitern.
Mehr zum Thema erfahren Sie im Buch „KI jetzt!“, in dem Mark Brinkmann und Kai Gondlach ausführlich auf Fragen der KI-Governance und Verantwortung eingehen. Lernen Sie, wie Sie durch Nachvollziehbarkeit und menschliche Kontrolle das volle Potenzial von KI nutzen, ohne Vertrauen zu verspielen.
[1] https://www.europarl.europa.eu/news/en/press-room/20240308IPR19025/economic-coordination-prioritise-investment-and-reform-eu-economies-meps-say
[2] https://blog.youtube/news-and-events/disclosing-ai-generated-content/