Vertrauen ist Pflicht – nicht Kür

Ohne Vertrauen kein KI-Erfolg. Obwohl bereits jeder dritte Mensch in Deutschland KI-Systeme wie ChatGPT nutzt, bleiben viele skeptisch gegenüber automatischen Entscheidungen. Das ist kein Wunder: Skandale und Negativschlagzeilen dominieren oft die Wahrnehmung. Vertrauensproblem KI: „Grund für das Misstrauen sind Betrugs- und Desinformations-Fälle, die mithilfe von KI durchgeführt und in den Medien groß herausgestellt werden – größer als die lebensrettenden oder umsatzsteigernden Anwendungen, die dank KI realisiert werden“ (KI jetzt!, S. 24). Wenn ein KI-Modell Falschnachrichten produziert oder spektakulär danebenliegt, schafft es sofort Schlagzeilen, während die vielen stillen Erfolgsgeschichten weniger Aufmerksamkeit bekommen.

Für Unternehmen bedeutet dies: Sie müssen aktiv Vertrauen schaffen, wenn sie KI einsetzen. Kunden, Mitarbeitende und die Öffentlichkeit wollen sicher sein, dass KI-Systeme zuverlässig und fair arbeiten. Transparenz und Kontrolle sind daher keine Kür, sondern Pflicht.

Erklärbarkeit und Nachvollziehbarkeit: KI erklären können

Niemand vertraut gerne einer Black Box. XAI – erklärbare KI: Nachvollziehbarkeit wird zur zentralen Anforderung, damit Entscheidungen von KI-Systemen transparent und vertrauenswürdig bleiben. (KI jetzt!, S. 35) Schon im Entwicklungsprozess sollte daher daran gedacht werden, wie eine KI ihren Output erklären kann. Das hilft intern (die eigenen Fachleute verstehen, was die KI tut) und extern (Nutzer akzeptieren KI-Entscheidungen eher, wenn sie nachvollziehbar begründet werden).

Wir schlagen daher vor, statt von bloßer „Erklärbarkeit“ lieber von Nachvollziehbarkeit zu sprechen. Denn es geht darum, dass Menschen den Entscheidungsweg der KI nachvollziehen können – also verstehen, welche Faktoren ein Ergebnis beeinflusst haben. Unternehmen sollten Tools einsetzen, die solche Einblicke bieten. Beispielsweise gibt es KI-Systeme, die zu jeder Prognose einen sogenannten Feature Importance-Score liefern, der zeigt, welche Eingabedaten wie stark ins Gewicht fielen.

Der Gesetzgeber zieht ebenfalls nach: Der EU AI Act – das erste große KI-Gesetz – schreibt für viele Anwendungen Transparenzpflichten vor[1]. Unter anderem müssen KI-generierte Inhalte künftig eindeutig gekennzeichnet werden und bei hochriskanten KI-Systemen (etwa in der Medizin oder im Finanzbereich) sind ausführliche technische Dokumentationen Pflicht. All das soll das Vertrauen der Bürgerinnen und Bürger stärken.

Mensch in der Schleife: KI nicht unkontrolliert lassen

Ein weiterer Baustein für Vertrauen ist die klare Regel: KI-Output sollte immer vom Menschen überprüft werden, bevor wichtige Entscheidungen umgesetzt werden. Moderne Chatbots haben eine faszinierende Fähigkeit, Texte zu generieren – doch sie sind manipulierbar“ (KI jetzt!, S. 34). Es wurde schon oft gezeigt, dass man Sprach-KIs mit geschickten Eingaben dazu bringen kann, Fehlinformationen oder unethische Inhalte auszuspucken. Genau deshalb gilt: ChatGPT und Co. sollten also stets nur als Anregung oder Zwischenschritt genutzt werden; das Denken müssen grundsätzlich immer noch Menschen übernehmen!

In der Praxis heißt das: Egal ob KI einen Vertragsentwurf schreibt oder eine Bewerbervorauswahl trifft – eine qualifizierte Person sollte das Ergebnis prüfen, plausibilisieren und freigeben. Dieses Vier-Augen-Prinzip (drei Augen davon sind halt virtuell) stellt sicher, dass Fehler der KI rechtzeitig entdeckt werden. Es bewahrt auch davor, dass die Verantwortung an die Maschine abgeschoben wird. Am Ende muss immer ein Mensch für eine Entscheidung geradestehen – und entsprechend die Kontrolle behalten.

Große Tech-Unternehmen betonen daher zunehmend die Rolle menschlicher Aufsicht. OpenAI etwa hat nach Kritik an mangelnder Transparenz bei GPT-4o angekündigt, mehr Informationen über Trainingsdaten und Modellgrenzen offenzulegen (auch wenn das nur in Maßen geschieht). Plattformen wie YouTube, Facebook und TikTok führen Kennzeichnungen für KI-erstellte Inhalte ein, damit Nutzer besser einschätzen können, was echt ist und was nicht[2]. Solche Maßnahmen sollen verhindern, dass Deepfakes und Fake News das Vertrauen zerstören ... wie bereits mehrfach geschehen. Es geht hier nicht bloß um weiche Faktoren, sondern umsatzrelevante Größen.

Fazit: Ohne Vertrauen keine KI-Zukunft

Unternehmen, die auf KI setzen, müssen das Vertrauen aller Beteiligten gewinnen – das der Kunden, der Mitarbeitenden und der Regulierer. Das gelingt nur mit Transparenz, Verlässlichkeit und klaren Richtlinien. Vertrauen ist keine Zugabe, sondern die Grundvoraussetzung.

Konkret sollten Entscheider:innen darauf achten, dass jedes KI-Projekt Fragen beantwortet wie: Können wir erklären, wie die KI zu ihrem Resultat kam? Haben wir genügend Kontrollmechanismen eingebaut? Werden Datenschutz und Fairness gewahrt? Nur wenn all dies erfüllt ist, wird KI langfristig akzeptiert und erfolgreich sein.

KI kann enorme Vorteile bringen – aber nur, wenn die Menschen ihr vertrauen. Dieses Vertrauen aufzubauen erfordert Mühe und Weitsicht, zahlt sich jedoch aus: Es minimiert Risiken, steigert die Qualität der Ergebnisse und sorgt letztlich dafür, dass KI-Projekte nicht am Widerstand der Nutzer scheitern.

Mehr zum Thema erfahren Sie im Buch "KI jetzt!", in dem Mark Brinkmann und Kai Gondlach ausführlich auf Fragen der KI-Governance und Verantwortung eingehen. Lernen Sie, wie Sie durch Nachvollziehbarkeit und menschliche Kontrolle das volle Potenzial von KI nutzen, ohne Vertrauen zu verspielen.

[1] https://www.europarl.europa.eu/news/en/press-room/20240308IPR19025/economic-coordination-prioritise-investment-and-reform-eu-economies-meps-say

[2] https://blog.youtube/news-and-events/disclosing-ai-generated-content/


Kommentar zur Modernisierungsagenda der Bundesregierung

Hier ist mein Take als Zukunftsforscher zur „Modernisierungsagenda für Staat und Verwaltung (Bund)“ vom 1.10.2025 – mit Blick auf KI, Nachhaltigkeit und Arbeitsmarkt:

Erst die Lücken – ist das Doppelmoral?

Wir reden über eine Staatsreform (Link führt zum Originaldokument), die Prozesse beschleunigt, Behörden verschlankt und digitalisiert. Gut so. Aber Klimaschutz, Biodiversität und Ressourcenwende tauchen praktisch nicht auf. Eine Modernisierung ohne Klima- und Nachhaltigkeitsleitplanken ist 2025 nicht „neutral“, sie ist rückständig. Der IPCC hält fest: Das 1,5-Grad-Fenster schließt sich rapide, in Europa ist der Drops schon gelutscht – ohne strukturelle Beschleunigung der Emissionsminderung in allen Politikbereichen verlieren wir das Jahrzehnt. (IPCC)

Gleichzeitig werden Berichtspflichten und Standards zur unternehmerischen Sorgfalt teils aus „Bürokratiegründen“ aufgeweicht. Wer Nachhaltigkeitsregulierung als Primärziel „entrümpelt“, betreibt kurzsichtige Kostendämpfung auf Kosten der Zukunftsfähigkeit. Das hat die Debatte um Änderungen beim Lieferkettengesetz eindrücklich gezeigt. (WirtschaftsWoche)

Und die soziale Frage? Die Agenda erleichtert den Zugang zu Leistungen – fair. Aber strukturelle Ungleichheit adressiert sie nicht. Parallel meldet die Bundesregierung im SDG-Bericht Fortschritte, während zentrale Umwelt- und Verteilungsziele wackeln. Klingt nach Zielbild „Nachhaltigkeit“, aber ohne verbindliche Übersetzung in die Staatsmodernisierung. (sdg-indikatoren.de)

Was wurde aus „große Vermögen stärker besteuern“?

Die SPD hat vor der Wahl deutlich höhere Beiträge sehr großer Vermögen gefordert. In der Regierungsrealität dominiert nun Sparen + Entlasten, Vermögensabgaben/-steuern tauchen im Vollzug nicht prominent auf. Das sendet ein widersprüchliches Signal: Digitalisierung & Bürokratieabbau ja – aber faire Gegenfinanzierung der Transformation? Noch offen. (vorwärts)

Wo die Agenda stark ist

  • Bürokratieabbau & Service: −25 % Bürokratiekosten, OITO-Regel („one-in-two-out“), 24-Stunden-Gründungen, zentrales KfZ-Portal, Digitalausweise – das entlastet Bürger:innen & Mittelstand spürbar. Das ist Standortpolitik pur. Wir müssen uns im internationalen Wettbewerb endlich wieder behaupten, "made in Germany" groß machen, so wie es im PROFORE-Whitepaper zur Industrie 6.0 beschrieben wird.
  • Bessere Rechtsetzung: Praxis- & Digitalchecks, Law-as-Code-Piloten – wenn richtig umgesetzt, sind das echte Produktivitätshebel im Staat. Liebe Jurist:innen: Das ist ein Paradigmenwechsel, ja. Aber wir brauchen ihn.
  • Personal & Führung: Modernisiertes Dienstrecht, Frauen in Führung, Skills für KI-Verwaltung – wichtig für den Arbeitsmarkt im Staat, der mit der Privatwirtschaft um Talente konkurriert. So beschreibe ich es als Zielbild in meinen Keynotes... als Utopie.

OECD & Wirtschaftsräte sagen seit Jahren: Produktivität in Deutschland leidet unter komplexer Regulierung – hier liefert die Agenda. Aber: Ohne Mission Klima & Nachhaltigkeit bleibt der Effizienzgewinn politisch unterkomplex. (OECD) Die KPIs klingen gut, wir dürfen bespannt sein, ob die politische und administrative Haltung dazu mithalten kann.

KI: Chance, wenn wir sie verantwortungsvoll skalieren

Die Agenda schafft Rechtsgrundlagen für vollautomatisierte Verwaltungsakte, KI-Piloten in Visa- & Justizprozessen und agentische KI in Fachressorts. Super – wenn drei Dinge mitlaufen:

  1. Transparenz & Nachvollziehbarkeit (Audit-Trails, erklärbare Modelle),
  2. robuste Daten- & IT-Souveränität (Cloud/Edge, RZ-Konsolidierung, EUDI-Wallet-Kompatibilität),
  3. Kompetenzaufbau bei Führung & Teams. Das passt zur OECD-Linie: KI-Skalierung braucht Governance & Skills – sonst exportieren wir analoge Ineffizienzen in digitale Hochgeschwindigkeit. (ki-strategie-deutschland.de)

Arbeitsmarkt: Produktivität + Resilienz – oder Massensterben 2.0?

Ich habe in den 2010ern und 2020ern Dinge prognostiziert, die mir wenig Freunde machten: Pandemie, Krieg in Europa, Massensterben von Unternehmen in den 2020ern – alles eingetreten. Die nächsten Jahre entscheiden, ob uns eine Pleiten-Welle 2.0 trifft oder ob wir dank KI-Produktivitätssprüngen & schlanker Regulierung neue Wachstumsinseln schaffen.

Die Agenda reduziert Transaktionskosten – gut. Aber ohne aktive Transformationsfinanzierung (z. B. steuerliche F&E-Anreize, präzise Investitionspfade für Dekarbonisierung) und Weiterbildungs-Offensive drohen Effizienzgewinne von KI am Fachkräftedefizit zu verpuffen. Die OECD mahnt genau das: Produktivität, Qualifikationen, Investitionsklima. (OECD)

Konstruktive Forderungen (damit Modernisierung ≠ Greenwashing light wird)

  1. Klima- und Nachhaltigkeits-Mainstreaming in alle fünf Handlungsfelder: verpflichtende Klima-, Biodiversitäts- und Naturverträglichkeits-Checks für jede Beschleunigungsmaßnahme (Bau-Turbo ja – aber natur- & klimaverträglich). IPCC-Pfadkompatibilität als Standard. (IPCC)
  2. Klimaneutrale Bundesverwaltung bis 2030: Green-IT (Rechenzentren energieeffizient, Ökostrom), CO₂-Budgets pro Ressort, klimafreundliche Beschaffung als Default (SDG 12). (sdg-indikatoren.de)
  3. KI-Governance aus einem Guss: Gesetzliche Mindeststandards zu Erklärbarkeit, Human-in-the-Loop bei Grundrechtseingriffen, nationale Modell-Register, offene Rule-Libraries für „Law-as-Code“.
  4. Weiterbildung im Industriemaßstab: Ein Transformationssemester für den öffentlichen Dienst und KMU – finanziert, zertifiziert, messbar (OECD-Skills-Agenda). (OECD)
  5. Ehrliche Finanzierung: Wenn wir wirklich modernisieren wollen, brauchen wir ein klares Steuer-/Abgaben-Design für Großvermögen und windfall profits – so stand es im SPD-Kernanliegen, und so wird’s international diskutiert. Glaubwürdigkeit gewinnt, wer Transformation gerecht finanziert. (vorwärts)
  6. Ungleichheit adressieren: Die Menschen spüren die Doppelmoral und wählen radikaler denn je in der Geschichte der Bundesrepublik. Das gilt vor allem für die Ungleichheiten zwischen reich und arm sowie jung und alt. Extremisten mit Inhalten zu bekämpfen ist Unsinn, es müssen einfach die Kernanliegen der (Ex-)Stammwählerschaft wieder ernstgenommen werden. Konkreter Vorschlag: Durch mehr Bürgerbeteiligung und bessere Kommunikation des Petitionswesens im Bundestags - hier schaffen es Anliegen der Bürger:innen auch ohne Beteiligung im Kommunalparlament auf die Agenda!

Bottom line

Diese Agenda kann Deutschlands Staat spürbar schneller, digitaler, bürgernäher machen – ein Plus für Vertrauen und Standort. Aber echte Zukunftsfähigkeit entsteht erst, wenn wir KI-Skalierung mit sozialer Gerechtigkeit und ökologischer Mission verknüpfen. Sonst modernisieren wir die Verwaltung – und verlieren die Ziele des Jahrzehnts. Ungefähr so, wie wir es in dem umfangreichen, dreiteiligen Sammelband "Regenerative Zukünfte und künstliche Intelligenz" (Springer) beschreiben. Der Dreiklang ist möglich, wir müssen "nur" anders denken.

Zukunft ist kein Trend, den man abwartet. Zukunft ist eine Entscheidung – jeden Tag, in jedem Paragrafen, in jedem Prozess.

Quellen (Auswahl):
Modernisierungsagenda (BMDS, 10/2025) · Koalitionsvertrag „Verantwortung für Deutschland“ (04/2025) (SPD) · IPCC AR6 Synthesis (2023) (IPCC) · VNR/SDG-Bericht Deutschland (2025) (sdg-indikatoren.de) · OECD Economic Survey Germany (06/2025) (OECD) · Lieferketten-Debatte (2025) (WirtschaftsWoche) · SPD-Steuerpositionen (08/2025) (vorwärts)

Foto von Eden Constantino auf Unsplash


Die neue Arbeitsteilung – Wie KI das Manage-ment verändert

Die Spielregeln im Management werden neu geschrieben. Künstliche Intelligenz automatisiert nicht nur Fabriken und Routinetätigkeiten, sondern hält zunehmend Einzug ins Büromanagement und in die Führungsetage. Dabei zeichnet sich ab: KI wird die Arbeitsteilung zwischen Mensch und Maschine grundlegend verändern. Mit ChatGPT endet die Management-Ära, in der eine umfassende Standardisierung der Prozesse fester Bestandteil der Agenda war (KI jetzt!, S. 32). Früher galt: Ein guter Manager standardisiert Abläufe und definiert klare Prozesse, um Effizienz zu steigern. Jetzt zeigt sich: Dank KI-Tools wie ChatGPT können viele Abläufe flexibler gehandhabt werden, ohne in jeder Einzelheit vorab durchstandardisiert zu sein.

Prozesse neu denken: von starren Abläufen zu flexibler KI-Unterstützung

In der Vergangenheit investierten Unternehmen viel Zeit in die Dokumentation und Optimierung ihrer Prozesse. Jedes Szenario sollte einen definierten Ablauf haben. Doch KI ermöglicht einen Paradigmenwechsel: Die wichtigste Erkenntnis aus unserer Praxis lautet: Prozesse müssen gar nicht mehr standardisiert und digitalisiert werden, sondern können mittels einfacher Sprache digital an ChatGPT übermittelt werden (KI jetzt!, S. 32). Anstatt jeden Schritt in Software zu gießen, kann eine Führungskraft heute einer KI in natürlicher Sprache Anweisungen geben – und die KI erledigt die Aufgabe ad hoc. Das reduziert den Aufwand für starre Prozessgestaltung erheblich.

Beispiel: Statt ein kompliziertes Formular für Urlaubsanträge zu entwickeln, könnte ein Unternehmen einen Chatbot einsetzen. Mitarbeitende teilen dem KI-Assistenten per Chat mit, wann sie Urlaub wollen, und die KI übernimmt den Rest – prüft Kalender, informiert das Team und dokumentiert den Antrag. Solche flexiblen Lösungen wären ohne KI kaum denkbar. Sie zeigen, wie Maschinen nun viel stärker zum Kollegen werden, der menschliche Anweisungen direkt umsetzt, statt dass der Mensch sich der Maschinenlogik anpassen muss.

Wettbewerbsvorteil durch KI: wer zögert, verliert

Dass sich KI-Einsatz im Management auszahlt, belegt ein einfaches Gedankenexperiment (KI jetzt!, S. 44): Im Jahr 2020 macht Blumenladen A 20.000 Euro Gewinn. Der Nachbarladen B, der auf exponentielles Wachstum setzt, macht im selben Jahr über eine Million – weil er früh auf Digitalisierung und KI setzte.  Dieses fiktive Beispiel aus KI jetzt! verdeutlicht den „First Mover“-Vorteil. Unternehmen, die moderne Technologien zügig adaptieren, können ihre Prozesse exponentiell skalieren, während konservative Wettbewerber stagnieren. KI kann z. B. Marketing-Entscheidungen auf Basis riesiger Datenmengen optimieren, Lieferketten in Echtzeit anpassen oder Kundenanfragen automatisiert vorqualifizieren – all das beschleunigt das Geschäft.

In den letzten Jahren glaubten viele Entscheider, KI sei noch Spielerei und für ernsthafte Anwendungen nicht bereit. Doch diese Zeiten sind vorbei. Viele Unternehmen glauben, KI sei noch nicht ausreichend entwickelt – doch das ist vorbei (KI jetzt!, S. 15). Die Technologie hat einen Reifegrad erreicht, der Produktiveinsätze in praktisch allen Branchen erlaubt. Große Player machen es vor: Microsoft hat mit Copilot eine KI-Unterstützung in seine Office-Programme integriert, die E-Mails schreibt, Meetings zusammenfasst und Analysen in Excel automatisch erstellt. SAP hat Business AI Features angekündigt, um Unternehmensdaten intelligenter zu nutzen – von automatischer Rechnungsverarbeitung bis hin zu Prognosen im Controlling. Und Google stattet seine Workspace-Tools mit KI-Assistenten aus, die Präsentationen entwerfen oder Dokumente zusammenfassen. All das zeigt: KI ist bereit, im Tagesgeschäft Verantwortung zu übernehmen.

Führungskräfte zwischen Mensch und Maschine

Die neue Arbeitsteilung bedeutet nicht, dass Manager überflüssig werden – aber ihr Fokus verschiebt sich. Routineentscheidungen und Informationsaufbereitung kann zunehmend die KI liefern. Führungskräfte können sich mehr auf kreative, strategische und zwischenmenschliche Aspekte konzentrieren. Das Management der Zukunft ist eines, das KI intelligent einspannt. KI – nicht nur Thema für Software-Unternehmen. Jede Branche, vom Handwerk über den Handel bis zur Industrie, kann KI im Management nutzen. Ob ein mittelständischer Fertiger, der mit KI seine Lagerlogistik steuert, oder ein Familienhotel, das mit KI-Tools die Personalplanung vereinfacht – die Möglichkeiten sind vielfältig.

Wichtig ist, eine Kultur zu schaffen, in der Mensch-Maschine-Kollaboration selbstverständlich wird. Mitarbeitende müssen lernen, KI-Assistenzsysteme als Unterstützung anzunehmen, und Führungskräfte sollten den Einsatz dieser Helfer fördern. Es gilt, Vertrauen aufzubauen – sowohl ins Team als auch in die Technik. Dafür braucht es Transparenz: Wenn KI etwa bei der Mitarbeiterbeurteilung hilft, sollte offen kommuniziert werden, wie diese Entscheidung zustande kam. So bleibt die Akzeptanz hoch und die neue Arbeitsteilung wird zum Erfolgsmodell.

Fazit: Mit KI im Team zum Erfolg

KI im Management ist kein Zukunftsfilm mehr, sondern Realität. Wer ihre Stärken – Schnelligkeit, Skalierbarkeit, Datenanalyse – klug nutzt, verschafft seinem Unternehmen einen Vorsprung. Das bedeutet aber auch, tradierte Vorgehensweisen zu überdenken. Standardisierung um der Standardisierung willen tritt in den Hintergrund. Stattdessen rückt Flexibilität in den Vordergrund: KI-Systeme können sich on the fly auf neue Anforderungen einstellen.

Für Führungskräfte heißt das: Loslassen von Mikromanagement und Vertrauen in KI-Assistenten. Die neue Arbeitsteilung ermöglicht, dass Menschen sich auf das konzentrieren, was Maschinen (noch) nicht können – kreative Visionen entwickeln, Beziehungen pflegen, ethische Leitplanken setzen.

Die Unternehmen, die diese Symbiose aus menschlicher Erfahrung und maschineller Effizienz zuerst meistern, werden die Gewinner von morgen sein. KI ist reif für den Einsatz – jetzt liegt es an uns, sie optimal einzubinden.

Lust auf mehr Zukunftsimpulse? Im Buch "KI jetzt!" gehen Kai Gondlach und Mark Brinkmann detailliert darauf ein, wie KI die Arbeitswelt – insbesondere das Management – bereits heute transformiert. Erfahren Sie anhand konkreter Beispiele und Strategien, wie Sie die neue Arbeitsteilung in Ihrem Unternehmen gewinnbringend gestalten.


Zukunft denken, heute handeln: Warum meine Keynotes Unternehmen voranbringen

Seit fast 11 Jahren bin ich hauptberuflich als Zukunftsforscher aktiv. 2013 habe ich meinen Masterabschluss gemacht und die Masterarbeit zum Thema „kostenloser ÖPNV“ geschrieben – ein Thema, das damals noch exotisch klang, heute aber längst in vielen Städten Realität wird. Schon damals zeigte ich, dass Lösungen, die außerhalb der gewöhnlichen Denkgrenzen stattfinden, nicht nur sinnvoll sind, sondern in einer zunehmend vernetzten Welt echte Mehrwerte schaffen.

In einer Keynote am 21. Februar 2018 schilderte ich mit dieser selbst erstellten Zeichnung, wie die KI-Agenten der Zukunft (Bots) untereinander verhandeln.

In den folgenden Jahren durfte ich bei unzähligen Veranstaltungen und Kongressen meine Perspektiven teilen – und nicht selten bestätigten sich meine Prognosen. Seit 2018 spreche ich in meinen Vorträgen regelmäßig über KI-Bots / KI-Agenten, die Bestellungen quasi autonom für ihre User abwickeln. 2019 sagte ich auf mehreren Konferenzen im Gesundheitssektor eine Pandemie innerhalb der nächsten drei Jahre voraus. Ende 2020 erinnerte mich eine Mitarbeiterin eines großen europäischen Pharmakonzerns daran. Sie bedankte sich, weil das Unternehmen nach meiner Keynote Prozesse in der Forschung und Entwicklung angepasst hatte – und dadurch besser auf COVID-19 vorbereitet war.

Auch beim Ukrainekrieg lag ich mit meinen Analysen nah an der Realität. In meinem Podcast Im Hier und Morgen stellte ich wenige Monate vor Beginn die Frage, ob der Krieg noch vor oder kurz nach Silvester starten würde. Ende Februar 2022 begann er tatsächlich.

Diese Beispiele zeigen: Zukunftsforschung ist kein Blick in die Glaskugel, sondern ein methodisches Vorgehen. Dabei geht es nicht darum, immer das „richtige“ Szenario vorherzusagen, sondern Unternehmen, Organisationen und Menschen auf verschiedene Zukunftsmöglichkeiten vorzubereiten.

Keynotes, die Wirkung zeigen

Meine Keynotes und Vorträge gehen über reine Fakten hinaus. Ich trainiere die Fähigkeit, Szenarien abzuwägen, Trends einzuordnen und Entscheidungen unter Unsicherheit zu treffen. Dieses „Foresight“ ist nicht nur spannend, sondern auch wirtschaftlich relevant: Unternehmen, die Zukunftsforschung systematisch einsetzen, erwirtschaften bis zu 33 Prozent mehr Umsatz als andere – das zeigt eine Studie von René Rohrbeck und Menes Etingue Kum.

Ob Klimawandel, Künstliche Intelligenz, Digitalisierung oder geopolitische Veränderungen – meine Keynotes liefern fundierte, inspirierende Impulse und konkrete Handlungsmöglichkeiten für Führungskräfte und Teams. Sie speisen sich unter anderem aus diversen Sach- und Fachbüchern, die ich in den letzten Jahren veröffentlicht habe, hunderten Interviews und der laufenden Forschung meines Zukunftsinstituts PROFORE.

Warum eine Keynote buchen?

  • Sie gewinnen einen strategischen Blick auf Zukunftstrends.

  • Sie trainieren die Denkweise von Zukunftsforschung, anstatt nur Buzzwords zu hören.

  • Sie motivieren Ihr Team, Chancen zu erkennen und Risiken rechtzeitig abzufedern.

Wenn Sie Ihr Unternehmen fit für die Zukunft machen wollen, sind meine Keynotes der richtige Impulsgeber.

👉 Erfahren Sie mehr über meine Vorträge und nehmen Sie Kontakt auf unter: Kai Gondlach Vorträge


Daten sind der Treibstoff – aber Kontext ist der Schlüssel

Ohne Daten keine KI. Dieser Satz klingt fast trivial, doch er wird im KI-Alltag oft vergessen. Algorithmen lernen aus Beispielen – je mehr und je besser die Daten, desto leistungsfähiger das KI-Modell. Aber Vorsicht: Daten alleine genügen nicht. KI braucht Kontext und Daten: Ohne qualitativ hochwertige Daten bleibt jede KI blind; entscheidend ist, wie Daten interpretiert und genutzt werden. Mit anderen Worten: Daten sind der Treibstoff, aber erst der richtige Kontext fungiert als Zündschlüssel, um daraus brauchbare Intelligenz zu erzeugen.

In diesem Beitrag zeigen wir, warum die Qualität und Herkunft der Daten über den Erfolg von KI-Projekten entscheidet. Außerdem betrachten wir, wie Bias – also Verzerrungen in Daten – KI-Ergebnisse verfälschen kann, und warum Erklärbarkeit (Explainable AI) für Vertrauen und Akzeptanz unabdingbar ist.

Gute Daten, gute KI – Schlechte Daten, schlechte KI

Eine KI ist nur so gut wie ihre Trainingsdaten. Werden falsche, veraltete oder lückenhafte Daten eingespeist, kann kein noch so raffinierter Algorithmus korrekte Schlüsse ziehen. Die Praxis hat gezeigt: Wenn Daten aus dem Kontext gerissen oder fehlerhaft sind, produziert auch die KI Fehler. Übrigens stellt sich auch die Rechtsfrage, welche Daten man nutzen darf: Medienhäuser wie die New York Times gehen bereits juristisch gegen KI-Anbieter vor, die ihre Artikel zum Training verwenden – ein Hinweis darauf, wie wertvoll hochwertige Daten geworden sind[1]. Beispielsweise musste ein Chatbot von Microsoft namens „Tay“ 2016 offline genommen werden, weil er in sozialen Netzwerken mit beleidigenden und rassistischen Aussagen auffiel – er hatte von Nutzern gelernt, die ihn mit toxischen Inhalten gefüttert hatten[2]. Die Lektion daraus: Ohne Filter und Kontext übernimmt KI ungeprüft auch die dunkelsten Facetten ihrer Datenquellen.

Andererseits entfaltet KI ihre Stärken, wenn sie mit umfangreichen, repräsentativen und aktuellen Daten trainiert wird. Ein Modell für Absatzprognosen, das alle relevanten Marktdaten und saisonalen Effekte berücksichtigt, wird verlässlichere Vorhersagen treffen als eines, das nur auf dem letzten Jahr basiert. Wichtig ist auch, den Kontext zu verstehen: Ein Datenmuster kann verschiedene Bedeutungen haben, je nach Umfeld. Daher sollten KI-Systeme – oder die Menschen, die sie nutzen – die Ergebnisse stets im Gesamtkontext betrachten, statt blind dem Zahlenoutput zu vertrauen.

Wenn Vorurteile zum Problem werden: Bias in Trainingsdaten

Daten erzählen immer eine Geschichte – aber manchmal eine einseitige. Ein zentrales Risiko bei KI-Trainingsdaten sind Biases, also Verzerrungen, die bestimmte Gruppen benachteiligen oder falsche Schlüsse begünstigen. KI-Systeme selbst haben keine Ideologie und keine Absicht zu diskriminieren. „Das heißt nicht, dass die Systeme an sich diskriminieren »wollen«, es unterstreicht einfach, dass sie nicht denken können. Sie sind immer nur so gut wie ihre Trainingsdaten und die einprogrammierten ethischen Rahmen“ (KI jetzt!, S.  34). Mit anderen Worten: Wenn das Datenmaterial voreingenommen ist, wird es die KI zwangsläufig widerspiegeln.

Ein bekanntes Beispiel: Ein Unternehmen nutzte eine KI, um Bewerbungen zu filtern, stellte dann aber fest, dass das System Frauen systematisch benachteiligte. Warum? Die KI wurde mit historischen Bewerberdaten trainiert, in denen – bedingt durch frühere Personalentscheidungen – vor allem Männer eingestellt worden waren. Der Algorithmus lernte daraus ungewollt, Männer zu bevorzugen. Häufig diskriminieren KI-Anwendungen eher fahrlässig bestimmte Personengruppen, weil sie schlecht trainiert wurden (KI jetzt!, S.  34). Nicht die KI „wollte“ diskriminieren, sondern die Verzerrung lag in den Daten.

Ein oft zitiertes Beispiel für unbeabsichtigte Diskriminierung durch Technik ist der berüchtigte „rassistische Seifenspender“: Ein automatischer Spender gab nur hellhäutigen Personen Seife aus – bei Menschen mit dunkler Haut blieb er stumm. Der Grund war eine Fehlkalibrierung des Sensors, der auf Hautreflexion reagierte. Hier wurde niemand absichtlich benachteiligt; vielmehr war das System unzureichend auf Vielfalt getestet.

Solche Fälle machen deutlich, wie wichtig Diversität und Sorgfalt bei der Datenaufbereitung sind. Entwickler:innen müssen Datensätze prüfen und bereinigen, um offenkundige Schieflagen zu korrigieren. Zudem empfiehlt es sich, KI-Ergebnisse laufend zu überwachen: Zeigen sich systematische Benachteiligungen oder seltsame Ausreißer, ist menschliches Eingreifen gefragt. Die EU hat im kommenden AI Act (dem EU-Gesetz für Künstliche Intelligenz) strenge Vorgaben festgelegt, um Bias in KI-Systemen zu minimieren. Hochriskante KI-Anwendungen – etwa in der Personalwahl, im Bildungssystem oder der Strafverfolgung – sollen nur zugelassen werden, wenn nachgewiesen ist, dass diskriminierende Effekte weitestgehend ausgeschlossen sind.[3]

Black Box KI? Erklärbarkeit schafft Vertrauen

Nicht nur die Daten, auch die Transparenz einer KI ist entscheidend. Viele KI-Systeme agieren wie Black Boxes: Sie liefern ein Ergebnis, ohne dass man genau nachvollziehen kann, warum. Das ist problematisch, wenn die KI wichtige Entscheidungen trifft, etwa über einen Kredit oder eine medizinische Diagnose. Hier kommt XAI – erklärbare KI ins Spiel: Nachvollziehbarkeit wird zur zentralen Anforderung, damit Entscheidungen von KI-Systemen transparent und vertrauenswürdig bleiben. Nutzer:innen und Betroffene haben ein Recht darauf zu verstehen, wie ein Algorithmus zu seinem Urteil gelangt ist.

Erklärbarkeit bedeutet beispielsweise, dass eine KI die wichtigsten Einflussfaktoren für ihre Prognose benennen kann: „Kredit abgelehnt, weil Einkommen unter Schwelle X und negative Schufa-Einträge“. Solche Info schafft Vertrauen und ermöglicht es, Entscheidungen zu überprüfen. Verschiedene Methoden – von einfachen Entscheidungsbäumen bis hin zu komplexen Explainable-AI-Visualisierungen – helfen dabei, Licht ins Dunkel neuronaler Netze zu bringen. Unternehmen, die KI einsetzen, sollten auf solche Features achten. Die Nachvollziehbarkeit ist übrigens auch ein zentraler Bestandteil des EU AI Act: Anbieter müssen je nach Risikostufe erklären können, wie ihr System funktioniert und auf welcher Datengrundlage.

Context is King: Manipulation erkennen und vermeiden

Selbst mit guten Daten und Erklärbarkeit bleibt eine weitere Herausforderung: KI-Systeme können durch geschickt gewählten Input aus dem Tritt gebracht werden. Moderne Chatbots haben eine faszinierende Fähigkeit, Texte zu generieren – doch sie sind manipulierbar! Ein prominentes Beispiel ist das sogenannte Prompt Injection: Dabei formulieren Nutzer:innen Eingaben so, dass sie die KI dazu verleiten, ihre ursprünglich einprogrammierten Regeln zu umgehen. Plötzlich spuckt der Chatbot geschützte Informationen aus oder erzeugt unerwünschte Inhalte, nur weil der Kontext der Anfrage ihn geschickt in die Irre geführt hat.

Diese Anfälligkeit zeigt, dass KI immer im Kontext ihrer Verwendung betrachtet werden muss. Ein ChatGPT, das im Firmennetz werkelt, sollte beispielsweise nicht unbeaufsichtigt Zugang zu sensiblen Daten haben – jemand könnte ihm via Prompt-Injection-Trick vertrauliche Infos entlocken. Anbieter reagieren auf solche Risiken: Anthropic hat sein neuestes Modell Claude 3 mit verstärkten Sicherheitsmaßnahmen versehen, und OpenAI schult GPT-4o und 5 darauf, systemseitige Anweisungen (die sog. „Guardrails“) nicht zu ignorieren. Doch ein Allheilmittel gibt es nicht: Menschliche Wachsamkeit bleibt wichtig. Die KI liefert Vorschläge – ob diese sinnvoll oder gefahrlos sind, muss im Zweifel ein Mensch beurteilen.

Fazit: Datenqualität, Fairness und Transparenz zahlen sich aus

Wer KI erfolgreich einsetzen will, darf die Grundlagen nicht vernachlässigen. Hochwertige, repräsentative Daten und ein gutes Verständnis des Anwendungskontexts sind das A und O. Die teuerste KI-Plattform nützt nichts, wenn der Datentreibstoff von schlechter Qualität ist oder in die falsche Richtung führt. Genauso essenziell ist es, Bias zu erkennen und zu beseitigen, bevor eine Anwendung live geht – im Zweifelsfall mit vielfältigen Testdaten und Feedbackschleifen. Das stellt besonders KMU vor enorme Voraussetzungen, die bislang kaum oder gar nicht systematisch Daten über ihre Prozesse erfasst haben.

Transparenz und Erklärbarkeit sind keine Kür, sondern Pflicht: Sie schaffen Vertrauen bei Nutzer:innen, Kunden und Behörden. Unternehmen im Mittelstand sollten frühzeitig dafür sorgen, dass ihre KI-Systeme zumindest grundlegende Erklärbarkeitsfunktionen bieten. So lassen sich Entscheidungen intern wie extern besser vermitteln.

Am Ende gilt: Kontext ist der Schlüssel. KI entfaltet ihr Potenzial nur in einem Umfeld, das sie versteht – und das die Menschen verstehen, die mit ihren Ergebnissen arbeiten. Wer Daten und Kontext beherrscht, hat den wichtigsten Schritt getan, um mit KI echten Mehrwert zu schaffen, statt in Datenfallen zu tappen.

Im Buch "KI jetzt!" werfen Mark Brinkmann und Kai Gondlach einen detaillierten Blick auf die Datenbasis der KI-Revolution. Erfahren Sie, wie Sie Bias vermeiden, Transparenz schaffen und mit der richtigen Datenstrategie den vollen Wert von KI ausschöpfen – jetzt mehr lesen in KI jetzt!.

[1] https://www.theguardian.com/media/2023/dec/27/new-york-times-openai-microsoft-lawsuit

[2] https://www.bbc.com/news/technology-35890188

[3] https://www.europarl.europa.eu/news/en/press-room/20240308IPR19025/economic-coordination-prioritise-investment-and-reform-eu-economies-meps-say


Wie KI tickt – Was Maschinen wirklich können (und was nicht)

Können Maschinen wirklich denken? Täglich lesen wir Schlagzeilen über neue KI-Wunder: Computer bestehen schwierige Prüfungen, schreiben Texte, malen Bilder. Schnell entsteht der Eindruck, dass Maschinen uns bald überholen. Doch die Realität ist nüchterner. Zwischen dem, was in der Theorie möglich scheint, und der Realität der heutigen KI-Systeme klafft jedoch eine Lücke. Um KI sinnvoll einzusetzen, sollten Entscheider:innen verstehen, wie KI tickt – und was Maschinen nicht können.

Tatsache ist: Die allermeisten KI-Anwendungen heute sind spezialisierte Experten für eng umrissene Aufgaben. Ein Sprachassistent kann z. B. Termine koordinieren, ein Bildklassifizierungs-Algorithmus erkennt Krebszellen besser als ein Mensch – aber jeder bleibt strikt in seinem Aufgabenbereich. Außerhalb dessen versagen diese Systeme. Sie verfügen nicht über ein allgemeines Weltverständnis, sondern verarbeiten nur Daten nach mathematischen Mustern.

Exponentielle Entwicklung vs. menschliche Intuition

Ein Blick in die IT-Geschichte zeigt, wie rasant sich Technologie entfalten kann. Gordon Moore formulierte schon 1965 das nach ihm benannte Gesetz: Die Rechenleistung verdoppelt sich alle circa zwei Jahre. Ähnlich verhält es sich mit KI: Die Entwicklung von IT-Systemen und KI verläuft exponentiell, nicht linear – das überfordert unser intuitives Verständnis, erklärt aber die sprunghaften Fortschritte. (KI jetzt!, S. 35) In wenigen Jahren sprang KI von einfachen Bilderkennungs-Tools zu erstaunlichen Sprachmodellen wie GPT-4. Doch während sich die Technik in immer kürzeren Zyklen verbessert, bleiben viele Unternehmen und Menschen mental im linearen Denken verhaftet.

Exponentielles Wachstum bedeutet anfangs langsamer Zuwachs, dann plötzlich explosive Entwicklungen. Genau das erleben wir: Jahrzehntelang fristete KI ein Nischendasein, doch seit einigen Jahren scheint es, als kämen täglich neue Durchbrüche. Tatsächlich erscheinen inzwischen täglich Hunderte neue KI-Tools, von denen viele produktive Arbeitsschritte ausführen können, die zuvor nur Menschen erledigen konnten. Diese Flut an Innovationen kann schwindelig machen. Dennoch heißt es: Ruhe bewahren und realistisch bleiben.

Kurzfristiger Hype: überschätzte Wirkung heute

Wenn eine neue Technologie ins Rampenlicht tritt, neigen wir zu übersteigerten Erwartungen. „Die Mehrheit der Menschen überschätzt die kurzfristigen KI-Auswirkungen“ (KI jetzt!, S. 13). Das haben wir in vergangenen Tech-Hypes schon gesehen – man denke an das Internet um die Jahrtausendwende oder Smartphones um 2007. Im Fall der KI glauben manche, in ein bis zwei Jahren würden ganze Berufsfelder wegrationalisiert und jeder Haushalt hätte einen eigenen Roboterassistenten. Die Realität hinkt solchen Visionen meist hinterher.

Auch im Unternehmenskontext zeigt sich Ernüchterung: Viele Firmen haben 2023/24 erste Pilotprojekte mit generativer KI (etwa Chatbots oder Textgeneratoren) gestartet – oft mit überzogenen Erwartungen. Umfragen zufolge stecken zwei Drittel der Unternehmen in der Experimentierphase fest und schaffen es nicht, die KI-Lösungen produktiv zu skalieren[1]. Gartner prognostiziert, dass bis 2025 etwa 50 % der generativen KI-Projekte in Unternehmen scheitern oder abgebrochen werden[2]. Die Gründe: unerwartete technische Hürden, Datenschutzbedenken und ein ROI, der doch nicht so schnell kommt wie erhofft. Kurzfristig wurde schlicht zu viel versprochen.

Ein Beispiel aus der KI-Welt: OpenAI sorgte 2024 mit Sora – einem KI-Modell zur Videoerzeugung – für Aufsehen. Doch nachdem die erste Euphorie verflogen war, zeigten sich die Grenzen: Viele User bemängelten die Bildqualität und die In-Session Stabilität der generierten Videos[3]. Ähnlich verlief es mit manch anderer gefeierter Neuerung. Die Lektion? Große Durchbrüche brauchen oft mehr Zeit, als der erste Hype vermuten lässt.

Langfristiger Wandel: unterschätzte Wirkung morgen

Während im Hier und Jetzt nicht jede Vision sofort Realität wird, läuft im Hintergrund eine tiefgreifende Transformation ab. „Wir fürchten, dass viele Menschen und Unternehmen die langfristigen KI-Auswirkungen unterschätzen werden“ (KI jetzt!, S. 135). Denn während der kurzfristige Hype irgendwann abflaut, entfalten Technologien ihr volles Potenzial oft erst über Jahre oder Jahrzehnte. Das Smartphone etwa hat binnen 15 Jahren unsere Gesellschaft umgekrempelt – etwas, das sich 2007 kaum jemand in der vollen Tragweite vorstellen konnte. Ähnlich war es mit dem Internet: Um das Jahr 2000 überschätzte die Dotcom-Blase kurzfristig das Potenzial (viele Start-ups floppten), doch zwei Jahrzehnte später ist klar, dass das Internet letztlich mehr verändert hat, als damals gedacht – nur eben nicht in zwei, sondern in zwanzig Jahren.

KI dürfte in 10 oder 20 Jahren allgegenwärtig sein: in praktisch jedem Gerät, jedem Fahrzeug, jedem Arbeitsprozess. Heute stecken wir noch mitten in der Anpassungsphase – Prozesse müssen umgestellt, Mitarbeitende qualifiziert, ethische Leitplanken gesetzt werden.

Kein Umbruch über Nacht – aber stetiger Fortschritt

Für Entscheider:innen heißt das: Lassen Sie sich nicht von jeder reißerischen Schlagzeile verunsichern, aber bleiben Sie wachsam für echte Trends. KI verändert nicht alles sofort, doch sie verändert mit der Zeit nahezu jeden Bereich. Die Kunst besteht darin, echten Fortschritt von bloßem Hype zu unterscheiden. Wer heute nüchtern evaluiert und pilotiert, wird morgen Wettbewerbsvorteile haben, wenn KI-Lösungen ausgereift sind.

Statt in Panik zu verfallen oder in Wunderglauben, sollte man einen langen Atem beweisen. Ja, KI automatisiert viele Routineaufgaben – aber es braucht Anpassung, Integration und oft mehr Daten oder Rechenpower, als man anfänglich denkt. Gleichzeitig darf man KI nicht als Spielerei abtun: Die stille Revolution findet statt – Schritt für Schritt, fast unbemerkt. Heute mag KI manchmal enttäuschen, doch auf lange Sicht wird sie vieles erreichen, was wir ihr momentan noch nicht zutrauen.

Die Entwicklung verläuft exponentiell – doch die Wirkung spüren wir oft erst zeitversetzt. Wer heute lernt, experimentiert und sein Team vorbereitet, wird in einigen Jahren die Früchte ernten.

Im Buch "KI jetzt!" diskutieren wir (Mark Brinkmann und Kai Gondlach), wie KI unsere Welt in den kommenden Jahrzehnten verändern könnte – und warum Geduld und Weitsicht sich lohnen. Lesen Sie weiter in KI jetzt! und bleiben Sie der Entwicklung einen Schritt voraus.

[1] https://www.ciodive.com/news/enterprise-generative-AI-ROI-pilot-fail-Informatica/739485

[2] https://medium.com/@stahl950/the-ai-implementation-paradox-why-42-of-enterprise-projects-fail-despite-record-adoption-107a62c6784a

[3] https://venturebeat.com/ai/not-there-yet-sora-rollout-receives-mixed-response-from-ai-filmmakers-citing-inconsistent-results-content-restrictions/


KI ist nicht, was du denkst – Mythen, Missverständnisse und was wirklich zählt

In der Geschäftswelt kursieren zahlreiche Mythen über KI. Viele glauben, „KI“ sei ein magisches Etikett, das jede Software schlau und jedes Gerät wertvoller macht. Dabei gilt: „Doch nicht alles, was nach KI aussieht, ist tatsächlich KI. Daher brauchen wir diese Grundlage unbedingt, wenn wir uns näher mit KI befassen möchten“ (KI jetzt!, S. 20). Mit anderen Worten: Nicht jede moderne Software verwendet tatsächlich lernfähige KI – und manchmal steckt KI an Orten, wo man sie gar nicht vermuten würde. Dieser Artikel nimmt die gängigsten Missverständnisse unter die Lupe und zeigt, was Entscheider:innen im Mittelstand wirklich über KI wissen müssen.

Mythos 1: Überall wo KI draufsteht, ist auch KI drin

Der Begriff KI wird heutzutage geradezu inflationär gebraucht. Ob in Werbung für Staubsaugerroboter oder „intelligente“ Toaster – das Kürzel KI prangt oft auf Produkten, um Innovationskraft zu suggerieren. In Wahrheit basieren viele solcher Geräte nur auf fest einprogrammierten Regeln statt auf echter Intelligenz. „Viele Roboter, so z. B. Rasenmäher-, Staubsauger- oder Industrierobo- ter, sind ebenfalls nicht KI-basiert, auch wenn sie möglicherweise so wirken. Zwar verfügen diese Geräte über jede Menge Computerchips und Sensorik, doch die Software dahinter ist oft nicht viel mehr als ein kompliziertes Regelwerk“ (KI jetzt!, S. 26). Das heißt, sie reagieren nach vordefinierten Mustern auf Befehle oder Umweltreize, ohne sich an neue Situationen anzupassen. Ein Saugroboter zum Beispiel umfährt ein Hindernis oder stoppt – aber er lernt nicht dazu, wenn man ihm nicht explizit neue Befehle einprogrammiert.

Diese Verwechslungsgefahr hat sogar einen Namen: AI-Washing. Ähnlich wie beim „Greenwashing“ (dem ungerechtfertigten grünen Image) sprechen Fachleute von AI-Washing, wenn Unternehmen ihre Produkte als KI-getrieben anpreisen, obwohl kaum oder gar keine echte KI dahintersteckt. Marketingabteilungen nutzen den KI-Hype schamlos aus – selbst Alltagsgegenstände wie Waschmaschinen werden als „KI-gestützt“ beworben [1]. Für Verbraucher und Geschäftskunden ist das irreführend. Mehr noch: Es besteht Wettbewerbsrisiko, denn falsche KI-Versprechen können rechtliche Konsequenzen haben. Entscheider:innen sollten daher kritisch hinterfragen, ob bei angeblichen KI-Produkten wirklich Maschinelles Lernen oder intelligente Algorithmen im Spiel sind – oder nur einfache Automatismen.

Mythos 2: Künstliche Intelligenz denkt wie ein Mensch

Ein weiteres Missverständnis ist die Annahme, KI würde „denken“ wie wir. Oft entsteht dieses Bild durch Sci-Fi-Filme oder medienwirksame Beispiele wie menschenähnliche Roboter. Faktisch handelt es sich bei nahezu allen aktuellen KI-Anwendungen um sogenannte schwache KI. Das bedeutet, sie sind spezialisiert auf eng umrissene Aufgabenbereiche und beherrschen genau das, wofür sie trainiert wurden – nicht mehr. „Schwache KI ist alles, was wir jetzt schon an KI-Anwendungen sehen“ (KI jetzt!, S. 23). Ein Sprachassistent kann beeindruckend flüssig reden, weiß aber nichts über andere Themen, für die er nicht programmiert wurde.

Demgegenüber steht die Vision der starken KI, die wirklich eigenständig handelt und generell denken könnte wie ein Mensch. Viele Science-Fiction-Filme basieren auf dieser Idee. Doch eine starke KI wäre gegeben, wenn eine Maschine oder Software plötzlich eigenständige Motive oder Lösungswege aufzeigt – und genau das hat bisher kein System getan. Weder ChatGPT noch selbstfahrende Autos haben eigene Absichten; sie führen nur das aus, wofür sie gemacht oder trainiert wurden. Elon Musk prophezeite zwar, dass schon in den nächsten Jahren eine Superintelligenz entstehen könnte, die schlauer ist als wir [2]. Solche Aussagen heizen die öffentliche Debatte an. Viele Forschende – darunter die Autoren von KI jetzt! – halten solche Prognosen jedoch für überzogen. Von einer tatsächlich agentischen KI, die aus eigenem Antrieb handelt, sind wir in Wahrheit noch weit entfernt.

Blick ins Innere: Statistik statt Bewusstsein

Wie „denken“ heutige KI-Systeme nun wirklich? Vereinfacht gesagt, basiert ihre Intelligenz auf Statistik, nicht auf Bewusstsein. Ein neuronales Netzwerk wie GPT-4 berechnet aus Abermillionen Beispielen die wahrscheinlich passendste Antwort – es versteht aber nicht im menschlichen Sinne die Bedeutung. Das führt zu erstaunlichen Fähigkeiten, aber auch zu Fehlern: KI kann logisch wirken und doch groben Unsinn ausgeben, wenn die Datenlage dürftig ist. So entstehen Halluzinationen, etwa falsche Fakten, weil dem Modell Kontext oder Weltwissen fehlt.

Wichtig ist, zwischen cleverer Programmierung und echter Lernfähigkeit zu unterscheiden. Nicht in jeder Schlussfolgerung auf der Basis von Big Data steckt zwangsläufig KI. Viele Analysen mit großen Datenmengen folgen festen Algorithmen, ohne dass das System dazulernt. Ein klassisches Business-Analytics-Tool kann etwa Kauftrends erkennen, arbeitet aber mit vordefinierten Rechenregeln. Statistische Modelle enthalten nicht unbedingt KI. Erst wenn ein System selbständig Muster aus neuen Daten ableitet und seine „Strategie“ anpasst, sprechen wir von Machine Learning – dem Kern echter KI. Doch selbst dann: Die Maschine hat kein eigenes Bewusstsein oder Gefühl für das, was sie tut. Sie erkennt Korrelationen, keine Bedeutungen.

Autonom vs. automatisch: Wo liegen die Grenzen?

Wenn wir von autonomen Systemen hören – autonome Fabriken, autonome Fahrzeuge – klingt das nach Maschinen, die völlig allein Entscheidungen treffen. In gewissem Rahmen stimmt das: Eine moderne KI kann im Bruchteil von Sekunden selbständig entscheiden, z. B. ob ein Objekt auf der Straße ein Mensch ist, und bremsen. Doch diese Autonomie ist relativ: Das System befolgt immer noch Regeln und Ziele, die der Mensch vorgegeben hat (etwa „Unfälle vermeiden“).

Ein oft übersehener Punkt: Selbstlernende KI ist nicht gleich selbstbestimmte KI. Erst wenn das System in der Lage ist, aus den Umgebungsdaten eigenständig zu lernen, ohne jede vorgegebene Schablone, kann man von KI-Systemen sprechen. Heutige KI lernt zwar in Trainingsphasen, aber im Einsatz folgt sie ihrem erlernten Modell. Sie wird nicht spontan kreativ oder rebellisch. Bestes Beispiel: Trotz der Bezeichnung "Full Self-Driving" ist das Autopilot-System von Tesla keineswegs voll autonom – es erfordert ständige menschliche Überwachung, weil die KI im Auto nicht mit jeder unvorhergesehenen Verkehrssituation allein klarkommt. Der viel beschworene „Roboter-Aufstand“ bleibt Fiktion – reale KI-Systeme haben keine eigenen Antriebe außerhalb der Aufgaben, die wir ihnen stellen.

Die aktuelle Debatte um Agentic AI – also KI, die eigenständig Ziele verfolgt – ist hauptsächlich theoretischer Natur. Forschende diskutieren Sicherheitsmechanismen, um zu verhindern, dass fortgeschrittene KI sich verselbständigt. Aber Stand heute zeigen selbst die klügsten Modelle keinerlei echte Selbstinitiative. Wenn überhaupt, treten Probleme auf, weil KI zu wörtlich unseren Anweisungen folgt oder unerwartete Schlupflöcher nutzt (Stichwort: Prompt Injection, wo KI dazu gebracht wird, Regeln zu umgehen). Die Verantwortung liegt also nach wie vor beim Menschen: Wir definieren die Ziele, und KI führt sie aus – im Guten wie im Schlechten.

Was Maschinen heute schon besser können – und was nicht

Trotz ihrer Grenzen leisten schwache KI-Systeme Erstaunliches. In engen Domänen übertreffen sie uns längst: Bilderkennung, Sprachübersetzung, Schach und Go spielen – überall dort, wo es um Datenmuster und Rechenpower geht, haben Maschinen die Nase vorn. Ein modernes KI-Modell kann Millionen Dokumente in Sekunden analysieren und Zusammenhänge finden, die kein Mensch je entdecken würde.

Doch wenn das Umfeld unvorhersehbar und komplex wird, stoßen Maschinen an Grenzen. Ein KI-gesteuerter Kundenchat kann einfache Anfragen blitzschnell beantworten, scheitert aber womöglich an einer ironischen Bemerkung des Nutzers. Flexibilität und gesunder Menschenverstand – das berühmte Common Sense – fehlen der KI. Sie kennt keine echten Emotionen, versteht keine moralischen Werte (außer wir modellieren sie grob als Regeln) und kann nicht spontan von einem Fachgebiet ins nächste wechseln.

Ein Beispiel: OpenAI’s neueste Modelle GPT-4o („o“ für omni) und nun auch GPT-5 beeindruckt dadurch, dass es Text, Bild und Audio gleichzeitig verarbeiten kann. Man kann ihm eine Aufgabenstellung quer durch verschiedene Formate geben – es beschreibt ein Bild, hört eine Frage und antwortet in Text. Trotzdem bleiben alle GPTs Beispiele für schwache KI: Sie glänzen in dem, wofür sie trainiert wurden (multimodale Konversation), aber sie entwickeln keine eigenen Ziele. Sie können etwa aus einem Foto und einer Frage schlussfolgern, was der Benutzer wissen will, kann aber nicht entscheiden, plötzlich ein ganz anderes Problem anzugehen, das ihm niemand gestellt hat. Es besitzt keine Alltagsintuition, sondern rechnet brav innerhalb seiner Parameter. Auch nicht mit Agenten-KIs.

Heutige KI glänzt vor allem dort, wo es um spezifische, klar definierte Probleme geht:

  • Bilderkennung: KI-Systeme identifizieren Gesichter oder diagnostizieren Krankheiten auf Röntgenbildern oft präziser als Menschen.
  • Sprachverarbeitung: Chatbots beantworten Kundenanfragen rund um die Uhr, Übersetzungs-KI wie DeepL liefert in Sekunden hochwertige Übersetzungen.
  • Datenanalyse: Im Finanzwesen spürt KI Betrugstransaktionen auf, in der Produktion prognostiziert sie Wartungsbedarfe, bevor Maschinen ausfallen.

All diese Leistungen basieren auf Mustern in gewaltigen Datenmengen – hier spielt KI ihre Stärken aus.

Doch es gibt nach wie vor Bereiche, in denen Menschen unschlagbar bleiben:

  • Kreativität und Strategie: KI kann millionenfach gelernte Stile imitieren (etwa in der Bild- oder Texterzeugung), aber keine wirklich originellen Ideen aus dem Nichts schöpfen.
  • Sozialkompetenz: Führung, Teamwork, Verhandlungen – überall dort, wo Empathie und Menschenkenntnis gefragt sind, kommt KI an ihre Grenzen.
  • Gesunder Menschenverstand: Was für uns selbstverständlich ist (z. B. physikalische Grundregeln oder moralische Intuition), muss einer KI erst umständlich beigebracht werden – und vieles davon kann sie (noch) nicht erfassen.

Der Mensch bleibt also in vielen Rollen unverzichtbar, gerade wenn es um das große Ganze, um Ethik oder um komplexes multidisziplinäres Denken geht. KI ist ein kraftvolles Werkzeug, kein Ersatz für menschliche Intelligenz.

Fazit: Klarheit über KI – was zählt wirklich

Für den Mittelstand ist KI Chance und Herausforderung zugleich. Umso wichtiger ist es, Klarheit zu haben, was KI leisten kann – und was nicht. Lassen Sie sich nicht von Buzzwords blenden: Ein einfaches Regelwerk macht noch keine Künstliche Intelligenz. Die wirklich revolutionären KI-Anwendungen zeichnen sich dadurch aus, dass sie aus Daten lernen, adaptiv handeln und Aufgaben übernehmen, die bislang menschliche Domäne waren.

Statt blind dem Hype zu folgen, sollten Entscheider:innen die Mythen entzaubern und mit grundlegendem KI-Verständnis agieren. Wenn Sie wissen, wie KI tickt (dazu mehr im nächsten Beitrag dieser Reihe) und worauf es ankommt – nämlich Datenqualität, Kontext und das Zusammenspiel von Mensch und Maschine – dann sind Sie gewappnet, um die echten Chancen der KI für Ihr Unternehmen zu nutzen.

Neugierig geworden? Im Buch "KI jetzt!", von Mark Brinkmann und Kai Gondlach, erfahren Sie noch mehr über die wahren Potenziale der Künstlichen Intelligenz und wie Sie Mythen von Fakten trennen können. Lassen Sie sich inspirieren und sichern Sie sich Ihren Wissensvorsprung – KI jetzt! ist Ihr Begleiter in die Zukunft der Arbeitswelt.

[1] https://www.cmshs-bloggt.de/rechtsthemen/kuenstliche-intelligenz/ai-washing-vermeiden-rechtssicher-werben-mit-kuenstlicher-intelligenz/

[2] https://x.com/elonmusk/status/1871083864111919134?lang=en


Ein Jahr „KI jetzt!“: Was der Mittelstand seitdem gelernt hat – und was noch kommen muss

Als wir im Frühjahr 2024 unser Buch „KI jetzt!“ veröffentlichten, war die Euphorie groß. ChatGPT hatte den Sprung aus der Tech-Bubble in den Alltag längst geschafft. Führungskräfte fragten sich: „Wie können wir diese Technologie sinnvoll nutzen – ohne ins Chaos zu rutschen?“

Ein Jahr später blicken wir auf viele spannende, manchmal auch ernüchternde Entwicklungen zurück. Manche Trends haben wir damals präzise vorhergesehen – und die Realität hat sie bestätigt. Andere Dynamiken sind schneller oder radikaler gekommen, als wir es uns 2024 vorstellen konnten.

Wie wir im Buch schrieben:

„Technologische Disruption ist kein Selbstzweck. Ihr Wert bemisst sich daran, ob sie Prozesse verbessert, neue Möglichkeiten erschließt und langfristig Nutzen stiftet – für Unternehmen, Menschen und Gesellschaft.“ (KI jetzt!, S. 17)

 

Was wir gelernt haben

In zahlreichen Workshops, Beratungsprojekten und Gesprächen mit Entscheider:innen aus dem Mittelstand hat sich ein klares Muster gezeigt:

Das Interesse ist da.
Die Auseinandersetzung mit KI ist längst kein Nischenthema mehr.

Erste Use Cases entstehen.
Von automatisierten Kundenservices über Mustererkennung in der Produktion bis hin zu Prototypen im Marketing.

Doch viele Projekte bleiben stecken.
Sie verharren im Pilotstatus oder versanden, bevor sie echten Mehrwert liefern.

Die Ursachen sind immer wieder ähnlich:

  • fehlende klare Zuständigkeiten
  • unpräzise Zieldefinitionen
  • überhöhte Erwartungen an kurzfristige Ergebnisse
  • Unsicherheit bei rechtlichen und ethischen Fragen

Oder wie wir im Buch gewarnt haben:

„KI ist kein Plug-and-Play. Ohne saubere Zieldefinition, Kontextverständnis und Verantwortlichkeiten verläuft selbst die beste Technologie im Sande.“ (KI jetzt!, S. 54)

 

Warum wir jetzt eine neue Serie starten

Genau deshalb beginnen wir – ein Jahr nach Veröffentlichung – mit „KI jetzt! – Ein Jahr später“: Eine Serie auf LinkedIn Kai Gondlach und in unserem Blog, die zentrale Inhalte des Buches neu kontextualisiert, mit frischen Erkenntnissen und einem Jahr zusätzlicher Praxiserfahrung.

Was Sie erwarten dürfen:

  • Zwei Beiträge pro Woche
  • Kompakte, aber gehaltvolle Impulse zur KI-Transformation
  • Verständlich, praxisnah, zukunftsgewandt
  • Mit einem klaren Blick auf die Chancen und Risiken

Denn die entscheidende Frage ist heute nicht mehr „Ob“ KI kommt – sondern „Wie“ sie kommt. Und: „Wie gut sind wir vorbereitet?“

„Die entscheidende Kompetenz der nächsten Jahre wird nicht das Bedienen einzelner Tools sein, sondern das strategische Einordnen ihrer Potenziale und Grenzen.“ (KI jetzt!, S. 102)

 

Was jetzt kommen muss

Der Mittelstand steht an einer Weggabelung: Wer KI-Integration verschleppt, riskiert nicht nur Wettbewerbsnachteile, sondern verpasst die Gelegenheit, eigene Spielregeln zu setzen.

Dazu gehört:

  • Klare Verantwortlichkeiten schaffen (z. B. KI-Beauftragte oder interdisziplinäre Teams)
  • Pilotprojekte schnell evaluieren und skalieren
  • Datenqualität und Kontext als strategische Ressourcen begreifen
  • Transparenz und Ethik nicht als „nice to have“, sondern als Wettbewerbsvorteil behandeln

 

Bleiben Sie dabei – und machen Sie mit

Folgen Sie mir bei LinkedIn Kai Gondlach für die Serie oder lesen Sie im Blog mit – diskutieren Sie mit uns, widersprechen Sie, bringen Sie Beispiele aus Ihrem Unternehmen ein.

Wenn Sie das Buch „KI jetzt!“ noch nicht kennen:

  • Erhältlich überall im Handel
  • Signierte Ausgaben direkt unter zukunft.shop
  • Mengenrabatte für Unternehmen und Organisationen – ideal für Geschäftsführungsrunden, Führungskräftetrainings oder interne Innovationsprogramme. Sprechen Sie uns einfach an.

„Zukunft entsteht nicht dadurch, dass wir sie vorhersagen – sondern indem wir sie gestalten.“ (KI jetzt!, S. 211)


Neues Whitepaper: Industrie 6.0 ... die übernächste Revolution der Industrialisierung

Die industrielle Landschaft steht vor grundlegenden Veränderungen. Während viele Unternehmen noch mit der Umsetzung von Industrie 4.0 beschäftigt sind, treten neue Anforderungen und Rahmenbedingungen in den Vordergrund: ökologische Nachhaltigkeit, technologische Weiterentwicklungen, geopolitische Verschiebungen und veränderte gesellschaftliche Erwartungen.

Das vorliegende Whitepaper formuliert eine visionäre, zugleich praxisnahe Auseinandersetzung mit der Frage, wie industrielle Systeme weiterentwickelt werden können – jenseits kurzfristiger Innovationszyklen und eindimensionaler Effizienzlogik. Es ist eine Einladung zur strukturierten Auseinandersetzung mit der Frage, wie Industrie in einer vernetzten, regenerativen und anpassungsfähigen Form weiterentwickelt werden kann.

Die zugrunde liegende Argumentation folgt dem Spannungsverhältnis von industriellem Rückzug und bewusster Reindustrialisierung: Der teils schmerzhaften Deindustrialisierung der vergangenen Jahrzehnte steht die Chance einer bewusst gestalteten Reindustrialisierung gegenüber – nicht als Rückschritt, sondern als qualitativer Sprung. Inspiriert ist dieser Denkansatz unter anderem durch das Viable System Model von Stafford Beer, das Organisationen als lern- und anpassungsfähige Systeme begreift.

Neben einer Einordnung bestehender Industrieparadigmen bietet das Whitepaper zwei praxisnahe Instrumente: eine Checkliste zur Erhebung des aktuellen Industrie-4.0-Reifegrads sowie eine zur Einschätzung der eigenen Transformationsbereitschaft. Beide sollen dabei helfen, Potenziale und Handlungsbedarfe klarer zu identifizieren.

Neues Whitepaper, neuer Onlineshop

Mit dem neuen Whitepaper beginnt eine neue Ära für die Medien von Kai Gondlach und dem PROFORE Zukunftsinstitut. Unter der Domain www.zukunft.shop haben wir für Sie einen komfortablen Onlineshop eingerichtet, auf dem Sie neben den Whitepapern aus der Feder von Kai Gondlach et al. auch Videos, Bücher und Merchandise finden. Schauen Sie gleich vorbei - und probieren Sie gern den Gutschein-Code "2025KAIGONDLACH50" (ohne Anführungszeichen) aus.

ZUM PROFORE ONLINESHOP


Zukunftsforscher-FAQ (Teil 2)

Der erste Teil meiner Zukunftsforscher-FAQ kam so gut an, dass mich diverse weitere Fragen erreichten. Hier kommt er also, der zweite Teil der häufigsten Fragen an mich als Zukunftsforscher! Vielen Dank an alle Fragestellenden - wer weitere Fragen hat, sende diese bitte über das Kontaktformular.

Du wirkst meist sehr zuversichtlich. Bist du Optimist oder Pessimist?

Die Frage ist tiefgründiger, als sie zunächst scheint. Ich bin von Natur aus mit einem deutlich optimistischen Blick auf die Dinge gesegnet, oder eher entsprechend sozialisiert. Meine Familie hatte sehr viel Glück, auch wenn sie es nie zu viel Reichtum oder Popularität geschafft hat. Meine Mutter sagte immer: "Wir haben zwar kein Geld, aber Glück - und das ist besser als umgekehrt." Nun gab es in meinem Leben auch mehrere große Unglücke, sodass das Glück wohl nicht immer auf meiner Seite steht, aber vielleicht habe ich das Schicksal auch zu sehr herausgefordert mit meiner unternehmerischen Tätigkeit und das Erfolgs-Glücks-Gleichgewicht gestört. Zudem befasse ich mich täglich sowohl mit den goldenen als auch den Schattenseiten möglicher Zukünfte, denke sowohl über plausible Visionen für eine regenerative Zukunft als auch Krisenszenarien nach.
Dennoch trete ich nach außen immer mit einem zuversichtlichen Blick. Warum? Ganz einfach: Jede Aussage über Zukünfte, die man vor einem nennenswerten Publikum vertritt, hat die Kraft, einen eigenen Sog in die Zukunft zu entfalten (das nennt sich Propensität). Da möchte ich lieber positive Gestaltungsräume aufzeigen als die ewigen Mühlen der Zukunftsskepsis zu bespielen.

Wie reagieren die Menschen auf "deine" Zukunftsbilder?

Das ist sehr unterschiedlich; auf Veranstaltungen ist das Feedback überwiegend sehr positiv, nicht zuletzt, da ich nicht die eine, unveränderliche Zukunft verkaufe. Davon halte ich im Übrigen auch überhaupt nichts. Stattdessen biete ich immer unterschiedliche Aspekte möglicher Zukünfte an, über die man dann konstruktiv in den Austausch kommen kann. Selten gibt es kompletten Gegenwind, einmal ist sogar ein Mann während einer Keynote aufgestanden und wollte mich belehren, dass meine Ausführungen komplett an der Realität vorbeigingen. Das sah zum Glück nicht nur ich, sondern auch der Rest des Publikums anders und nach einem kurzen Wortwechsel wurde er vom Veranstalter aus dem Raum geführt.
In den "sozialen" Medien ist das schon anders. Ich habe einige politisch angehauchte Videos bei Tiktok, die dort natürlich vom rechten Rand ständig angegriffen werden. Ich darf mir dann anhören, ich sei Propagandist oder schlicht Lügner, oder auch Schlimmeres. Damit kann ich aber umgehen und versuche dennoch stets, die Perspektive der Gegenseite zu verstehen. Unangenehm wird es nur, wenn Drohungen kommen und zusätzlich immer häufiger die Route zu meinem Firmensitz abgerufen wird. Das hält mich trotzdem nicht davon ab, weiter über menschen- und umweltgerechte Zukünfte zu sprechen.

Manche nennen dich Future Punk - warum?

Ich sehe zwar nicht aus wie das, was man sich unter einem Punk vorstellt, aber was ist schon Punk? Die Ärzte haben einen ganzen Song darüber geschrieben, was Punk sein kann ("Punk ist") und ich sehe mich da in der Tradition derjenigen, die Systeme und Mechanismen sehen, obwohl sie teilweise sogar Teil derer sind. Sie sehen sie nicht nur, sondern hinterfragen sämtliche Annahmen. Mein guter Freund und Ex-Chef Jan Berger (inzwischen Geschäftsführer von Themis Foresight) teilt meine Ansicht, dass gute Zukunftsforschung auch darauf beruht, dass man unethisch denken kann. Wie sonst hätte ich entgegen der Massenmeinung ein paar Monate vor dem Beginn des völkerrechtswidrigen Angriffskriegs Russlands auf die Ukraine zu dem Schluss kommen können, dass dies passiert? Weil ich denken kann wie ein "Zar". Ich kann auch denken wie ein CEO einer Mineralöl- oder Rüstungs-Firma. Ich sage Autozulieferern, dass ihr Geschäftsmodell kaputt und nicht zukunftsfähig ist, rate aber gleichzeitig Immobilienfirmen zum Downsizing und Automatisierung. Das alles hat nicht immer etwas mit meinen privaten Überzeugungen und Taten zu tun; also: Future Punk.

Welche Methoden benutzt die Zukunftsforschung?

Das sind zu viele, um sie hier aufzuschreiben; ebenso könnte man fragen, welche Methoden die Archäologie oder Volkswirtschaftslehre verwenden. Es handelt sich immer um den passenden Mix für die jeweiligen Forschungsfragen und Hypothesen. Häufiger tauchen Delphi-Befragungen auf, das sind Expertenpanels mit mehreren Durchgängen. Man befragt beispielsweise in Interviews oder Online-Fragebögen Expert:innen, aggregiert die Ergebnisse und legt sie demselben oder einem erweiterten Panel wieder vor. Die Methode eignet sich besonders dann, wenn man sehr komplizierte und in eher weiter Zukunft gelagerte Themen ergründen möchte. Die Szenariotechnik ist darüber hinaus in der Zukunftsforschung eine Besonderheit; Zukunftsszenarien der Zukunftsforschung sind, anders als klassische Szenarien, sehr robuste und gut erforschte, plausible Zukunftsbilder. In der Regel versucht man damit, einen Zukunftsraum zu explorieren und Gestaltungsräume zu identifizieren. Das Herzstück jedes Szenarioprozesses sollte die Konsistenzbewertung der vorher gesammelten Grundlagen und Projektionen sein, die in jedem Fall computergestützt berechnet werden soll. Immerhin hat man es in klassischen Prozessen mit vielen Milliarden Kombinationsmöglichkeiten zu tun - und man braucht am Ende ja nur eine Handvoll Szenarien.

Welche Eigenschaften braucht man als Zukunftsforscher:in?

Erstens sind das vermutlich die üblichen, die man braucht, wenn man an der Schnittstelle von Forschung und Praxis arbeitet. Zweitens gehört dazu aber im Wesentlichen auch eine gewisse Offenheit und Neugier gegenüber Zukünften. Drittens bedeutet dies ein tiefgreifendes Verständnis von Komplexität, Emergenz, Kontingenz und Chaos. Viertens muss mir klar sein, dass ich eher Historiker:in als Prognostiker:in bin. Und fünftens hängt das genaue Set an Eigenschaften oder Kompetenzen davon ab, in welchem Einsatzfeld und Umfeld ich mich betätigen möchte. Ich persönlich bin einerseits Analytiker und liebe es, mich in Datenberge zu stürzen und tagelang umfangreiche Tabellen zu interpretieren. Andererseits liebe ich Bühnenauftritte und die Vermittlung von Zukünften. Andere sind stärker in der theoretischen Methodenarbeit oder der Konzeption und Durchführung von Workshops. Einige arbeiten sehr streng in Branchenkontexten oder festangestellt als Foresight-Analyst oder Trendscout; andere sind selbstständig oder in kleinen Beratungsunternehmen unterwegs.

Lieben alle Zukunftsforscher:innen Science Fiction?

Viele, die ich kenne, haben auf jeden Fall ein Faible für die eine oder andere SciFi-Richtung. Ich würde aber nicht so weit gehen zu sagen, dass alle SciFi lieben. Aber die dahinterliegende Annahme ist schon richtig: Science Fiction funktioniert ähnlich wie Zukunftsforschung an manchen Stellen, nur dass bewusst eine deutliche Verstärkung wie mit einem Brennglas auf die Grundannahmen vorgenommen wird. Die Zukunftsforschung hingegen modelliert eher plausible und wenigstens konsistente Zukunftsbilder.

Ist Foresight das gleiche wie Zukunftsforschung?

Nicht ganz. Foresight übersetzt sich ins Deutsche als "strategische Vorausschau", ist also per Definition an einen Organisationskontext gebunden. Zukunftsforschung kommt in vielen Spielarten und versteht sich in der Regel eher als übergreifende, kritisch-rationale Disziplin. Foresight ist gewissermaßen die Übersetzung von Zukunftsforschung in ein Unternehmen oder eine Behörde.

Gibt es historische Beispiele, bei denen Zukunftsforschung Einfluss auf ein Ereignis hatte?

Ja, wobei die Faktenlage recht schwierig ist - das nennt man dann Präventionsparadox. Ein gutes Beispiel ist der Atomwaffensperrvertrag von 1968. Schon vor dem Abwurf der ersten Atomwaffen auf Hiroshima und Nagasaki 1945 gab es Expertenpanels, die die sozialen, wirtschaftlichen und ökologischen Folgen des Einsatzes von Kernwaffen antizipiert haben. Einige Organisationen taten sich in den 1950er Jahren, als die Aufrüstung der USA und der Sowjetunion begann, zusammen und schauten immer weiter, welche Auswirkungen dies haben könnte. Und so empfahlen sie (und andere) das Verbot, das ja dann auch beschlossen wurde und bis heute gilt. Ein anderes Beispiel ist die Eindämmung umwelt- und klimaschädlicher Stoffe wie FCKW oder später Asbest, welche sich unter anderen auf die Studie "Die Grenzen des Wachstums" von 1972 zurückführen lassen. Persönlich kann ich aber auch ein schönes Beispiel berichten: 2019 habe ich bei vielen Veranstaltungen darüber gesprochen, dass in den kommenden drei Jahren eine Pandemie sehr wahrscheinlich ist. Ein großes Pharmaunternehmen hat diese Warnprognose ernstgenommen und tatsächlich einige Prozesse in der Forschung und Entwicklung angepasst und sich anschließend bedankt.

Was sind schwarze Schwäne? Sind diese erst zu nehmen oder nur Hirngespinste von Pessimisten?

Schwarze Schwäne sind im Grunde Wildcards, also äußerst unwahrscheinliche, im Falle des Eintretens aber sehr einflussreiche Ereignisse oder Entwicklungstendenzen (Trends). In unserer Zeit kennen wir das alle: Die Corona-Pandemie 2020 war so ein schwarzer Schwan, aber auch der russische Angriffskrieg gegen die Ukraine 2022 oder die Hamas-Attacke auf Israel 2023. Ehrlicherweise waren das alles keine Phänomene, über die noch nie jemand nachgedacht hat. Doch kaum jemand hat ernsthaft die potenziellen Auswirkungen rechtzeitig antizipiert. Und das ist eins der Kernprobleme in der Umsetzung von Zukunftsforschung in die Praxis. Oft lassen sich zwar die Ereignisse nicht verhindern, aber durch eine kluge, proaktive Anpassung der Prozesse und Strategien kann sich eine Organisation sehr wohl auf Schocks vorbereiten.

Unterliegt die Zukunftsforschung wissenschaftlichen Standards? Ist sie eine richtige Wissenschaft?

Die Zukunftsforschung als fachliche Disziplin hat sehr wohl Gütekriterien und Standards, die mehrfach dokumentiert sind. An den Universitäten wird das auch durchgehend sehr strikt so praktiziert. In der Wirtschaft und öffentlichen Verwaltung wiederum haben wir aber eher mit Foresight zu tun, wo die wissenschaftlichen Standards zugunsten von zeitlicher und finanzieller Effizienz eher in der zweiten oder dritten Reihe stehen. Ein einfaches Beispiel ist, dass Interviews in der Wissenschaft sehr kleinteilig dokumentiert und analysiert werden. In der Praxis genügt meist die Kernaussage aus einem Gespräch, weshalb man hier den Prozess in der Regel abkürzt.

Arbeitet ihr qualitativ oder quantitativ?

Beides! In Projekten kombiniere ich persönlich sehr gern unterschiedliche methodische Ansätze, die unterschiedliche Perspektiven auf die Untersuchungsgegenstände werfen. Ich würde aber sagen, dass der Großteil der Projekte eher qualitativ bearbeitet werden. Als Auftraggeber muss man allerdings aufpassen, dass auf der anderen Seite keine Scharlatane sitzen, die ihre Zukunftsaussagen aus den Ärmeln schütteln. Ein methodisches Gerüst und auch ein gewisser Grad an Transparenz ist wahnsinnig wichtig. Für mich kommt noch hinzu, dass partizipative Prozesse immer besser sind - das heißt, Auftraggeber arbeiten mit an der Erzeugung von Inhalten, Thesen, etc.

Warum sind alle (oder viele) deiner Beiträge positiver Natur? Eigentlich wird doch alles nur schlimmer?

Alles eine Frage der Perspektive! Mit meiner Arbeit versuche ich ja gerade, meine Adressaten vor die Welle zu bringen. Wer sich strukturierte Gedanken über mögliche Zukünfte macht und sich rechtzeitig mit technologischen, wirtschaftlichen, politischen und gesellschaftlichen Trends befasst, ist hinterher weniger überrascht oder im besten Fall vorbereitet. Dazu zählen die großen "Megatrends" genauso wie Teilaspekte daraus.

Wie wirst du (wenn du so viel über unsere Zukunft weißt) nicht zum Pessimisten?

Dadurch, dass ich so viele Varianten der Zukunft schon durchgespielt habe, sehe ich keinen Grund, pessimistisch zu sein. Es gibt immer auch mögliche und plausible Zukünfte, die in eine positive Richtung deuten. Ich arbeite daran, die richtigen Akteure immer wieder darauf hinzuweisen, dass sie sich zwar vor den negativen Zukünften schützen, jedoch gleichzeitig auch die positiven wahrscheinlicher machen. Dazu zählen Unternehmen ebenso wie Regierungsstellen. Und je häufiger meine Zunft das tut, umso besser klappt das auch. Dem Bild des Pessimisten würde ich zudem entgegnen, dass ich eher der stoischen Philosophie folge, alles erst einmal akzeptiere und Optionen auslote. Das einzig Belastende daran ist, dass ich - wie die Kassandra in der griechischen Mythologie - sehr häufig natürlich unzufrieden bin, weil rückwärts betrachtet dann doch zu wenig getan wird, um Unheil abzuwenden. Aber ich habe ja hoffentlich noch einige Jahrzehnte... :)

Wie kann ein studierter Zukunftsforscher fundierte Aussagen über ihm fremde Fachgebiete treffen? Sollten das nicht die Experten des jeweiligen Gebietes tun?

Das muss kein Widerspruch sein! Es stimmt, dass ich nur in wenigen Fachgebieten wirklich als Experte auftreten kann. Das sage ich ja auch immer wieder öffentlich. Aber durch mein Netzwerk und meine Methoden bin ich in der Lage, gehaltvolle Aussagen von Expert:innen aus Fachgebieten zu bewerten und die Expert:innen wiederum in den Austausch zu bringen. Das ist dann vielleicht auch nicht immer akkurat, aber sehr viel besser, als wenn ich mir selbst eine "Meinung" bilden und diese proklamieren würde. So machen es leider viele, die den Beinamen "Zukunftsforscher" vor sich her tragen - damit richten sie großen Schaden für unser Metier an. Ich hoffe, dass wir eines Tages verbindliche Standards haben und der Beiname "Zukunftsforscher" (oder ein anderer) geschützt ist. Bis dahin gilt "nur" Reputation.

 

Foto von Emily Morter auf Unsplash