Warum Zukunftsforschung

Zukunftsforschung will nicht Recht behalten

Die Notwendigkeit für eine wissenschaftliche Zukunftsforschung wurde historisch gesehen erstmals gegen Ende des Zweiten Weltkriegs erkannt und vor allem institutionell aufgegriffen. In der Postmoderne wurde die Komplexität einer sich globalisierenden Welt zunehmend zum Problem für Entscheider in Politik, Wirtschaft und vor allem dem Militär (Stichwort Kernenergie und -waffen). Man erkannte damals, dass Entscheidungen, die nicht auf belastbaren Prognosen und Eintrittswahrscheinlichkeiten möglicher Szenarien basierten, potentiell Kettenreaktionen mit unerwünschten und teils unerwarteten Konsequenzen zufolge haben könnten. Die US-Amerikaner machten sich sehr genaue Gedanken darüber, welche genauen Folgen die Detonation von „Big Boy“, der größeren Atombombe, die das Militär über Hiroshima abwarf, haben würde. Dies war die perfide Geburtststunde der Zukunftsforschung. In Deutschland dauerte es bis ins Jahr 2001, bis die Zukunftsforschung institutionalisiert wurde. Alles begann mit der Gründung des Instituts Futur an der Freien Universität Berlin unter Leitung von Prof. Dr. Gerhard de Haan. Seit 2010 wird der weiterbildende, nicht-konsekutive Masterstudiengang Master of Arts Zukunftsforschung angeboten, den jährlich 10-20 Personen abschließen.

Eine der bekanntesten Zukunftsstudien ist wohl „Die Grenzen des Wachstums“ aus dem Jahr 1972 von Donella Meadows, Dennis L. Meadows und Jørgen Randers, welche erstmals den Zusammenhang zwischen menschlicher Zivilisation und dem Klimawandel aufdeckte. Mehr noch: Als Folge der Arbeit entstanden weltweit ökologische Parteien, Maßnahmen zur Reduktion gefährlicher Treibhausgase (allen voran FCKW) wurden initiiert und die Aufmerksamkeit der Öffentlichkeit wurde erstmalig auf die Wichtigkeit wissenschaftlicher Evidenz für politische Entscheidungen gerichtet. Dass die Prognosen der Studie im Jahr 1992 in der Folgestudie als nicht zutreffend befunden wurden, belegt die Unerlässlichkeit der Zukunftsforschung: nur dank der Erststudie der 1970er Jahre wurden Maßnahmen ergriffen, um das Schreckensszenario zumindest abzuschwächen. Den Faktor Ökologie hatten vor der Studie weder Unternehmen noch Staaten im Visier; genau an dieser Stelle kommt die größte Stärke der Zukunftsforschung zum Tragen: das Erkennen schwacher Signale, schwarzer Schwäne, das systemische Denken. Auch die Covid19-Pandemie („Corona“) wurde lange vor ihrem Auftreten antizipiert, weshalb es insbesondere in Deutschland sehr detaillierte Maßnahmenkataloge zum Eindämmen und Abschwächen der Auswirkungen einer Pandemie gab – und der Verlauf hierzulande im globalen Vergleich vorbildlich verläuft/verlief.

Zukunftsforschung will nicht Recht behalten mit ihren Prognosen; sie will Entscheidungen der Gegenwart verbessern, um für den Adressaten der Arbeit die bestmöglichen Resultate für die Zukunft zu erreichen.

Die praktischen Anwendungen der Zukunftsforschung finden sich in Forschungs- und Strategieabteilungen größerer Unternehmen, die gelegentlich auch an Nachhaltigkeitsthemen gebunden sind (wie etwa beim Deutsche Bahn Konzern). Ziel dieser Abteilungen ist es, Trends und Entwicklungen zu identifizieren, die sich auf das Geschäft des Unternehmens auswirken können, um dann andere Abteilungen frühzeitig zu warnen oder sogar die Produktentwicklung oder F&E-Aktivitäten auf diese Signale zu justieren (wie etwa im Volkswagen Konzern). Darüber hinaus existiert eine Handvoll explizit wissenschaftlicher Institute wie das Institut für Zukunftsstudien und Technologiebewertung (IZT), Sekretariat für Zukunftsforschung (SFZ), Fraunhofer-Institut für Naturwissenschaftlich-Technische Trendanalysen (FhG-INT), Fraunhofer-Institut für Systemtechnik und Innovation (FhG-ISI). Dann gibt es noch die Trendforschungsinstitute, die sich neben der nicht mehr ganz so wissenschaftlichen Forschung auf Unternehmensberatung konzentrieren; die meisten medial präsenten „Zukunftsforscher“ entstammen eigentlich diesem Trendforschungs-Genre.

Was unterscheidet eigentlich Zukunftsforschung von Trendforschung? Die Frage beschäftigt mich mindestens genauso oft wie meine Gesprächspartner*innen bei diversen Veranstaltungen. Anders als bei der Abgrenzung Mediziner (nicht geschützt) gegenüber Arzt (strafrechtlich geschützt) gibt es in meinem Metier (noch) keine bindende Trennung. Das hier ist ein (nicht der erste) Versuch, eine Trennung einzuführen.

Ich bin Zukunftsforscher, weil ich Zukunftsforschung studiert habe. Klingt soweit recht schlüssig, oder?

“Wie, das kann man studieren?”, fragen mich regelmäßig Kunden und Teilnehmer bei Veranstaltungen und auf meinen Reisen. “Ja, kann man”, beginne ich dann meine Antwort, um auf den Masterstudiengang Zukunftsforschung an der Freien Universität Berlin hinzuweisen. Pro Jahr verlassen zehn bis 20 Menschen die Freie Uni mit dem Titel „Master of Arts Zukunftsforschung“; ich war 2013 im zweiten Abschlussjahrgang.

Damit ist es aber nicht getan.

Im Sprachgebrauch hat sich nämlich in den letzten Jahrzehnten eine Synonymisierung der beiden Bereiche Zukunfts- bzw. Trendforschung eingeschlichen. Ich vertrete aber die Position, dass Trendforschung nicht gleich Zukunftsforschung ist. Und das möchte ich hier – ebenso wie bei sämtlichen anderen Gelegenheiten – argumentieren.

Zukunftsforscher wird niemand, weil er oder sie über Zukunft schreibt oder spricht. Entweder die Bezeichnung wird eines Tages von außen zugeschrieben oder durch Selbsternennung und entsprechende Öffentlichkeitsarbeit gefestigt.

Der Begriff Zukunftsforscher – ebenso wie Forscher an sich – ist in Deutschland nicht rechtlich geschützt. Es kann und darf sich also jede Person freien Herzens und guten Gewissens den Titel Zukunftsforscher oder Zukunftsforscherin geben, ohne je einen Nachweis über methodische Kompetenz erbracht zu haben. Als Nachweis genügt eine artverwandte Ausbildung oder ein interessantes Studium wie beispielsweise das der Soziologie oder des Journalismus, welches zwei sehr häufige Grundqualifikationen der bekannten Trendforscher sind. Viele davon machen auch keinen Hehl daraus, dass sie als Methode vor allem viel Zeitung lesen, sich kluge Gedanken über mögliche Zukunftsszenarien machen und diese dann veröffentlichen.

„Zukunft“ ist eine Ware, mit der sich gutes Geld verdienen lässt – an sich nichts Verwerfliches. Es wird erst dann – in meinen Augen – unredlich, wenn sich Journalisten und Entertainer einen wissenschaftlichen Anstrich geben, dem sie nicht gerecht werden können, und dennoch unter dieser Zuschreibung vermarktet werden. Denn damit gefährden sie den Ruf einer jungen Disziplin.

Wissenschaft ist ein weniger weitläufiger Begriff als Forschung. Wissenschaft ist, wenn mithilfe von Methoden (zum Beispiel Erhebungsmethoden oder Logik) neues Wissen geschaffen und durch unabhängige Dritte (!) im Einklang mit den Werten der Wissenschaftlichkeit anerkannt wird. Diese sind:

  •     Eindeutigkeit
  •     Transparenz
  •     Objektivität
  •     Überprüfbarkeit
  •     Verlässlichkeit
  •     Offenheit und Redlichkeit
  •     Neuigkeit

Man muss meines Erachtens keinen Master of Arts Zukunftsforschung absolviert haben, um diese Werte zu erfüllen. Es gehört aber mehr dazu, den Titel Zukunftsforscher*in zu verdienen als unterhaltsame Prognosen zu populären Themen abzuliefern, Einschaltquoten, Twitter-Likes und Verkaufszahlen zu generieren.

Der “Vater” der deutschen Zukunftsforschung, Rolf Kreibich, hat bereits 2006 eine sehr schöne Abgrenzung der Zukunfts- von der Trendforschung formuliert. Zukunftsforschung unterliegt demnach  „… in Abgrenzung zu zahlreichen pseudowissenschaftlichen Tätigkeiten wie ‚Trendforschung‘, ‚Prophetie‘ oder ‚Science Fiction‘ grundsätzlich allen Qualitätskriterien, die in der Wissenschaft an gute Erkenntnisstrategien und leistungsfähige Modelle gestellt werden: Relevanz, logische Konsistenz, Einfachheit, Überprüfbarkeit, terminologische Klarheit, Angabe der Reichweite, Explikation der Prämissen und der Randbedingungen, Transparenz, praktische Handhabbarkeit u. a.“

Damit möchte ich wie gesagt nicht die nicht-akademische Trendforschung ins Lächerliche ziehen, keineswegs! Auch Trendforscher*innen liegen mal richtig mit ihren Prognosen oder helfen heutigen Akteuren bei der Vorbereitung aufs Morgen. Viele Menschen haben schon Häuser gebaut ohne eine Ausbildung zum Maurer, Dachdecker oder Fliesenleger zu haben. Sie nennen sich dennoch nur Heimwerker. Auch homöpathische Mediziner ohne absolviertes Medizinstudium haben schon Patienten geheilt. Sie nennen sich Heilpraktiker. Und so sollten sich auch die pseudo-wissenschaftlichen Trendforscher keinen Titel geben, der die Öffentlichkeit täuscht. Ansonsten wird die Öffentlichkeit auch in zehn Jahren noch denken, wir arbeiteten tatsächlich mit Glaskugeln und Kaffeesatz.

Wo verläuft also die Grenze?

Natürlich ist es schwer bis unmöglich, in bestimmten Formaten wirklich wissenschaftlich zu agieren. Die Präsentation von Fachwissen in Keynotes, kurze Interviews für Funk und Fernsehen – praktisch alle Publikumsformate lassen keinen Platz für Quellenangaben. Umso wichtiger ist es meiner Meinung nach, wissenschaftlich zu publizieren, sich dem kritischen Diskurs zu stellen und an geeigneter Stelle die Grundlagen und Methoden der eigenen Äußerungen auf anderen Bühnen transparent zu machen.

Wenn ich um Einschätzungen gebeten werde, sage ich deshalb immer: „Jetzt folgt meine persönliche Einschätzung“ – im Kontrast zu Aussagen, die ich in meinen Keynotes oder Artikeln vertrete, weil sie überprüfbar aus veröffentlichten Quellen übernommen und als solche kenntlich gemacht wurden.

Niemand ist perfekt, aber wer keinen Idealen folgt und das Vertrauen von Symbolen ausnutzt, untergräbt die Prinzipien eines der wichtigsten Gesellschaftssysteme: die Wissenschaft.