Eine neue Generation von Zukunftsforschern erfindet die Prognose-Wissenschaft neu - und versucht, das Unkalkulierbare einzukalkulieren.
Die neue Reflexivität der Zukunfts-Pioniere
Kann man die Zukunft voraussehen? Diese Frage ist so alt wie die Menschheit selbst. Und wahrscheinlich niemals abschließend zu beantworten. Das Problem beginnt schon mit der Frage, was „Wissen über die Zukunft“ eigentlich meint. Geht es um Events? Ereignisse wie Krisen, Kriege oder Erdbeben? Um Börsenkurse und Lottozahlen? Um das Vor-Wissen sensationeller Techniken, die „unser Leben radikal verändern werden“? Müssen wir alle kommenden Zustände exakt kennen, um die Zukunft zu verstehen?
Mit solchen Fragestellungen geraten wir sofort in ein existentielles Paradox. Wenn alles Kommende genau voraussagbar wäre, existierte weder Wirtschaft noch Geist noch Evolution. Denn all dies entsteht nur in Adaptionen, Rückkoppelungen zwischen Umwelt und reagierenden Systemen. Ohne Zufall wäre Evolution nicht möglich, müsste die Welt erstarren zu einem immergleichen Anlauf von Kontinuität. Wenn wir alles über die Zukunft wüssten, existierte weder Hoffnung noch Liebe. Könnten wir Börsenkurse und Lottozahlen voraussagen, gäbe es weder Börsen noch Lotto.
Die Könnten wir Börsenkurse und Lottozahlen voraussagen, gäbe es weder Börsen noch Lotto neue Zukunftsforschung hat gelernt, mit unterschiedlichen Ebenen des Prognostizierbaren umzugehen. Teilsysteme der Welt lassen sich jeweils mit anderen Methoden und Modellen beschreiben und prognostizieren, wobei man zuallererst die Prognose von Systemen einerseits und Endergebnissen andererseits unterscheiden muss. Das Wetter lässt sich heute deutlich verlässlicher als vor 20 Jahren auf die nächsten Tage voraussagen, wir können sein System immer besser modellieren. Aber an langfristiger Wetterprognose werden alle Computer der Welt für immer scheitern. Börsenkurse sind prinzipiell unvorhersagbar, weil jede Prognose „rekursiv“ in den Verlauf der Kurse eingeht und damit ein turbulent-chaotisches System erzeugt wird, das immer wieder aus Gleichgewichten in Krisen kippt. Erdbebenforscher in Italien wurden neulich verhaftet, weil sie ein größeres Beben nicht vorausgesehen hatten. Obwohl sie das angeblich „können sollten“. In der Tat lässt sich heute die Wahrscheinlichkeit von Erdbeben viel besser bestimmen. Aber niemals wird man den exakten Zeitpunkt eines Erdbebens voraussagen können, einschließlich seiner Stärke.
The Future never comes
In Sachen Zukunft geht es immer auch sogleich um die Psychologie des Erkennens. Unsere Hirne sind als „Prediktionsmaschinen“ von der Evolution geformt worden – um uns vor Gefahren zu schützen oder Vorteile zu generieren. Gleichzeitig nimmt Zukunft in der menschlichen Wahrnehmung den Platz einer Nullkommastelle ein. Wir können Zukunft nicht wahrnehmen, weil sie immer in dem Moment, in dem wir sie erreichen, zur Gegenwart wird. „The future never comes“, sagt ein melancholisches englisches Sprichwort. Die Kognitionspsychologie sagt uns, dass wir zwar vieles Zukünftige voraussagen können, aber nicht, wie wir uns dabei fühlen und verändern. So bleibt Zukunft eine Projektion in unserem Kopf, eine Fiktion, die aufs Komplizierteste mit Projektionen, Erwartungen, tiefen Ängsten und heroischen Hoffnungen zu tun hat.
Die Vision einer exakten Zukunftswissenschaft hat dennoch eine lange Tradition. Neben der Antike entwickelte vor allem die mathematisch geprägte Aufklärung des 18. und 19 Jahrhunderts ein starkes Interesse für das „Ausrechnen“ des Morgen. Der Mathematiker Pierre-Simon Laplace formulierte um 1800 den „Laplaceschen Dämon“, eine deterministische Erkenntnis-Entität: „Wir müssen also den gegenwärtigen Zustand des Universums als Folge eines früheren Zustandes ansehen und als Ursache des Zustandes, der danach kommt. Eine Intelligenz, die in einem gegebenen Augenblick alle Kräfte kennte, mit denen die Welt begabt ist ... würde in der gleichen Formel die Bewegungen der größten Himmelskörper und die des leichtesten Atoms einbegreifen. Nichts wäre für sie ungewiss, Zukunft und Vergangenheit lägen klar vor ihren Augen.“
Was für eine Intelligenz müsste das sein, die „in einem gegebenen Augenblick alle Kräfte kennt“? Natürlich – eine göttliche! Und deshalb waren es in der Geschichte oft Priester, die die Deutungsmacht über die Zukunft in Händen hielten. Schon die erste große Zukunftsinstitution der Geschichte, das Orakel von Delphi, bezog sich auf göttliche Macht – und wirkte tief in die Realpolitik der damaligen Stadtstaaten hinein. In gewisser Weise formten die Orakel das antike Griechenland – und zeigten damit, wie mächtig der Diskurs über die Zukunft sein kann. Über dem Eingangstor des Orakels von Delphi stand als Motto: „Gnothi Seauton“ (dt.: Erkenne dich selbst). Schon die Priester der Antike verstanden etwas von jenem Spiegelungsprozess, in dem wir uns in der Beschäftigung mit der Zukunft immer wieder nur selbst erblicken. Moderne Prognostik muss diese Rekursion verstehen und mit ihr bewusst umgehen. Darüber hinaus bietet die Zukunftswissenschaft neuartige Zugänge zu Teildisziplinen der System- und Evolutionswissenschaften, der Probabilistik, Stochastik und Kognitionswissenschaft. Den alten Spruch von Karl Valentin, dass die Zukunft auch nicht mehr das ist, was sie einmal war, können wir auch umdrehen: Zukunftsforschung war noch nie so spannend wie heute – wenn man sich auf ihre Zumutungen einlässt.
Von John Naisbitt zu Big Data
In den frühen 80er Jahren gründete der Unternehmens- und Politikberater John Naisbitt in den USA ein Privatinstitut, das eine völlig altmodische Methode zum Erkennen von Trends nutzte. Naisbitt stellte Dutzende von Studenten an, die die amerikanischen Printmedien nach bestimmten Entwicklungen „scannten“ – mit der Schere. Ein simpler Recherche- und Ausschnittdienst, allerdings mit einem Auswerte- und Gewichtungssystem. Der Bedarf war gewaltig. Naisbitts Institut zählte bald hunderte von Großunternehmen und Regierungsstellen zu seinen Kunden, die etwas über Trends in Politik und Gesellschaft erfahren wollten.
Heute gibt das Internet der Zukunftsforschung völlig neue professionelle Instrumente der Datenerhebung in die Hand. Mächtige Tools wie Google Trends machen die Verfolgung von Begriffen möglich, die auf gesellschaftliche Aufmerksamkeiten hinweisen. Datengestützte Simulationsmodelle können in Echtzeit Modelle rechnen, von denen unsere Vorfahren in der Prognostik nur träumten. Infographische Systeme mit massiver Datenbasis, wie das von Hans Rosling geschaffene „Gapminder“, ermöglichen eine unglaubliche Tiefe von Information über weltweite Wohlstandsprozesse. In der Medizin spielt die Daten-Generierung heute eine ebenso große Rolle in der Diagnose (die ja immer auch eine Prognose ist) wie ein Medikament.
Der Autor Andrew Zolli schrieb in seinem Buch „Resilience“: „Wir durchdringen und überziehen die Welt mit Sensoren, und die Daten, die diese Sensoren erzeugen, sind mächtige Werkzeuge für das Management von Systemen und die Verbesserung ihrer Widerstandskraft gegen Krisen und Brüche.“
Mit massivem Dateneinsatz lassen sich heute Wirtschaftskrisen voraussagen. Wobei das Paradox bleibt, dass, wenn die Warnungen erst genommen würden, das Ereignis verhindert werden müsste – und damit die Prognose falsifiziert. Dennoch ist der Computer allein nicht der Zukunftsweisheit letzter Schluss. Nate Silver, einer der hier beschriebenen Newcomer der Prognostik, konnte den Ausgang der amerikanischen Präsidentenwahl exakt prognostizieren, weil er über völlig neue Meinungsdatenzugänge verfügte. Aber auch deshalb, weil er an seinen Modellen ständig feilte und zweifelte. Die neuen Zukunftswissenschaftler verbinden Big Data mit besseren theoretischen Modellen. Das ehrgeizigste Projekt in dieser Hinsicht ist sicherlich das „Zukunfts-Weltmodell“ von Dirk Helbing.
Von linearem Denken zu komplexen Evolutions-Modellen
Eine der bis heute in der Öffentlichkeit erfolgreichsten Prognose-Institutionen ist der Club of Rome. Die alarmistischen Werke von Meadows und seinem Team prägen seit den 70er Jahren die Zukunftsdebatte, die (falschen) Modelle des Clubs sind bis heute Grundlage vieler Angstdiskurse über die Zukunft.
Hinter dem Club-of-Rome-Denken steht das sogenannte „Welt-3-Modell“. Eine Art Simulationsmaschine, die unter der Maßgabe verschiedener Parameter verschiedene Zukunftsszenarien ausspuckte. Allerdings waren so gut wie alle Ergebnisse, egal mit welchen Daten man sie rechnete, katastrophal. Der Zusammenbruch der Weltbevölkerung, die finale Verseuchung der Biosphäre, die Weltwirtschaftskrise mit Milliarden Hungertoten waren in diesem Modell so gut wie zwangsläufig. Schon im Jahr 1973, direkt im Erscheinungsjahr der „Grenzen des Wachstums“, erschienen deshalb mehrere Studien, die das Meadows-Modell massiv kritisierten. In „Models of Doom“ wiesen Christopher Freeman und Marie Jahoda nach, dass das Club-Of-Rome-Modell von handwerklichen Fehlern nur so wimmelte.
„Das Modell enthält einfach keinen adaptiven Mechanismus, wie sie in der wirklichen Welt arbeiten, der Katastrophen verhindert und ,Overshoots‘ moderiert ... Mit ein paar kleinen Parameter-Veränderungen kann man den Weltuntergang 1980 oder 2000 haben – oder nie.“
Die Hauptfaktoren, mit denen das „Welt-3-Modell“ rechnet – Bevölkerungszahl, Kapitalinvestition, geographischer Raum, natürliche Ressourcen, Umweltverschmutzung – werden als fixe Größen dargestellt. Und untereinander auf unterkomplexe Weise verknüpft. „Natürliche Ressourcen“ etwa sind im Welt-3-Modell eine finite Masse, deren baldiger Verbrauch die Katastrophe auslösen muss. Die heutige Zukunftsforschung baut ihre Modelle auf spieltheoretischen oder evolutionären Parametern auf Den Boom alternativer Energien, die weiteren Produktivitätssteigerungen der Landwirtschaft, den gewaltigen Wohlstandsgewinn der Schwellenländer, die Wertewandelprozesse in Modernisierungsprozessen, die höhere Effektivität von Technologien und das Aufkommen der Umwelt-Märkte, die Verbesserung von Wirkungsgraden und Recycling- Techniken – all diese non-linearen Faktoren konnte das Welt-3-Modell nicht abbilden. Es rechnet die Welt als geschlossenes System. Als Maschine.
Die heutige Zukunftsforschung baut ihre Modelle eher auf spieltheoretischen oder evolutionären Parametern auf. Sie misstraut aus Erfahrung den mechanischen Formeln großer Weltmodelle, die, selbst wenn sie „ökologisch“ daherkommen, Korrelationen immer nur linear definieren können. Evolutionäre Modelle berücksichtigen den Kontextwandel, der in komplexen Systemen permanent stattfindet. Sie arbeiten in Differenzialgleichungen, nicht in klassischer arithmetischer Mathematik.
Von Utopie zu Dystopie – und wieder zurück
Die Zukunftsforschung bis zur Jahrtausendwende war vor allem durch zwei große Denkschulen geprägt. Einerseits der amerikanisch beeinflusste technologische „Futurismus“, der in den 60er Jahren eine ganze (Jungen-)Generation prägte. Zukunft war gleichgesetzt mit technologischer Erlösung – es ging um Weltraumträume, Allmachts-Visionen und „futuristische“ Umgebungen, in denen wir alle mit Atomautos durch die Luft fliegen und die Idee der „industriellen Vollautomatik“ alle Lebensbereiche erfassen würde. In den späten 70er Jahren entwickelte sich jedoch eine mächtige Gegen-Erzählung: Die Zukunft als Bedrohungsraum. Robert Jungk steht wie kein anderer für diese dystopische Dimension des Kommenden. „Zukunftsforschung“ wurde nun zum moralischen Appell, bei dem es um „Umkehr“ und „Beschränkung“ ging, um Protest, Widerstand und Verlangsamung – und mehr und mehr um ausschließlich moralische Argumentationen.
Die Spaltung des Zukunftsdiskurses in einen technisch-naiven Utopismus und einen fundamentalen Zivilisationspessimismus hält bis heute an. Sie spiegelt sich im anhaltenden Triumph der Doomsday-Prognostiker in der öffentlichen Meinung und der Verkürzung der Zukunftsdebatte auf einen Glaubensstreit: „Optimismus gegen Pessimismus“. Die neuen Prognostiker entziehen sich dieser Polarität. Sie agieren als „Possibilisten“. Systemische Prognostik richtet ihre Aufmerksamkeit auf die Wechselwirkungen zwischen Mensch und Technik, Ökonomie und Ressourcen. Ihre Denkweisen, Modelle und Methoden geben der Zukunft wieder einen Raum im Realen – weitab von den ideologischen Konzepten der Vergangenheit.
Future Errors: Die Rolle der Kognitionspsychologie
In den letzten Jahren beschäftigt sich auch die Psychologie mit der Frage der Zukunft. So untersuchte der Psychologe Philip Zimbardo die unterschiedlichen Erwartungsmentalitäten von Individuen und Kulturen. Er unterschied zwischen positiv-zukunftsorientierten und negativ-vergangenheitsorientierten Charakteren und Mentalitäten und entwickelte daraus einen „Zeitperspektiven“-Test. Auch die neuen Stars der experimentellen Kognitionspsychologie, wie der Nobelpreisträger Daniel Kahnemann, beschäftigten sich mit der Frage, wie Menschen, Kulturen und Gruppen Zukunft wahrnehmen und „prozessieren“. Dabei geht es vor allem um die Frage, wie und warum wir über die Zukunft irren.
Das evolutionäre Design des menschlichen Hirns befähigt es, Möglichkeiten und Gefahren im Zeitverlauf zu antizipieren. Unsere Vorfahren lebten jedoch in einer anderen Umwelt. In der Welt der Jäger und Sammler ging es um klare Fragen: Wann kommen die Tiere wieder? Wann wird es regnen? Wie können wir uns verteidigen? Für die Lösung dieser Antizipationen ist das menschliche Hirn konstruiert. Nicht unbedingt für das Verständnis einer vernetzten globalen Medienwelt.
Wenn wir heute wissenschaftliche Prognostik betreiben wollen, müssen wir die Selbsttäuschungen und Fehlschaltungen der humanen Kognition kennen. Die Kognitionspsychologie spricht zum Beispiel von:
- Confirmation Bias: Die Modelle in unserem Kopf sind von einem tiefen Bedürfnis nach Kohärenz geprägt. Wir suchen nach stimmigen Erklärungsmodellen immer im Sinne von Kausalitäten, die uns die Macht (oder Illusion) der Manipulation geben. Ist ein solches Kohärenzmodell einmal etabliert, filtern wir Informationen und Wahrnehmungen, die ihm widersprechen, konsequent aus. Der Apokalyptiker findet deshalb überall immer nur Beweise für den Untergang, der Technik-Euphoriker immer nur für die Lösbarkeit aller Probleme durch Technik.
- Availability Bias: Wenn wir Ereignisse oder Prozesse einordnen, greifen wir auf einen kollektiven Bildspeicher zurück, der von starken Emotionen geprägt ist. So wie sich jeder an den spezifischen Moment erinnert, als am 11. September die Al-Quaida-Flugzeuge in das World Trade Center flogen, ist unser Erinnerungsvermögen durch symbolische, meist furchterregende Bilder geprägt. Wir sehen immer mit den Augen einer drastischen Vergangenheit in die Zukunft. Oder, wie der Kognitionspsychologe Daniel Kahnemann formulierte: „We think of our future as anticipated memories.“
Von Mode- zu Megatrends
Wie „entstehen“ Trends, wer oder was „macht“ sie? Die Trendforschung der letzten Jahrzehnte hat überwiegend mit narrativen, poetischen Methoden gearbeitet. Ursprünglich als beobachtende Sozialforschung gestartet, ließ sie sich von ihren Geldgebern in die Pflicht nehmen. Und zu denen gehörten vor allem Werbeagenturen und Marketingabteilungen großer Firmen.
Trendforschung, die sich primär an der Werbe- und Marketingwelt orientiert, wird prinzipiell korrupt. Mit Wörtern wie „Wellness“ und „Cocooning“ kann man wunderbar Absatzförderung betreiben. Die Konsumindustrie baute sich mithilfe von Trendforschern eine Welt, in der es von schönen Innovationen und fröhlichen Konsumenten nur so wimmelte.
Trendforschung der neuen Art muss sich aus dem Dunstkreis des Marketings entfernen. Sie benötigt Empirie: Ihre Annahmen müssen sich in der Wirklichkeit messen und erfassen lassen. Trendforschung braucht Wissen um Rekursion: Die wichtigsten und stärksten Trends sind nicht selten Retro-Trends, in denen eben nicht immer nur das Neue, sondern das aus Alt und Trendforschung der neuen Art muss sich aus dem Dunstkreis des Marketings entfernen Neu Rekombinierte entsteht. Trenderkennung braucht mehr Bewusstsein für Interdependenzen: Trends bedingen und beeinflussen einander, und die Weise, in der sie das tun, können wir nur mithilfe eines validen sozio-ökonomisches Modells verstehen. Im Kern geht es deshalb immer wieder um die Mega-Trends – jene soziokulturellen und ökonomischen Struktur-Veränderungen, die sich über Jahrzehnte beobachten und verfolgen lassen, und die unsere Welt nicht in einer Saison, sondern, wie man so schön sagt, „nachhaltig“ verändern.
Die neu entdeckte Rolle des Zufalls
Nassim Taleb, der mit seinem berühmten Buch über die „Schwarzen Schwäne“ von sich reden machte, ist heute das Enfant terrible der Prognostik-Szene. Ein produktiver Provokateur, der die richtigen Fragen stellt. Ist nicht, so die grundlegende Fragestellung in seinem neuen Buch „Antifragilität“, jeder Versuch, die Zukunft zu prognostizieren, im tiefsten Sinne kontraproduktiv?
Sein Argument: Wenn du fragil bist, bist du davon abhängig, einem ganz genau geplanten Kurs zu folgen, mit so wenig Abweichung wie möglich. Deshalb muss das Fragile immer sehr „voraussagend“ sein – und deshalb erzeugen fragile Systeme Vorhersagbarkeit. Wenn du nach Umwegen suchst, und du hast kein Problem mit Störungen, weil ihr Resultat immer willkommen ist, dann bist du antifragil.
Je mehr wir versuchen, die Zukunft „vorauszusehen“, so Taleb weiter, desto wahrscheinlicher scheitern wir. Unternehmen, die eine große Prognose- Abteilung unterhalten, wiegen sich in falschen Sicherheiten und lügen sich selbst in die Tasche. Je mehr wir versuchen, unser persönliches Leben mithilfe In der neuen Prognostik geht es um eine neue Bewertung von Unsicherheit von Prognosen (etwa in der Partner- oder Berufssuche) perfekt zu planen, desto schneller geraten wir in die existentielle Krise. Zufall gehört zum Zukunftsprozess unweigerlich dazu, und wenn wir ihn negieren, verlieren wir unsere Anpassungsfähigkeit, unsere Evolutionskomptetenz. Wir werden „fragil“, wenn wir uns nicht mehr überraschen lassen wollen.
Das bedeutet auch für einen der Ur-Begriffe der Zukunftsforschung einen radikalen Bedeutungswandel: Vision. Visionen können einen Tunnelblick erzeugen, durch den ein Unternehmen (ein Individuum, eine Gesellschaft) in eine scheinbar deterministische Zukunft schaut. Helmut Schmidts Bonmot, „Wer Visionen hat, sollte lieber zum Arzt gehen“, ist in dieser Betrachtung gar nicht so unklug. Schlechte Zukunftsprognostik kann Firmen dazu bringen, das eigene Geschäftsmodell einzuengen. Statt innovativ und adaptiv wird das Unternehmen „zukunfts-starr“ – wie zahlreiche Beispiele von Banken, Autofirmen und Weltkonzernen aus Vor-Krisen-Zeiten belegen.
Es geht in der neuen Prognostik also um eine neue Bewertung von Unsicherheit. Zukunftsfähige Unternehmen verfügen über „robuste Fragilität“. Sie erhöhen ihre Adaptivität an die Zukunft nicht durch starre Formeln, sondern öffnen sich dem Fluss der Zeit, indem sie ständig neue Fragen an sich und ihre Kunden stellen. Wer sind wir, und wo wollen wir hin? Ist das, was wir bislang dachten, auch morgen noch richtig? Was wäre, wenn die Welt uns nicht mehr brauchte – und sollten wir womöglich gerade daran arbeiten (und uns darin neu erfinden)?
Von Science-Fiction zu neuer Reflexivität
Vor einigen Jahren beschloss der Erfinder des Cyberspace, der berühmte Romanautor William Gibson, keine Science-Fiction-Romane mehr zu schreiben. Seine Begründung lautete so: „Es geht nicht darum, dass die Zukunft nicht mehr spannend genug wäre, sondern darum, dass die Gegenwart um so vieles spannender ist. Die Zukunft vorherzusagen ist zu einer akademischen Aufgabe geworden. Viel dringender scheint es mir, die Gegenwart vorherzusagen. Heute passiert viel zu viel, als dass man noch normale Science-Fiction schreiben könnte.“
Vor der Zukunftsforschung liegt ein Paradigmenwandel. Wir können mit den richtigen Mitteln und Modellen tatsächlich immer mehr vorhersagen. Aber je komplexer und lebensnäher prognostische Modelle werden, desto deutlicher wird auch das eigentliche Zukunfts-Paradox: Zukunft kann nicht vollkommen vorherbestimmt sein, Es geht um ein tieferes Verständnis der Zusammenhänge, der Vernetzungen, in denen Wandel und Zukunft entsteht weil sie durch evolutionäre, nicht durch kausal-mechanische Prozesse bestimmt ist. Evolution ist ergebnisoffen und pfadabhängig, aber sie ist nicht deterministisch. Man kann Evolution nicht voraussagen, aber man kann sich auf sie verlassen. Und ihre Wege als Selbst-Organisation verstehen.
Damit müssen sich die Modelle und Methoden der Zukunftsforschung radikal verändern. Die wichtigste Aufgabe der Prognostik ist in Zukunft produktive Irritation. Es geht darum, die linearen Standard-Modelle der Welt, die in den Köpfen von Politikern, Managern und Meinungsbildnern herrschen, mit den Mittel komplexer Modellbildung herauszufordern. Es geht um ein tieferes Verständnis der Zusammenhänge, der Vernetzungen, in denen Wandel und Zukunft entsteht. In diesem Sinne nähert sich die neue Zukunftswissenschaft wieder der Philosophie an. Sie wird „mentaler“ und mathematischer gleichzeitig, psychologischer und diskursiver. Sie wird von einer Illusions-Magie zu einer reflexiven Disziplin des Wandels. War sie früher ein Fernrohr, durch das man – unter Ah!- und Oh!-Rufen – eher zum Vergnügen hindurchschaute, wird sie heute ein Spiegel, in dem wir uns selbst erkennen können.
Quellen:
H. S. D. Cole, Christopher Freeman: Models of Doom. A Critique of the Limits to Growth. 1973
Johannes Fischer: Wir leben im Cyberspace. Der Schriftsteller William Gibson über das Internet, die weltweite Vernetzung und seine Zukunftsangst. In: Berliner Zeitung, 01.07.2008
Oona Horx-Strathern: Die Visionäre – Eine kleine Geschichte der Zukunft von Delphi bis heute. 2008
Nassim Nicholas Taleb: Antifragilität. Anleitung für eine Welt, die wir nicht verstehen. 2013
Philip Zimbardo, John Boyd: The Time Paradox. The New Psychology of Time That Will Change Your Life. 2008
Andrew Zolli: Resilience. Why Things bounce back. 2012