Dossier-Bild Ein Artikel aus dem Dossier Terra Incognita
Märkte / Makro

Die Ökonomie erfindet sich neu

«Warum haben Sie die Krise nicht kommen sehen?», fragte die britische Königin Elizabeth bekannte Ökonomen im Jahr 2008. Vor allem die Makroökonomie sieht sich seither scharfer Kritik ausgesetzt, sowohl aus dem eigenen Lager als auch von aussen. Sie übersehe das Wesentliche. Stimmt das?

 Wie funktioniert die Wirtschaft wirklich? Seit der Finanzkrise treibt Ökonomen die Furcht um, die Wirklichkeit nicht mehr richtig zu verstehen. Von einer Krise ist die Rede, in der sich die Wissenschaft befindet: Seit drei Jahrzehnten entwickle sie sich rückwärts, schreibt Paul Romer diesen September, bevor er seine Tätigkeit als Chefökonom und Vizechef der Weltbank antritt. Das Urteil ist hart, auch deshalb, weil acht Jahre vergangen sind, seit Nobelpreisträger Paul Krugman die Zunft mit Kritik überhäuft hatte. Damals, unter dem unmittelbaren Eindruck des Hypotheken- und Bankencrashs, warf er ihr vor, lange an der Realität vorbei geforscht zu haben. Man habe analytische Schönheit, verpackt in beeindruckende mathematische Formeln, mit der Wahrheit verwechselt.

Verlässt man sich auf diese Urteile, dann gute Nacht! Die Wirtschaftswissenschaften stehen vor einer Vielzahl praktischer und theoretischer Herausforderungen: Minuszinsen, Schuldenberge, Finanzmarktrisiken, Produktivitätsrückgang und die Enttäuschung über die Globalisierung sind nur einige davon, auf die sie überzeugende Antworten finden muss. So schlecht wie sie aufgestellt ist, ist sie dafür nicht bereit. Schaut man sich jedoch in der Branche um, dann zeigt sich die Ökonomie in einem ganz anderen Zustand. Es herrscht Aufbruchstimmung.

«Wir befinden uns in einer kreativen Phase, ein absolutes Wachstumsgebiet», sagt Volker Wieland, Professor an der Universität Frankfurt und Mitglied des Deutschen Sachverständigenrats. In den letzten Jahren sei sehr viel geschehen.

Grosse Rezession statt grosse Moderation

Dass sich die herrschende Meinung der Ökonomie lange auf dem falschen Pfad befand, bestreitet heute niemand. Im Februar 2004, zwei Jahre bevor er Chef der US-Notenbank wurde, hielt Ben Bernanke eine Rede, die sich als prägend erweisen sollte. In ihr erklärte er, warum die Industrieländer seit zwei Jahrzehnten von schädlichen Ausschlägen verschont geblieben seien. Verbesserungen in der Geld- und Wirtschaftspolitik sowie des ökonomischen Verständnisses hätten dazu geführt, dass sich die Gesamtwirtschaft von einem ineffizienten Punkt A zu einem effizienten Punkt B verschoben habe, dozierte er anhand eines Kurvendiagramms. Volatilität sei passé, man befinde sich in einer Ära der Mässigung – der Great Moderation.

Das Referat spiegelte die Ergebnisse der renommiertesten Nationalökonomen, angeführt von Olivier Blanchard vom Massachusetts Institute of Technology (MIT), den Bernanke zitierte. Lehre und Forschung schienen den Konsens gefunden zu haben, wie die richtige Strategie von Notenbanken auszusehen hat – eine an Inflationszielen und -prognosen ausgerichtete Politik – und mit welchen Modellen die Wirtschaft am treffendsten simuliert werden kann (neukeynesianische Makromodelle).

Das war zu einfach, wie 2007 klar wurde, als die Spekulationsblase am US-Immobilienmarkt platzte. Eine Bank nach der anderen geriet in Existenznot. Die Weltwirtschaft schlitterte in die grosse Rezession. An den Folgen der Kreditkrise leidet sie noch heute, beispielsweise an einem unterdurchschnittlichen Wirtschaftswachstum und zu hohen Schulden.

Die Fehldiagnose hatte verschiedene Ursachen. Lehre und Forschung verschliefen die Auswirkungen der Deregulierung und Liberalisierung im Finanzsektor. Das Bilanz- und Ausserbilanzgeschäft von Banken und Finanzgesellschaften wuchs rasant und gewann immer mehr Gewicht in der Gesamtwirtschaft. Trotzdem vernachlässigte die Ökonomie dieses Phänomen. In der Analyse existierten Banken nur passiv, als «Schleier» über der realen Welt: Die Zinsimpulse der Notenbank werden über sie in die Gesamtwirtschaft übertragen, mehr nicht. Dass die Finanzbranche eigene Ziele verfolgt, Leitzinsimpulse der Notenbanken mal weiterleitet, mal nicht, wurde ausgeblendet.

Das hat sich inzwischen geändert. «Neu erklärt man auch in einem Einführungswerk, wie Banken und die Finanzmärkte funktionieren und welche Risiken von ihnen ausgehen können», sagt Aymo Brunetti, Wirtschaftsprofessor an der Universität Bern. Er hat sein Lehrbuch «Volkswirtschaftslehre» entsprechend überarbeitet. Auch die Geldpolitik wird inzwischen anders gelehrt. Zur traditionellen Steuerung der kurzfristigen Leitzinsen kommt etwa die unkonventionelle Geldpolitik, wie der Ankauf von Wertschriften, hinzu. «Das ist zwar nichts grundsätzlich Neues, denn beides sind Offenmarktgeschäfte», erklärt Brunetti. Aber die didaktische Herangehensweise sei heute anders.

Schwarze Schwäne und Open Source

Schwieriger ist es, die Mängel in den Modellen zu beheben. «In der Konjunkturprognose sind wir anders als früher mehr auf schwarze Schwäne bedacht», sagt Jan-Egbert Sturm, der Leiter des führenden Schweizer Konjunkturforschungsinstituts Kof und Professor an der ETH Zürich. «Uns wird vorgeworfen, dass wir zu wenig konkret sind, zu mathematisch denken und zu einfache Modelle verwenden. Dabei sind die Modelle immer komplexer geworden, um die Welt besser zu verstehen.»

Schwarze Schwäne sind unerwartete Ereignisse, die sich definitionsgemäss nur schwer voraussagen lassen. Aber in den herkömmlichen Makromodellen ist selbst eine leichte Trendabweichung weitgehend ausgeschlossen. Sie sind so konzipiert, dass sich die Wirtschaft immer auf ein Gleichgewicht zubewegt. Solche berechenbare allgemeine Gleichgewichtsmodelle treffen Annahmen, die wenig mit der Wirklichkeit zu tun haben: Optimal funktionierende Märkte, vollständige Konkurrenz, das Fehlen von Banken, Schulden etc. Sie passen in die blauäugige Sicht der Great Moderation. Aber diese Zeiten sind vorbei.

Die Wirtschaftswissenschaft arbeitet daran, die Fehler zu beheben. In neuen Makromodellen spielen Ungewissheiten eine wichtigere Rolle. Sie enthalten Wahrscheinlichkeitsverteilungen und berücksichtigen Nebenszenarien und Risiken, die sogenannten Tail Risks. Persönliche Verhaltensmuster oder Kreditrisiken finden Eingang. Mikroökonomische Aspekte bereichern also die makroökonomische Analyse (vgl. Kasten)

Die Kritik am Vorgehen der Makroökonomen hat sich trotzdem nicht gelegt. Reformvorstösse, die neukeynesianische Koryphäen in Blog-Beiträgen vorschlagen, werden von Berufskollegen regelmässig zerzaust. Noch immer würden unrealistische Gleichgewichtsmodelle eingesetzt, nicht nur in der Forschung, sondern auch in der Praxis, beispielsweise von den Notenbanken, wenn sie ihre Geldpolitik beschliessen. Steve Keen, Ökonomieprofessor an der Kingston University in London, ist einer davon. Er rät, über den Tellerrand zu blicken: Die Meteorologie habe Erfahrung in der Erforschung komplexer Systeme, die sich nie im Gleichgewicht befänden, sondern hochgradig instabil seien. Davon sollten sich Ökonomen eine Scheibe abschneiden.

Den innovativsten Ansatz, um den Wandel voranzutreiben und Kritiker einzubinden, hat Volker Wieland gefunden. Er entwickelte eine offene Datenbank für Modelle und fordert Forscher auf, die Formeln und Codes der von ihnen entwickelten Modelle dort einzuspeisen. Dadurch werden sie von anderen Ökonomen nachgerechnet, angewendet und allenfalls verbessert – ein Open-Source-System im Dienst der Wissenschaft. Davon werden alle profitieren, ist Wieland überzeugt, und werden die Wirtschafts- gegenüber anderen Wissenschaften aufholen. Denn häufig fehlt es auch dort an transparenter Diskussion.

Der Praxistest: Prognose und Beratung

Lehre und Forschung haben sich also neu aufgestellt. Ob sich der lädierte Ruf der Ökonomie aber wirklich verbessert, hängt davon ab, wie sie sich in der Öffentlichkeit schlägt. Treffen die Prognosen ins Schwarze? Sind die Lösungsvorschläge für wirtschaftspolitische Probleme praktikabel? «Es dauert, bis die vielen neuen Forschungsergebnisse in den Wirtschaftsprognosen auch umgesetzt werden», weiss Sturm und dämpft zu grosse Hoffnungen. Die Ökonomie funktioniert da ähnlich wie die Industrie: Die zugrundeliegende Technologie für das iPhone gab es schon früh, aber das Endprodukt war erst Jahre später bereit.

Ähnlich sieht es in der wirtschaftspolitischen Beratung aus. Meilensprünge sind dort keine zu erwarten. Ökonomie ist eine empirische Disziplin, die aus der Erfahrung aus der Vergangenheit und eben auch aus Fehleinschätzungen lernt. Wenn keine Vergleichsdaten analysiert werden können, weil es sich um präzedenzlose Phänomene handelt, rücken qualitative Erhebungen und theoretische Überlegungen in den Vordergrund – so wie  etwa bei der Beurteilung negativer Nominalzinsen: Jahrzehntelang galten sie als unmöglich, bis sie die dänische Notenbank 2012 als erste einführte. Über die direkten und indirekten Folgen dieser neuen Geldpolitik, die in immer mehr Ländern angewendet wird, tappen alle im Dunkeln: Praktiker und Professoren.

Die Eurokrise ist eine weitere Belastungsprobe. Alte, überwunden geglaubte Gegensätze der ökonomischen Lehre prallen aufeinander. Die einen erkennen in Südeuropa ein makroökonomisches Problem der ungenügenden Nachfrage, die anderen mikroökonomische Friktionen wie verkrustete Arbeitsmärkte. Im ersten Fall sollen höhere Staatsausgaben die Konjunktur in Gang bringen, schlagen Keynesianer vor. Angebotsökonomen halten das für sinnlos und fordern mit Blick auf den zweiten Fall Strukturreformen, damit die Wirtschaft wettbewerbsfähiger wird. In der Praxis gilt es dann, ein Massnahmenpaket zu schnüren, das politisch durchsetzbar ist. Denn «ein Ökonom, der die Politik berät, muss die politische Ökonomie berücksichtigen. Sonst sei er ein Träumer», sagt Brunetti.

Die moderne Ökonomie sollte sich nicht auf orthodoxe Lagerkämpfe einlassen. Aber sie muss die Kontroverse zulassen. In den letzten Jahren ist sie wieder vielfältiger geworden. Neue Meinungen und neue Ansätze setzen sich durch. Das ist gut so. Denn die Welt ist komplex – wieso sollte es die Ökonomie nicht ebenfalls sein?

 

Oliver Blanchard vormalige Chefökonom des IWF erläutert neue Trends in Lehre und Forschung:
» Hier zum Interview

 

Neue Ansätze, neue Begriffe

Die Geschichte der Ökonomie ist die Geschichte gegensätzlicher Denkschulen. John Maynard Keynes’ «Allgemeine Theorie», die er unter dem Eindruck der Massenarbeitslosigkeit der Dreissigerjahre schrieb und 1936 publizierte, dominierte jahrzehntelang die Wirtschaftswissenschaften. Sie widersprach der klassischen Idee von der Selbstheilungskraft des Marktes. Keynesianer gehen nicht davon aus, dass über Preis- resp. Lohnanpassungen Abweichungen vom optimalen Trend rasch korrigiert werden. Sie rechnen mit starren Preisen und Löhnen, die Nachfragelücken oder Angebotsüberhänge festschreiben. Solche gesamtwirtschaftlichen Ungleichgewichte muss dann die Regierung mit Konjunkturprogrammen bekämpfen.

Heute ist häufig von Neukeynesianern die Rede. Sie formierten sich in den Sechzigerjahren, als das keynesianische Denkmodell die Realität nicht mehr spiegelte und neoklassische Ansätze mehr überzeugten, weil sie mikroökonomische Prozesse zur Erklärung gesamtwirtschaftlicher Zusammenhänge heranzogen. Neukeynesianer kombinieren beide Ansätze: Sie legen starre Preise und Löhne zugrunde, verbunden mit vorausschauenden Haushalten und Unternehmen, die ihren Nutzen maximieren.

Die fundamentalen Gegensätze spielen inzwischen eine geringere Rolle. In Lehre und Forschung wurde ein Kompromiss gefunden. 95% der Ökonomen seien kurzfristig sogenannte Keynesianer und langfristig Angebotsökonomen, bringt es Aymo Brunetti auf den Punkt.  Zwar gibt es in den USA immer noch die Trennung zwischen den neukeynesianisch dominierten Universitäten an der Atlantikküste wie Harvard und dem MIT («Saltwater Economists») sowie den im Inland angesiedelten Instituten in Chicago und Minnesota («Freshwater»). Aber selbst Paul Krugman, einer der offensivsten Vertreter der Salzwasser-Ökonomie, erklärt, dass die junge Generation von Forschern pragmatisch vorgehe und weniger Berührungsängste habe als früher.

Zu den neuen Strömungen zählt die heterodoxe Ökonomie, die sich gegen den Mainstream stellt und alternative Ansätze sucht. In der Forschungspraxis geht es mehr denn je darum, zu Modellen und Erklärungen zu gelangen, die robust sind, d. h. gültig und anwendbar bleiben, auch wenn die Realität sich anders entwickelt als erwartet oder bisher als optimal erachtete wirtschaftspolitische Ansätze sich als falsch erweisen. Und sie müssen replizierbar sein, d. h. von allen wiederholt werden können.

Was sind Makroökonomen?

Wirtschaftliches Handeln lässt sich von vielen Seiten beleuchten. Wenn es um die Frage geht, wie sich die Gesamtwirtschaft entwickelt, dann sind Makroökonomen am Werk. Im Gegensatz dazu konzentriert sich die Mikroökonomie auf das Verhalten einzelner Wirtschaftssubjekte – Haushalte und Unternehmen – in Teilbereichen wie dem Arbeits- oder dem Finanzmarkt.

Ein Konjunkturforscher – in der Regel ein Makroökonom, weil er die Entwicklung des Bruttoinlandprodukts vorhersagen will – muss all diese einzelnen Märkte miteinander verbinden. Um einen Überblick über die unzähligen komplexen Verbindungen zu erhalten, ist es unerlässlich, die Zusammenhänge zu vereinfachen. Der Makroökonomie wird das allerdings vorgeworfen: Sie hat die Realität zu stark vereinfacht. Man denke nur an das realitätsferne Menschenbild des rationalen Homo oeconomicus oder an die Überzeugung von der Selbstheilungskraft des Marktes.

Kritik kommt vor allem von mikroökonomischer Seite. Beispielsweise plädieren Verhaltensökonomen dafür, dass «menschliche» Eigenschaften stärker berücksichtigt werden. Kauft jemand ein neues Auto, weil es rational betrachtet erforderlich ist oder weil der Nachbar kürzlich ein neues, schöneres Modell erworben hat?

Schon vor der Finanzkrise gab es in der Makroökonomie die Tendenz, mehr mikroökonomische Ansätze zu nutzen. Sie wurden mathematisch aufbereitet und in die gesamtwirtschaftlichen Modelle eingebaut. Das ging so weit, dass mancher Forscher die in den letzten Jahren verwendeten Makro- im Kern als Mikromodelle bezeichnet. Mikroökonomische allgemeine Gleichgewichte wurden auf dynamische gesamtwirtschaftliche Phänomene übertragen. Das sind die sogenannten DSGE-Modelle (dynamische stochastische allgemeine Gleichgewichtsmodelle). Sie stehen heute stark in der Kritik. Aber es gibt keine echte Alternative. Es geht künftig darum, sie realitätsnäher zu modellieren – oder doch noch die Alternative zu finden.

Weitere Artikel aus dem Dossier «Terra Incognita»

Alle Artikel »

Leser-Kommentare