Eurozone: Wenn Abwanderung eine Währungsunion sprengen kann

Eine der Kritikpunkte an der Eurozone war von Beginn an, dass sie kein optimaler Währungsraum sei. Dieser Begriff wurde 1961 von Robert Mundell geprägt — in einer im System von Bretton-Woods weitgehend akademischen Diskussion, ob ein System mit flexiblen Wechselkurse überhaupt effektiv und effizient anwendbar ist. Wenige Jahre später waren die „akademischen Diskussionen“ plötzlich hochrelevant geworden!

Mundell und seine Nachfolger stellten die These auf, dass in einem optimalen Währungsraum die Kapital- und die Arbeitsmobilität hoch sein sollten, um asymmetrische Schocks, also wirtschaftliche Ereignisse, die regional unterschiedlich wirken, auszugleichen. So kann etwa ein Einbruch der Ölindustrie in Schottland nicht durch eine Abwertung des Pfunds ausgeglichen werden, die ganz Großbritannien treffen würde. Auch kann nicht die Ostküste Schottlands mit der Ölindustrie für sich abwerten. Aber durch eine „innere Abwertung“, durch Abwanderung von Arbeitnehmern und Kapital kann wiederum ein interner Ausgleich erfolgen. Nur dort, wo so ein Ausgleich möglich ist, sollte ein Währungsraum gebildet werden.

Nun ist die Mobilität in der Eurozone schon wegen der Sprachbarrieren nicht so hoch wie etwa in den USA. Aber Mobilität hat auch ihre Schattenseiten: Sie höhlt z.B. die generationenübergreifende Solidarität aus — und die Steuerbasis, und damit die Reaktionskraft regionaler Regierungen.

Mobile Arbeitnehmer: Eine Gefahr für den Währungsraum?

Hier setzen Angelo Baglioni, Andrea Boitani und Massimo Bordignon an, die im FinanzArchiv einen Artikel über „Labour Mobility and Fiscal Policy in a Currency Union“ publiziert haben. Eine Vorversion kann man bei CESifo lesen.

Sie skizzieren so eine Art Teufelskreis, der bei starker Mobilität entstehen kann: Bei einer Krise, die regional besonders stark wirkt, könnte die regionale Regierung zumindest stabilisierend eingreifen. Da aber jeder weiß, dass in der Krise die Steuerbasis wegbrechen kann, ist auch die Regierung nicht mehr in der Lage, die Mittel aufzunehmen, um die Effekte der Krise zu dämpfen. Dadurch werden die Auswirkungen der Krise noch größer.

Dagegen hülfe nun entweder eine Koordination der regionalen Regierungen oder eine Zentralisierung von Budgetkompetenzen im Währungsraum. Oder aber eine geringere Mobilität der Arbeitskräfte, wie es bei einer regionalen Bewältigung asymmetrischer Krisen von Vorteil wäre.

Eine Theorie im Praxistest

Das ist alles nicht bloß Theorie. So leiden Griechenland und Portugal an massiven Auswanderungsströmen junger Fachkräfte. Dadurch wird es für beide Länder noch schwieriger, ihre finanzielle und wirtschaftliche Lage zu stabilisieren. Bei „perfekter Mobilität“ wäre die ohnehin schon prekäre Situation der beiden Länder wohl gänzlich hoffnungslos, da sie schon auf Grund der Alterspyramide große Zahlungsverpflichtungen bei rasch schrumpfenden Einnahmen verzeichnen würden.

Ein Fazit: Umso stärker die Mobilität, umso mehr „Vergemeinschaftung“ der Budgets wird auf die eine oder andere Weise folgen.

Advertisements

Banken: Tut das Zauberwort „Eigenkapital“, was es soll?

Das Zauberwort, mit dem Banken krisenfest gemacht werden sollen, heißt „Eigenkapital“. Dar war auch die Stoßrichtung von „Basel III“. So müssen Banken nach den EU-Eigenkapitalvorschriften, VO 575/2013/EU und RL 2013/36/EU, mit denen Basel III in der EU umgesetzt wurde, eine harte Kernkapitalquote von 4,5%, eine Kernkapitalquote von 6%, eine Gesamtkapitalquote von 8% des risikogewichteten Forderungsbetrags sowie einen Kapitalerhaltungspuffer von 2,5% aufweisen. Zusätzlich sind antizyklische Kapitalpuffer zu halten; eine von den Mitgliedstaaten vorzugebender Systemrisikopuffer und ein Puffer für systemrelevante Institute ergänzen das Pflichtenheft. Wer sich vertiefen will: Die genauen Definitionen, was als Kernkapital, hartes Kernkapital usw. zu rechnen ist, erstrecken sich über Dutzende Artikel.

Doch haben all diese Maßnahmen überhaupt den erwünschten Effekt? Nun, den ersten Effekt einer gedrosselten Kreditvergabe hatten sie jedenfalls. Aber den zweiten Effekt, eine neuerliche Finanzkrise zu verhindern, eher nicht, wie Òscar Jordà, Björn Richter, Moritz Schularick und Alan M. Taylor in der Arbeit „Bank Capital Redux: Solvency, Liquidity, and Crisis“ darlegen. (Bei der Federal Reserve Bank of San Francisco in einer Vorversion ohne Schranke zu lesen.)

Rasches Kreditwachstum als Warnsignal

Die vier Autoren haben die Daten über die Passiva der Banken in siebzehn Ländern in einer Längsschnittstudie über 143 Jahre hinweg verglichen. Dabei entdecken sie keinen Zusammenhang zwischen der Höhe der Eigenkapitalquoten und dem Risiko systemischer Finanzkrisen.

Stattdessen waren ein beschleunigtes Kreditwachstum, die Bedeutung großer Kreditgeber für die Finanzierung einer Bank, und das Verhältnis von Krediten zu Einlagen gute Indikatoren für kommende Finanzkrisen. Besonders das Kreditwachstum — ein Befund, der in der Literatur schon länger gemacht wird.

Es gibt natürlich auch gute Argumente dafür, warum die Eigenkapitalquoten vorher wenig aussagen: Weil ein höherer Kapitalpuffer z.B. auch Ausdruck größerer Risken bei den Aktiva sein kann, oder geringeren Vertrauens in die Tüchtigkeit der Geschäftsführung. So oder so verlangen die Geschäftspartner einen höheren Kapitaleinsatz durch den Eigentümer.

In der Krise macht sich Eigenkapital bezahlt

In der Finanzkrise macht sich aber Eigenkapital bezahlt, da mangelndes Eigenkapital Notverkäufe von Anlagen wahrscheinlicher macht und die Fähigkeit der Banken reduziert, selbst durch Kreditvergabe oder -streckung die Wirkungen der Krise zu glätten.

Die Höhe des Bank-Eigenkapitals zu Beginn einer Krise hat in der Studie eine signifikante Auswirkungen auf die wirtschaftliche Erholung.

Einen Haken hat die Sache: Die Eigenkapitalquoten waren zu Beginn der Zeitreihen wesentlich höher und haben sich erst mit Ende des Zweiten Weltkriegs in einem gleichbleibenden Korridor eingependelt. Es könnte sein, dass die dynamische Wirtschaftswelt der Zeit vor dem Ersten Weltkrieg die Ergebnisse verfälscht, da damals (1) die Eigenkapitalquoten hoch waren, es (2) immer wieder Finanzkrisen gab, die aber (3) im allgemeinen technischen und wirtschaftlichen Aufschwung bald wieder überwunden waren.

Das BIP und unbezahlte Arbeit oder: Sind wir nicht so viel reicher geworden, wie wir glauben?

Das Bruttoinlandsprodukt ist schon aus vielen Gründen als Wohlstandsindikator kritisiert worden. Aber auch in seiner ureigensten Eigenschaft als Meßgröße ökonomischer Aktivität gibt es ein ganz großes Loch: Jene Aktivitäten, die nicht als Marktransaktion geleistet werden, sondern im Haushalt, werden nicht abgebildet.

Gerade in aufstrebenden Ländern bilden diese Haushaltsaktivitäten einen bedeutenden Teil der wirtschaftlichen Tätigkeiten, doch auch in den sogenannten Industrieländern sind sie nicht unbedeutend. Doch wie bewertet man die Pflege des Vaters nach einem Schlaganfall, die Betreuung der Kinder, das Kochen für die ganze Familie, die Handwerksleistungen der Heimwerker?

In den USA wurde versucht, anhand von Studien über die Zeitverwendung sich der Haushaltsproduktion anzunähern. Den hochgerechneten Stunden, die von den Amerikanern für verschiedene Tätigkeiten der Haushaltsproduktion verwendet werden, wurde das gängige Gehalt für vergleichbare Markttätigkeiten zugeordnet. Näheres (mit weiteren Verweisen) und einigem Hintergrund dazu kann man bei Timothy Taylor lesen, der sich wiederum auf Benjamin Bridgman bezieht (pdf).

Mit dieser Methode wird die Haushaltsproduktion von 1965 mit 37% des regulären BIP bewertet, 2014 mit 23%. Ein Teil des zwischenzeitlichen Wirtschaftswachstums war also Scheinwachstum, da nicht bewertete Haushaltsproduktion durch Marktproduktion ersetzt wurde. Für Deutschland hat das Statistische Bundesamt geschätzt, dass 2013 die Bruttowertschöpfung aus der Haushaltsproduktion etwa 39% der Bruttowertschöpfung im regulären BIP beträgt; 1992 wären es noch 45% gewesen. Gudrun Biffl hat 1989 für Österreich eine Bewertung in der Höhe von 30-38% des regulären BIP vorgenommen.

Das ist jetzt keine Neuigkeit und war in vielen Fällen für die Betroffenen oft ein Gewinn: Haushaltsproduktion ist in der Regel „Allround“-Produktion, Marktproduktion erfolgt spezialisiert und damit effizienter. Für viele hat der Tausch also mehr Freizeit gebracht, aber sicher nicht allen. Anekdotisch fallen mir selbst Fälle ein, bei denen die reine Haushaltsproduktion ein flexibleres, selbständigeres Leben ermöglicht hat, als es bei Wechsel in die Berufswelt und Zukauf der gleichen Leistungen möglich gewesen wäre.

Das ist auch einer der Gründe, warum der Trend zur Teilzeit bei so vielen Menschen zieht: Durch die Teilzeit hat man mehr Zeit, Aufgaben für den Haushalt selbst zu erledigen, die man sonst zukaufen müsste — und möglicherweise nicht in der Qualität, die man selbst bereitstellen kann. Von der gewonnen Flexibilität gar nicht zu reden.

So gilt über das Wirtschaftswachstum der vergangenen Jahre, was Tyler Cowen anmerkt: „Die große Stagnation war schlimmer, als du gedacht hast“. Passt gut zu seinem Lieblingssatz: „Wir sind nicht so wohlhabend, wie wir gedacht haben, dass wir es wären.“

Wirtschaft: Das Burgenland holt auf, Wien ist Schlusslicht

Wenn es eines Beweises bedurft hätte, dass jeweilige Politik eines Bundeslandes auch erheblichen Einfluss auf die wirtschaftliche Entwicklung der Region hat, so bräuchte man nur einige Kennzahlen der letzten Jahre vergleichen. Die weisen nämlich auf eine stark divergierende Entwicklung einzelner Regionen hin. Alle im folgenden Zahlen stammen von der Statistik Austria, wobei die Werte für 2015 vorläufig sind.

Index des Bruttoregionalprodukts zu laufenden Preisen

Index des Bruttoregionalprodukts zu laufenden Preisen

Der Vergleich des Bruttoregionalprodukts zu laufenden Preisen weist Wien und Kärnten als Bundesländer mit dem niedrigsten Wachstum aus. Die Voraussetzungen dafür sind aber verschieden. In Kärnten schrumpft die Bevölkerung, in Wien wächst sie. Tirol, Vorarlberg, das Burgenland, Salzburg und Oberösterreich weisen ein recht einheitlichen Trend auf, der auch mit der soliden Standortpolitik in diesen Regionen zu erklären ist. Das Burgenland hat zudem die EU-Förderungen vergleichsweise gut zum Anschub der eigenen wirtschaftlichen Entwicklung genutzt. Niederösterreich und die Steiermark folgen etwas dahinter, und dann mit deutlichem Abstand die Schlusslichter.

Index des Bruttoregionalprodukts pro Kopf

Index des Bruttoregionalprodukts pro Kopf

Berücksichtigt man die Bevölkerungsentwicklung, so ist das Ergebnis dramatischer. Das Burgenland erweist sich hier als besonders dynamisch, Wien fällt dagegen noch weiter zurück. Der Zuzug nach Wien besteht eben aus besonders unproduktiven Personen; Unternehmen wandern dagegen auf Grund der Belastungs- und Widmungspolitik ins Umland ab. Wäre nicht das Bruttoregionalprodukt, das ja die Schaffung von Gütern und Leistungen erfasst, sondern das verfügbare Einkommen pro Kopf die Maßzahl, stünde Wien übrigens noch schlechter da. Viele gut verdienende Menschen erwirtschaften nämlich ihre Einkommen in Wien, wohnen aber in Niederösterreich: Im Bruttoregionalprodukt wird das für Wien gezählt, bei der Einkommensstatistik für Niederösterreich.

Index der geleistetem Arbeitsstunden der Beschäftigten nach Bundesland.

Index der geleistetem Arbeitsstunden der Beschäftigten nach Bundesland

Dass die Wiener Wirtschaft vergleichsweise unproduktiver geworden ist, kann man der Graphik über die geleisteten Arbeitsstunden entnehmen. Diese — auf Grund von Erhebungsschwierigkeiten mit Vorsicht zu genießende — Maßzahl zeigt, dass Wirtschaftswachstum und geleistete Stunden keine perfekten Korrelate sind. Im Burgenland sind etwa die Stunden gesunken, die Wirtschaft aber kräftig gewachsen: Offenbar wurden produktivere, höherwertige Arbeitsplätze geschaffen, während einige weniger produktive Jobs verschwunden sind. In Kärnten spiegelt sich die Überalterung des Bundeslandes in der Arbeitsstatistik wieder. Dass Wien aber ein sehr verhaltenes Wachstum zeigte, wäre aus der Stundengraphik nicht ersichtlich, in der sich Wien im Mittelfeld platziert.

Index der Bruttoanlageinvestitionen nach Bundesländern

Index der Bruttoanlageinvestitionen nach Bundesländern

Wirtschaftswachstum kommt heutzutage selten aus einer Steigerung der puren Arbeitszeit, sondern aus Investitionen: Ausrüstung, durch die Menschen produktiver arbeiten können, von Maschinen über Gebäude bis zur Software, und Ausbildung. Die Investitionen in Anlagegüter geben ein gutes Bild davon, dass Wien ein ernstes Problem hat. Dabei sind darin die Gebäudeinvestitionen enthalten, die ja in Wien in den letzten Jahren eifrig forciert wurden. Steiermark und Kärnten sind hier ebenfalls zurückgefallen, die Steiermark dabei bereits seit vielen Jahren. Es stellt sich die Frage, ob nicht Teile der steirischen Wachstumsschwäche hausgemacht sind. Offenbar hat man sich auf den Lorbeeren ausgeruht: Nach der Verstaatlichtenkrise hat eine aktive Standort- und Innovationspolitik die Steiermark aus dem Gröbsten gerettet und zu einem sehr beachteten wirtschaftlichen und kulturellen Spieler gemacht.

Bei der Entwicklung des verfügbaren Einkommens pro Kopf gleicht der österreichische Sozialstaat vieles aus. Fast alle Bundesländer weisen in der Zeit von 2000 bis 2015 ein durchschnittliches Wachstum des verfügbaren Einkommens pro Kopf zwischen 2,46% (Tirol) und 2,52% (Kärnten [!]) auf. Lediglich Wien schert mit einem Wachstum von durchschnittlich 1,34% p.a. deutlich nach unten aus, das Burgenland mit 2,80% p.a. nach oben. Wien ist damit von Platz 1 auf Platz 8 der Bundesländer gerutscht und wurde 2016 wahrscheinlich von Kärnten überholt. Und wenn nicht 2016, dann heuer. Übrigens hat der Abstieg Wiens schon lange vor der Flüchtlingskrise begonnen, falls jemand diesen Verdacht haben sollte. 2007 übernahm Niederösterreich die Führung, 2012 Vorarlberg. Wien rutschte schon 2010 auf Platz 3, 2011 auf Platz 4, 2012 auf Platz 5, 2013 auf Platz 7 und 2014 auf Platz 8.

Wien ist also auf dem Weg zum Schlusslicht. Doch auf Grund seiner schieren Größe ist das Versagen der Wiener Politik ein Problem für ganz Österreich, das auch die Menschen in den übrigen Bundesländern teuer zu stehen kommen wird.

Ungleichheit und ihr großer Einebner

Walter Scheidel: The Great Leveler

Walter Scheidel: The Great Leveler

Wann war die Ungleichheit in der Gesellschaft am geringsten? Dann, wenn große Katastophen wie der Schwarze Tod des 14. Jahrhunderts oder die beiden Weltkriege samt Völkermorden im 20. Jahrhundert gewütet haben. Diese These ist nicht neu, wird nun aber von Walter Scheidel von der Stanford Universität auf über 500 Seiten gründlich untermauert.

„The Great Leveler — Violence and the History of Inequality from the Stone Age to the Twenty-First Century“ heißt der ambitionierte Band, also etwa „Der große Einebner — Gewalt und die Geschichte der Ungleichheit von der Steinzeit bis ins einundzwanzigste Jahrhundert.“ Aber nicht von einem Ökonomen geschrieben, den aktuelle Gleichheitsdebatten umtreiben, sondern von einem Historiker — mit dem Schwerpunkt Altertumskunde. Das hat seine Bewandtnis, wenn man Walter Scheidels Forschungsschwerpunkte betrachtet.

Der gebürtiger Wiener hat sich z.B. 1998 in Graz mit dem Thema Demographie im Römischen Reich habilitiert: „Measuring Sex, Age and Death in the Roman Empire. Explorations in Ancient Demography.“ Seither hat er sich weiter mit Demographie, aber auch dem Wirtschaftsleben des Römischen Reichs beschäftigt, mit der Finanzierung antiker Staatswesen und anderen Themenfeldern, die auch vom Thema der Einkommens- und Vermögensverteilung berührt werden.

Und dabei hat er bemerkt, dass schon in der Antike längere Zeiten halbwegs friedlicher, prosperierender Entwicklung eindeutige Konzentrationseffekte beim Wohlstand hervorgebracht haben — die etwa von der Katastrophe der Völkerwanderung wieder umgekehrt wurden. Freilich liefert er keine „große Theorie“ der Ungleichheitsentwicklung, und er prognostiziert auch nicht, wie es weitergehen wird. Gregory Clark weist in seiner Buchsprechung darauf nachdrücklich hin.

Die „Presse“ hat Scheidel schon letzten März interviewt — bevor das Buch noch erschienen ist. Darin nennt er recht nachdrücklich die großen Einebner: Massenkriege, Revolutionen, Zusammenbrüche von Zivilisationen und Seuchen. Immer aber werden nicht nur die Reichen ärmer, auch viele Arme kommen gehörig unter die Räder bzw. ins Grab.

Übrigen habe ich schon einmal ein Werk von Walter Scheidel besprochen, nämlich ORBIS, den Routenplaner fürs Römische Reich. Und das Thema der historischen Vermögens- und Einkommensverteilung war erst vor kurzem hier präsent, nämlich in einem Artikel über Alfanis Arbeit zu italienischen Vermögensdaten vom Mittelalter bis ins späte 18. Jahrhundert.

Macht die Digitalisierung arbeitslos?

Wird die weiter fortschreitende Automatisierung den Großteil der Menschen arbeitslos machen? Das ist eine der Befürchtungen, die seit Jahrhunderten im Zuge technischer Veränderungen geäußert wurden. Das bedeutet natürlich nicht, dass die Befürchtung nicht einmal korrekt sein könnte.

Johannes Schweighofer hat letztes Jahr in „Wirtschaft und Gesellschaft“ einen interessanten Aufsatz veröffentlicht, in dem er den aktuellen Stand der Forschung diskutiert.

So wird in der Literatur debattiert, ob für die zunehmende Automatisierung hohe akademische Bildung der beste persönliche Rettungsanker ist, oder aber die Mitte des Arbeitsmarkts wegbricht: Während besonders abstrakte Aufgaben, die z.B. viel Kreativität verlangen, und manuelle Tätigkeiten, die rasche Reaktionen auf die jeweilige Situation und persönlichen Kontakt erfordern, bestehen blieben, würden Berufe mit standardisierten Abläufen unter die Räder kommen. Diese „Polarisierungshypothese“ ließe sich regional empirisch nachweisen, wobei nicht bloß Automatisierung, sondern auch die Verlagerung der Produktion in andere Länder dafür verantwortlich sei. Es gebe aber auch widersprechende Befunde.

Der Hype um „Industrie 4.0“ wird von Schweighofer nicht geteilt. Tatsächlich gebe es große Umwälzungen, doch die früher prognostizierten Wachstumsschübe und positiven (!) Beschäftigungseffekte haben sich nicht eingestellt, doch aus das Gegenteil massiver Arbeitsplatzverluste nicht.

Während die langfristigen Folgen der Fortschritte in der Automatisierung in der Industrie und im Dienstleistungssektor (Stichworte Digitalisierung, Neuronale Netzwerke) enorm sein würden, seien kurzfristig keine dramatischen Umwälzungen zu erwarten, so Schweighofers Resümee der bisherigen Empirie.

Die generelle Arbeitslosigkeit ist meiner Meinung nach aber ohnehin schon auf Grund folgender ökonomischer Gesetze nicht zu befürchten: Des Gesetzes des komparativen Vorteils und des Say’sche Theorems.

Ersteres sagt: Auch wenn A alle Güter besser erzeugen kann als B, wird der Gesamtwohlstand höher sein, wenn sich A und B jeweils auf das spezialisieren, worin sie vergleichsweise besser sind, und miteinander in Handel treten. Letzteres, oft überzogen interpretiert, sagt nichts anderes als: Wir produzieren, um zu konsumieren. Das Tauschmittel Geld verstellt oft den Blick auf diese einfache Tatsache. Menschen arbeiten, um entweder die Früchte ihrer Arbeit selbst zu konsumieren oder gegen andere Güter zu tauschen. Daher ist es in einer freien Gesellschaft auch bei hoher Automatisierung selbstverständlich, dass Menschen weiter arbeiten werden.

Freilich sagt das wenig über die sozialen Umstände aus, die dann herrschen. Aber schon jetzt ist die Wahl zwischen hohen Mindestlöhnen bzw. Lohnkosten und niedriger Arbeitslosigkeit ein reales Problem vieler Länder. Die Frage wird also nicht sein: Gibt es genug Arbeit? sondern: Wollen wir die Bedingungen, unter denen diese Arbeit geleistet werden müsste, akzeptieren.

Angus Deaton, Nobelpreisträger

Der Nobelpreis für Wirtschaftswissenschaften1 geht also an Angus Deaton, Universitätsprofessor für Wirtschaftswissenschaften und Internationale Angelegenheiten in Princeton. Gerade rechtzeitig zu seinem siebzigsten Geburtstag, den er am 19. Oktober begehen darf.

Das ist schon ein wenig eine Überraschung, wirft aber ein Licht auf einen bedeutenden Teil der Mikroökonomie, der in der öffentlichen Debatte zu wenig beachtet wird. Wie es auf der offiziellen Seite der Nobelpreise heißt: „Für die Analyse des Konsums, der Armut und der Wohlfahrt.“

Diese drei Punkte hängen innerlich zusammen.

Deaton hat zusammen mit John Muellbauer in den Siebziger Jahren hat an einer Möglichkeit geforscht, Konsumentscheidungen zwischen Gütern in Abhängigkeit von Preisen elegant, aber realitätsnah zu modellieren. Denn die bisherigen Modelle mit repräsentativen Konsumenten stimmten mit der Empirie nicht überein. Ein großes Problem war dabei die Aggregierung, d.h. das Zusammenführen der einzelnen Nutzenfunktionen der Konsumenten zu einer einzigen Funktion, die das Konsumverhalten der betrachteten Menschen gemeinsam abbildet. Das „Almost Ideal Demand System“ von Muellbauer und Deaton erlaubt, dass Konsumenten verschiedene Güter bevorzugen, in dem die einheitliche Konsumfunktion um einen Parameter ergänzr wird, der nach demographischen Indikatoren variiert.

Aggregierung ist auch das Schlüsselwort für die Betrachtung des Konsums im Zeitablauf. Man muss kein Ökonom sein, um zu wissen, dass sich das Konsumverhalten im Laufe eines Lebens ändert. Dazu haben sich in den Siebziger Jahren Modelle mit rationalen Erwartungen etabliert, bei denen die Betroffenen ihren Konsum über den Zeitablauf hinweg glätten. Dazu muss man allerdings auch handfeste Erwartungen über das Einkommen haben, um entsprechend dieser Erwartungen zu sparen bzw. sich zu verschulden. Deaton zeigte nun, dass unvorhergesehen Einkommensänderungen über die veränderten Erwartungen über die Zukunft großen Einfluss auf das gegenwärtige Konsumverhalten haben. Da ökonomische Schocks Menschen in verschiedenen Stadien ihres Lebenzyklus treffen, kann die aggegierte Auswirkung des Schocks auch anders ausfallen, als eine Betrachtung der Einzeldaten ergeben würde. Um also die Gestaltung der Konsums besser zu verstehen, arbeitete Deaton an Querschnittsstudien über Haushalte bzw. wie man sich echten Längsschnittstudien mit einfacheren Mitteln (mit sogenannten „Pseudo-Panels“) annähern könnte. Diese Untersuchungen sind grundlegend für die statistische Arbeit auf der ganzen Welt geworden.

Schließlich widmete sich Deaton der praktischen Frage, wie man Armut, Konsummöglichkeiten und Wohlfahrt in sich entwickelnden Ländern misst. Hier steht man einerseits vor großen statistischen Problemen, andererseits vor solchen der Vergleichbarkeit der Daten. Werden Güter in Land A nicht nachgefragt, weil sie zu teuer sind – oder weil sie dort im Unterschied zu Land B keiner will? Wie gehe ich damit um, dass einige Güter in Land A, andere in Land B vergleichsweise günstiger sind? Wie sensibel sind Messergebnisse? Die Erkenntnisse aus entsprechenden Arbeiten haben die Messung von Armut in einigen Ländern verändert.

Seine Beschäftigung mit Entwicklungsländern hat ihn auch zu einem großen Kritiker der Entwicklungshilfe gemacht. Sie würde dazu beitragen, dass Staatsgewalt der Empfängerstaaten sich überhaupt nicht für die eigene Bevölkerung verantwortlich fühlt. Es gibt dort keinen „Vertrag“ zwischen Staat und Bürgern; die Finanzierung des Staats hängt vielmehr nur vom Wohlverhalten gegenüber den Geldgebern ab. Dann funktionieren oft nicht einmal die grundlegendsten Staatsfunktionen, mit fatalen Folgen. Deaton:

„Arme Menschen brauchen eine Regierung, um ein besseres Leben führen zu können. Die Regierung aus dem Spiel zu lassen, könnte die Lage kurzfristig verbessern, aber das eigentliche Problem würde nicht gelöst. Arme Länder können ihr Gesundheitssystem nicht ewig vom Ausland betreiben lassen. Die Hilfe unterminiert, was arme Menschen am meisten benötigen: eine effektive Regierung, die heute für eine bessere Zukunft mit ihnen zusammenarbeitet.“

Ein weites, spannendes Feld, das Deaton bestellt.


  1. Eigentlich Sveriges Riksbank Preis für Wirtschaftswissenschaften in Erinnerung an Alfred Nobel. Bevor dass jemand unvermeidlicherweise in den Kommentaren postet.