Pikettys „Capital“: Das eherne Gesetz der Ungleichheit

Eines der Bücher, das derzeit überall herumgereicht wird, ist Thomas Pikettys „Capital in the Twenty-First Century“. Hunderte Seiten von Tabellen und Graphiken werden aufgebracht, um eine Grundthese des französischen Ökonomen zu untermauern, die er seit Jahren verfolgt: Dass Marktwirtschaften durch eine ehernes Gesetz zu hoher Ungleichheit führten; daher müsse man durch hohe Besteuerung (und wohl komplementärer Transfers) für den Idealzustand annähernd gleich verteilter Vermögen sorgen.

In einer Besprechung des Buches in der „Zeit“ schält Mark Schieritz die Kernthese gut heraus: „Die Konzentration der Vermögen ist eine Art Naturgesetz des Kapitalismus. […] Über die Jahrhunderte hinweg haben sich die Vermögen stets erheblich schneller vermehrt als die Wirtschaftsleistung. Die Erträge auf Anlagen in Aktien, Anleihen oder Immobilien belaufen sich demnach im Schnitt auf viereinhalb bis fünf Prozent pro Jahr, der Zuwachs des Bruttoinlandsprodukts dagegen beträgt langfristig nur ein bis eineinhalb Prozent. Das Einkommen aus Arbeit kann nicht mit dem Einkommen aus bereits angehäuftem Vermögen Schritt halten.“

Dieses eherne Gesetz ist freilich alles andere als ehern, sondern entspringt einfach den Annahmen, die er trifft. Piketty behandelt die Wirtschaft so, als ob es um einen sich selbst backenden Kuchen handeln würde, den man nur nachher auf die Gäste aufteilen müsse. Anders gesagt: Wesentliche Teile der Wirtschaft werden exogen gesetzt. So zum Beispiel die Wachstumsrate und die Sparquote. Irgendwann ist übrigens auch in Pikettys Erzählung mit der Konzentration Schluss, wenn nämlich durch das Sparen gerade einmal das bestehende Kapital-Einkommens-Verhältnis erhalten wird.

Das Konvolut Pikettys, das zwischen inflationsbereinigten und nominellen Daten, absoluten und relativen Messungen hin und her schwankt, krankt noch an etwas: Am Fehlen eines stringenten Modells. Anklänge an Harrod-Domar-Solow sind dafür nicht genug. Wie Ryan Decker schreibt:„Aber letztlich handelt es sich um ein Chart-Buch, mit vielen ökonomischen Daten, aber sehr wenig Ökonomie.“ [Übs.d.A.]

Es bleiben große Fragen ausgespart. Ob es etwa gesellschaftliche Mechanismen der Vermögenskonzentration unabhängig vom Wirtschaftsmodell gibt. Ohne Zweifel war bzw. ist die reale Vermögenskonzentration auch in Gesellschaften hoch, die nicht marktwirtschaftlich organisiert sind. Welchen Einfluss der moderne Sozialstaat gerade auf die Kapitalbildung des Mittelstands hat, wäre auch interessant. Würden etwa die Ansprüche aus der Sozialversicherung als Vermögenswert gezählt, was sie bei einem Kapitaldeckungsverfahren auch wären, sähen einige Tabellen anders aus. Welche Bedeutung eine hohe Kapitalausstattung für die moderne Wirtschaft hat — und auch bereits für die Industrialisierung hatte, mit der Pikettys Analyse beginnt –, könnte in einem 700-Seiten-Werk durchaus auch Beachtung finden.

Wer ein Gefühl für Pikettys Argumentation bekommen will, kann z.B. ein Working Paper lesen, das er gemeinsam mit Gabriel Zucman 2013 verfasst hat. Mit einer deutschen Übersetzung von Pikettys „Capital“ ist zu rechnen.

Deflationsgefahr in der Eurozone?

Im deutschsprachigen Raum, soweit er sich mit der Eurozone überschneidet, überwiegt in der Bevölkerung die Angst, dass die Geldpolitik der EZB zu einer enormen Geldentwertung führen könnte. Das ist nach den Erfahrungen der Vergangenheit, von der Hyperinflation der Zwanziger Jahre zum Wertverlust der Vierziger Jahre bis zur Staglation der Siebziger Jahre verständlich. Doch die Realität scheint eine andere zu sein, wie man etwa dem Deflationsmonitor der Danske Bank, der größten Bank Dänemarks, glauben darf.

Dieser Index ist ein gewichteter Durchschnitt verschiedener Inflationsmaße, wie sie von Eurostat berechnet werden, des Geschäftsklimaindexes PMI, der Veränderung der Lücke zwischen tatsächlichem und potentiellen BIP, der Lücke zwischen tatsächlicher und inflationsneutraler Arbeitslosenrate und des Lohnwachstums. Nur für Deutschland wird weist der Index auf Inflationsrisken hin, während er für Griechenland und Spanien hohe Deflationsrisken sieht.  Frankreich, Portugal, Irland und Italien weisen ebenfalls hohe Indexwerte auf.

Danske Bank: Deflation Index

Danske Bank: Deflation Index

Eine Deflation muss nicht immer schlecht sein: Wenn sie auf Produktivitätszuwächsen beruht, sei es durch technologische Verbesserungen oder organisatorische, wegen denen die Gesamtproduktion steigt und daher bei gleichbleibender Geldmenge die Preise fallen, kann sie auch positiv gesehen werden, wie George Selgin argumentiert. Doch in der Eurozone ist davon keine Rede, eher die Gefahr der negativen Deflation vorhanden, die über eine Spirale von sinkender Nachfrage, schrumpfender Beschäftigung, weiterer Verschiebung von Konsum und Investitionen den betroffenen Ländern eher düstere Zukunftsaussichten beschert.

über Egghat

Nachschlag zum Mindestlohn

Kleiner Nachschlag zur Debatte um den Mindestlohn: David Neumark zeigt in der New York Times, warum eine Art Negativsteuer, wie sie in den USA in Form des Earned Income Tax Credits besteht, zielführender als ein Mindestlohn ist.

Grob gesagt: Dass jemand einen schlecht bezahlten Job ausübt, heißt noch nicht, dass man arm ist. Ob Studenten aus Mittelstandsfamilien oder Pensionisten, die nebenbei ein wenig dazu verdienen: Bei vielen Personen, die in den USA den Mindestlohn erhalten, handelt es sich um Menschen weit jenseits jeder Armutsgefährdung. Daher ist eine Erhöhung des Mindestlohns auch keine zielgerichtete Maßnahme zur Armutsbekämpfung. Dagegen kann eine Negativsteuer, die alle Einkünfte und Unterhaltsbeziehungen berücksichtigt, zielgerichtet Personen mit niedrigem Einkommen unterstützen.

Mehr, wie gesagt, in der New York Times.

Der Mindestlohn als Waffe gegen Einwanderer

Deutschland soll also nun einen gesetzlichen Mindestlohn bekommen. In Österreich wurde schon viel darüber debattiert, doch hat bis jetzt die Meinung dominiert, dass das engmaschige Netz von Kollektivverträgen, in denen Arbeitgeber und Arbeitnehmer Mindestlöhne je Branche gemeinsam ausverhandeln, beschäftigungspolitisch klüger sei.

Ein unbestrittener Effekt von Mindestlöhnen ist, dass Personen, deren Beschäftigung nur mit einem „niedrigen Grenzprodukt“ verbunden ist, also vor allem ungelernte Kräfte, keine Arbeit mehr finden. Man darf ihnen nämlich nicht mehr so wenig zahlen, wie es angesichts des Mehrwerts ihrer Arbeit überhaupt vertretbar ist. Diese Personen werden effektiv aus dem Markt gepreist, sofern nicht entweder die Flucht in die Schwarzarbeit oder in die Scheinselbständigkeit angetreten wird. Denn Selbständige erhalten ja keinen Mindestlohn.

Diese Logik des Mindestlohns wollen sich in Kalifornien nun Aktivisten zu Nutze machen, die gegen die illegale Einwanderung aus Mexiko mobil machen. Denn in den USA herrscht die Besonderheit, dass auch illegal Eingewanderte oft ordnungsgemäß als Arbeitnehmer geführt und entlohnt werden. Daher ist das Kalkül: Wenn der Mindestlohn so hoch ist, dass weite Teile des Niedriglohnsektors wegbrechen, dann sinkt der Anreiz für Einwanderung ungelernter Arbeitskräfte, weil sie ja kaum noch einen Job finden.

Wie Bruce Bartlett in der New York Times erinnert, ist der Einsatz des Mindestlohns als politische Waffe nicht neu. Im frühen 20. Jahrhundert wollte man so in den USA Frauen vom Arbeitsmarkt fernhalten und führte spezifische Frauen-Mindestlöhne ein, oder hoffte in manchen Gegenden, dass Menschen, die man aus Sicht der Eugeniker als minderwertig einstufte, durch höhere Mindestlöhne wegen ihrer geringen Produktivität keine Arbeit mehr finden würden und daher keine Familie gründen könnten. Allesamt eher unerfreuliche Kapitel der Geschichte.

Jetzt könnte man schelmisch fragen: Wen will die Große Koalition in Deutschland gezielt aus dem Arbeitsmarkt herauspreisen?

Die EZB dreht den Geldhahn auf. Gut so.

Was die EZB heute getan hat, war ein längst überfälliger Schritt:

  1. Der Zinssatz für die Hauptrefinanzierungsgeschäfte des Eurosystems wird um 25 Basispunkte auf 0,25 % gesenkt. Dies gilt erstmals für das am 13. November 2013 abzuwickelnde Geschäft.
  2. Der Zinssatz für die Spitzenrefinanzierungsfazilität wird mit Wirkung vom 13. November 2013 um 25 Basispunkte auf 0,75 % gesenkt.
  3. Der Zinssatz für die Einlagefazilität wird unverändert bei 0,00 % belassen.

Warum? Im September wies der Harmonisierte Verbraucherpreisindex eine Inflationsrate von 1,1% aus; das ist deutlich unter dem EZB-Zielwert von 2% oder knapp darunter, bei dem die EZB die Inflationserwartungen verankern will und wie es auch ihr gesetzlicher Auftrag ist. Dazu tragen besonders Spanien, Portugal, Italien, Irland und Griechenland bei. Letzteres hat sogar eine Deflation von -1,0% ausgewiesen. Aber selbst in Deutschland beträgt die Inflation derzeit nur 1,6%; das wäre selbst zu Bundesbankzeiten ein sehr niedriger Wert gewesen. Im Oktober wird die Inflation der Eurozone wahrscheinlich noch niedriger gewesen sein, wie Mario Draghi in der Pressekonferenz der EZB bemerkt hat.

Mark Schieritz, mit dem ich zwar wirtschaftspolitisch nicht so oft übereinstimme, bringt es auf den Punkt:

Schon um ihre Glaubwürdigkeit nicht zu verlieren, musste die EZB die Zinsen daher noch einmal senken. Das hilft der Wirtschaft, weil unter anderem die Aufwertung des Euro gedämpft würde. Die Stärke der Währung macht derzeit vor allem den Exporteuren im Süden ihr Geschäft kaputt.

Der ökonomisch simpelste Grund, warum eine so niedrige Inflation keine gute Idee ist: Geldpolitik soll so verlässlich und stabil sein, dass sie quasi unsichtbar wird. Das heißt: Stabile Inflationsraten, auf die man sich bei seinen Planungen verlassen kann. Ein anderer: Geld ist auch das Schmiermittel der Wirtschaft.  Ein wenig Inflation ermöglicht Anpassungen von Preis- und Lohnrelationen, ohne nominelle Kürzungen vornehmen zu müssen, die wir dank Geldwertillusion gar nicht mögen. Aber auch aus ganz praktischen Gründen: Schulden und Einkommen werden in der Regel in nominellen Geldeinheiten bemessen. Eine Kürzung des nominellen Einkommens erhöht die reale Last der Schulden, was weder Schuldner noch Gläubiger recht sein kann. (Warum eine hohe Inflation ebenfalls schlecht ist, brauche ich wohl nicht zu erläutern.)

Die wirtschaftliche Lage der Eurozone ist in Wahrheit außerdem immer noch desaströs. Dazu hat nebenbei bemerkt die Bankenpolitik der EU beigetragen. Mit einer Unzahl neuer Regulierungen und stark verschärfter Eigenkapitalvorschriften wurden die Banken gleichsam gezwungen, ihre Kreditvergabe drastisch zu reduzieren. Kritiker argwöhnen, dass gerade das normale Bankengeschäft zureguliert würde, obwohl es mit der Bankenkrise wenig zu tun habe; und die neuen, umfangreichen Regulierungen ein Wettbewerbsvorteil der Großen seien, die sich die Compliance eher leisten können – daher würde  „too big to fail“ geradezu Vorschub geleistet. Wie dem auch sei: Die geldpolitische Transmission hat eine Menge Sand ins Getriebe bekommen. Anders gesagt: Die EZB muss die Geldbasis viel mehr ausweiten als früher, um bei der Gesamtgeldmenge den gleichen Effekt zu erzielen. Das zeigt auch die lahme Entwicklung der Geldmenge M3, bei der die unorthodoxe Geldpolitik der EZB praktisch keine Spuren hinterlassen hat.

Will die Geldpolitik zumindest nicht kontraktiv wirken, musste die EZB daher handeln.

Wie man unsinnige Ökonomie-Artikel erkennt …

Wer öfter einmal Artikel in Zeitungen oder auch in manchen Internetmedien liest, die sich mit den Wirtschaftswissenschaften beschäftigen, kann meist nur die Haare raufen.  Da werden munter  Stereotypen aus der Scheingegner–Sammlung ausgebreitet und im Dienste der jeweils eigenen Weltanschauung völlig jenseitige Ansichten darüber verbreitet, was der Inhalt der Wirtschaftswissenschaften denn wirklich sei. Meist läuft es darauf hinaus, dass die Ökonomen, zumindest die „Mainstream“-Ökonomen, ziemlich dumm sind, weil sie die politische Forderung XYZ nicht als logische Konsequenz ökonomischer Betrachtung erkennen.

Chris Auld, ein kanadischer Ökonom, hat nun 18 Merkmale zusammengefasst, an denen man die Ergüsse solcher Narren auf dem Schiff der Publizistik erkennen kann.

Darunter befinden sich Punkte wie die Reduktion der Wirtschaftswissenschaften auf makroökonomische Prognosen; die Behauptung, die „Mainstream-Ökonomie“ wäre „marktfundamentalistisch“; oder die freizügige Verwendung des Wortes „neoliberal“ und „neoklassisch“. Dass man absichtlich oder unabsichtlich die Fachbedeutung von Wörtern verfälscht, und etwa Begriffen wie „effizientem Markt“ oder „rationaler Akteur“ neue Inhalte gibt und darauf seine Kritik stützt, ist auch bei uns eine geläufige Strategie.

Nur ein Beispiel: Ein Marktteilnehmer handelt dann rational, wenn (1) er für jede paarweise Wahlmöglichkeit einordnen kann, ob er eines dem anderen vorzieht oder zwischen beiden indifferent ist, und wenn (2) er Gut a dem Gut b vorzieht und Gut b gegenüber Gut c vorzieht, er dann Gut a auch Gut c gegenüber vorzieht. Diese Bedingungen nennt man die Vollständigkeits- und die Transitivitätsbedingung. Sie sagen nichts darüber hinaus, ob eine Person „vernünftig“ handelt, sondern sagen lediglich etwas über ihre Präferenzordnung aus. Trotzdem wird den Wirtschaftswissenschaften oft unterstellt, der homo oeconomicus sage aus, dass alle Menschen vernünftig handeln.

(via Cardiff Garcia)

Schulmeister über Hayek — das geht nicht gut

Wer lesen will, was ein Ökonom schreibt, der von Theoriengeschichte keine Ahnung hat, dafür festgefahrene ideologische Feindbilder pflegt, dem sei Stephan Schulmeisters neuer Kommentar im „Standard“ empfohlen. Eine Art Selbstdemontage.

Seine Kernthese: Die jetzige Wirtschaftskrise ist ein Produkt der Finanzkrise. Und diese sei nur ein Produkt des Neoliberalismus, und dessen Dominanz sei hauptsächlich die Schuld von Friedrich August von Hayek, der als großer Sympathisant von Diktaturen denunziert wird.

Das ist auf so vielen Ebenen falsch, dass es wehtut.

Hayek und der Mainstream ökonomischen Denkens

Fangen wir bei der Theoriengeschichte an: Friedrich August von Hayek war in den Dreißiger Jahren tatsächlich ein wesentlicher Faktor im ökonomischen Mainstream, seine Artikel wurden lebhaft diskutiert. Doch mit dem Siegeszug des Keynesianismus gerieten die „Österreicher“ mehr und und mehr aus dem Zentrum an den Rand des Diskurses. Hayek selbst beschäftigte sich ab den Vierziger Jahren stärker mit politischer Philosophie, so dass er auch aus diesem Grund nicht mehr ökonomischer Mainstream war.

Aus Keynes’ Ideen und der klassischen Ökonomie schufen Personen wie Paul Samuelson in den Fünfziger Jahren die sogenannte „neoklassische Synthese“, die auch heute noch das Rüstzeug für Studienanfänger der VWL bereithält. Auch die Gegner des Keynesianismus bauten auf dieser Synthese auf, als sie mit der Theorie rationaler Erwartungen frühere Annahmen eines naiv-adaptiven Marktteilnehmers in Frage stellten. Viele Phänomene konnten damit besser erklärt werden. Schließlich kam der Monetarismus um Milton Friedman auf, der als Antwort auf das Versagen keynesianischer Wirtschaftspolitik in der Krise der 70er Jahre gesehen wurde.

In den Siebziger Jahren änderte sich zwar nicht in Österreich, jedoch bei den Vordenkern der VWL einiges: Nun wurde auch das Thema des „Staatsversagens“ stärker thematisiert, die Annahme eines quasi selbstlosen Staats in Frage gestellt und die Problematik von Information in der Ökonomie stärker in den Fokus gerückt. In all dem kommt Hayek nicht vor. Er hat zwar auf vielen Gebieten bereits früher ähnliche Ideen verfolgt, doch die Ökonomen der Siebziger entwickeln ihre Thesen aus einer Auseinandersetzung und Entfaltung der neoklassischen Synthese, nicht einer Wiederbelebung hayekianischer Thesen. Zugespitzt: Chicago liegt nicht in Österreich.

Für den Finanzmarkt haben sich dagegen zwei Ansätze als besonders wirkmächtig herausgestellt: Das Black-Scholes-Modell zur Bewertung von Optionsscheinen, und das Fama-French-Modell. Beide haben viele ähnliche Bewertungsstrategien angeregt, beide sind durchaus nützliche Werkzeuge. Doch wurden und werden diese Bewertungsmodelle als verlässliche Indikatoren von Risken und Wertentwicklungen verwendet, was sie nicht sind. Die nötigen Vereinfachungen dieser Modelle bedeuten immer, das mitunter wesentliche Aspekte nicht berücksichtigt werden können — die völlige Berechenbarkeit des Risikos ist eine Illusion.

Das alles hat aber weiterhin mit Hayek nichts zu tun. Sorry, Stephan Schulmeister. Hayek lehnte übrigens Zeit seines Lebens expansive Geldpolitik ab und träumte von einer Zentralbank, die den Geldwert so stabilisiert, dass er auch kurzfristig die Wirtschaftsentwicklung weder einfriert noch befeuert. Gerade die „Österreicher“ haben eine Ausweitung der Geldmenge wegen ihrer Verzerrung des Preissignals immer kritisiert. Sie können nichts als Kronzeugen der modernen Geldpolitik aufgerufen werden, die Schulmeister als Mitauslöser der Krise identifiziert.

Neoliberalismus?

Schulmeister verwendet den Begriff „Neoliberalismus“ als Chiffre für alle Effekte einer Gesellschaft mit marktwirtschaftlichen Elementen, die er ungerecht empfindet und auf diese marktwirtschaftlichen Elemente zurückzuführen sind. Das ist polemisch heutzutage üblich, doch nichts anderes als Agitation.

Eigentlich entstand der Neoliberalismus als eine neue Idee einer freiheitlichen Grundordnung im Gegensatz zu den totalitären Regimen des Nationalsozialismus und Kommunismus, doch mit einem klaren Blick für eine notwendige ordnende Haltung des Staats in Abgenzung zu reinem Laissez-Faire.

Tatsächlich war die Mont-Pélerin-Society, die Schulmeister bemüht, ursprünglich neoliberal. Auch Hayek war von einem sozial verantwortlichen Liberalismus überzeugt, wie etwa in seiner Befürwortung staatlicher Sicherungssysteme zum Ausdruck kommt.

Dass Hayek nicht seitenlang über soziale Sicherheit schwadroniert hat, sondern über den Notwendigkeit der Freiheit, liegt vor allem daran, dass er diese eben besonders bedroht sah. Der Nationalsozialismus verschlang seine Heimat, der Kommunismus blieb Zeit seines Lebens mächtige Realität, auch im „freien Westen“ war der Glaube an staatliche Allmacht und kollektivistisches Denken weit verbreitet.

Hayeks Anliegen war eine politische Ordnung, die den Menschen ihre Freiheit und Würde lässt, aus der sich eine freiwillige, änderbare private Ordnung entwickeln kann. Daher war er ein Verfechter der Demokratie, aber auch ein Kritiker ihrer Unzulänglichkeiten. Er selbst hatte erlebt, wie Hitler in Deutschland über 40% der Stimmen erreichen konnte, und die Demokratie sich quasi selbst beseitigt hat. Auch der Aufstieg von Populisten, die Bevölkerungsgruppen gegeneinander ausspielen, blieb ihm nicht verborgen. Gewaltenteilung und die strenge Einhaltung gewisser unveränderlicher Regeln, wie es teilweise im deutschen Grundgesetz verwirklicht ist, waren ihm daher ein großes Anliegen.

Vor diesem Hintergrund sind auch seine Aussagen zu Chile zu sehen, die ihm gerade von der Linken so gerne vorgehalten werden. Hayek lehnte Diktaturen ab; doch wenn die Errichtung einer totalitären Diktatur droht, so kann eine kurzfristige Autokratie notwendig sein, um die Gefahr abzuwehren. Ausgedeutscht: Hayek hätte einen Putsch des deutschen Militärs, um den demokratisch legitimierten Reichskanzler 1933 zu stürzen und damit in Wahrheit vielen tausend Menschen das Leben zu retten, begrüßt. Was Schulmeister an dieser Position so verwerflich findet, ist sein Geheimnis.

Die Generalerzählung der Krise

Schulmeisters Interpretation der jetzigen Wirtschaftskrise hätte ich 2008 verstanden, doch kommt sie mir 2013 nur noch skurril vor. Wenn er die Artikel seiner Zunftkollegen gelesen hätte, wüßte er, dass die ursprüngliche Finanzkrise 2008 nur der Auslöser, aber nicht die Ursache der anhaltenden Krise der Realwirtschaft ist. Finanzkrisen sind auch kein neues Phänomen und kommen immer wieder vor, ohne eine anhaltende Rezession hervorzurufen. Doch manche Länder haben diese Krise gut überstanden — dazu zählen grosso modo auch Deutschland und Österreich —, andere haben sich in der Folge in ein Tal der Tränen verirrt. Das liegt nicht an Finanzalchemie, wie es Schulmeister so gern nennt, sondern an strukturellen Rahmenbedingungen, Institutionen, gesellschaftlichen, politischen und auch demographischen Umständen.

In Großbritannien, in dem die Finanzwirtschaft so eine wichtige Rolle spielt, ist die Arbeitslosenrate im Zuge der Krise von 6% auf fast 8% hochgeschnellt, stieg Ende 2011 auf 8,4%, um nun auf 7,7% zu sinken. Frankreich hatte 7,7% bereits im 2. Quartal 2008, und im Juli 2013 eine Arbeitslosenrate von 11%. In Österreich waren es im 2. Quartal 2008 nur 3,5%, ein außerordentlich niedriger Wert. Auch für Österreich. Für Juli 2013 werden 4,8% geschätzt, ein Wert, der in Vergangenheit 2004-2006 übertroffen wurde. Auch 2009 war die Arbeitslosigkeit höher. In Spanien beträgt sie im 2. Quartal 2013 26,4%, vier Jahre vorher waren es 17,9%. Vier Länder, vier völlig unterschiedliche Entwicklungen am Arbeitsmarktes. Man könnte das an Hand anderer Zahlen ebenso durchspielen: Es gibt keine „Generalerzählung“ der Krise, die für alle Länder zutrifft. Was natürlich kein guter Stoff für Kolumnen ist.

Wie ich schon einmal diskutiert habe, liegt Schulmeisters Problem meines Erachtens darin, dass er sicherlich ein guter Makroökonom ist, aber für Dinge wie Institutionenökonomik oder mikroökonomische Fundierung kein Verständnis hat. Dann wäre ihm auch nicht der Lapsus mit dem „manisch-depressiven Irrsein“ der Finanzmärkte passiert, der die gesamte „neoliberale Theorie“ über den Haufen werfe. Der Satz wäre allein schon wieder einen Aufsatz wert. Seine Fixierung auf die negativen Seiten der Finanzmärkte verengt außerdem seinen Blick für andere Zusammenhänge. Schade, denn Schreiben kann er. Jedenfalls weit besser als ich. Jetzt müssten nur noch die Inhalte stimmen.

Der homo oeconomicus bleibt uns erhalten

Es ist ein beliebter Vorwurf gegen die wissenschaftlich betriebene Ökonomie: Sie würde ja durch ihr Modell des homo oeconomicus, des rational nutzenmaximierenden Menschen, die Wirklichkeit völlig verzerren; aus den Wirtschaftswissenschaften abgeleitete Politikempfehlungen wären daher unbrauchbar.

Nun wissen Wirtschaftswissenschafter nicht erst seit gestern, dass diese Modellannahme eben nur eine Annahme ist, noch dazu eine tautologische. Da jedes Modell die Wirklichkeit nur so beschreibt wie eine Landkarte – abstrahiert und für den Zweck angepasst — , so bedient es sich vereinfachender Annahmen, die das Zeichnen der Karte erst ermöglichen. Joan Robinson sagte bekanntermaßen, ein Modell, das die Wirklichkeit vollständig beschreibt, ist so nützlich wie ein Landkarte im Maßstab 1:1.

Für bestimmte Forschungsaufgaben wurde aber das Modell des handelnden Menschen in den letzten Jahrzehnten sukzessive überarbeitet. So mit der Revolution der „rationalen Erwartungen“, mit der Informationen über zukünftige Ereignisse in die Entscheidungen des wirtschaftlichen Akteurs integriert wurden.

Im Gefolge des Nobelpreisträgers Gary S. Becker konnte scheinbar „irrationales Verhalten“ bei verschiedenen nicht-ökonomischen Sachverhalten in einen ökonomischen Rahmen integriert und damit analysiert werden. Ein andere Nobelpreisträger, Daniel Kahneman, gehört zu den Mitbegründern der Verhaltensökonomie, die ökonomische Entscheidungen unter Unsicherheit unter Einbeziehung von Erkenntnissen der Psychologie untersuchen. George Akerlof, wieder ein Nobelpreisträger, hat in den Siebziger Jahren die Auswirkungen asymmetrischer Information auf die Entscheidungen der Akteure untersucht, und um die Jahrtausendwende mit Rachel Kranton die Identitätsökonomie begründet, die versucht, ein Konzept der Identität als Bündel sozialer Normen und Beziehungen in die Darstellung wirtschaftlicher Entscheidungen einzubeziehen.

Es hat sich in der Praxis allerdings gezeigt, dass einfachere Modelle oft robustere Ergebnisse haben. Ein Beispiel dafür zeigen Ronald M. Harstad und Reinhard Selten auf. In den letzten Jahrzehnten wird mit Modellen experimentiert, in denen die Akteure Information nicht komplett rational verarbeiten, sondern beschränkt rational handeln, mit „bounded rationality“. Und doch gibt es viele Gründe, weiterhin mit der Annahme rationaler Akteure zu operieren. Weil man es etwa auf viele Bereiche so anwenden kann, dass interpretierbare Ergebnisse entstehen. Oder weil entsprechende Arbeiten auch von Dritten leichter analysiert werden können. Die Modellierung irrationalen Verhaltens kann auch die Einflüsse anderer Faktoren verdunkeln, in dem man Diskrepanzen leichtfertig auf die beschränkte Rationalität der Akteure schiebt.

Harstad und Selten betonen dabei besonders die Analyse effizienter Verwendung von Ressourcen, die in Modellen mit rationalen Akteuren mit nur beschränkten Annahmen möglich sind und dort sinnvolle Resultate liefern. Modelle mit beschränkter Rationalität sind in solchen Fragen von einer Anwendbarkeit z.T. noch weit entfernt, meinen die Autoren, die dafür eine Mischung experimenteller Ökonomie und beschränkt-rationalen Modellen vorschlagen.

Kurz: Die Annahme des homo oeconomicus ist in den Wirtschaftswissenschaften nicht universal, doch in vielen Bereichen nützlich. Und diese Annahme bleibt es auch in Zukunft, weil komplizierte, menschliches Verhalten möglicherweise besser approximierende Annahmen soviele Unsicherheitsfaktoren beinhalten, dass die Resultate für Dritte nur aufwendig nachzuvollziehen sind. Und manchmal eine Karte im Maßstab 1:100.000 eben nützlicher ist als eine Karte im Maßstab 1:10.

Zahlen Sie doch, soviel Sie wollen!

Was gibt es, wenn jeder für eine Leistung einfach das zahlt, was er dafür zu zahlen bereit ist? Freiwillig? Böse Zungen werden jetzt einmal sagen: Einen verhungernden Verkäufer. In St. Louis hat eine Restaurantkette die Probe aufs Exempel gemacht, allerdings vorsichtig: Lediglich eine Speise, ein Richtpreis ist angegeben, und jeder Mehrerlös dient einem guten Zweck. Da sind schon einmal Anreize gegeben, es nicht mit einem Cent zu belassen. Die Kette betreibt auch bereits eine Lokale mit Bezahlung auf freiwilliger Basis, allerdings handelt es sich dabei um spendenfinanzierte Sozialcafés. Trotzdem: Die Sozialcafés bleiben, doch die Speise mit bloßen Richtpreis ist aus den übrigen Restaurants der Kette wieder verschwunden.

Auch das Humble Bundle, eine Sammlung von Computerspielen, verbindet freiwillige Zahlungshöhe mit einem karitativen Zweck. Mittlerweile wurden über 25 verschiedene „Humble Bundle“-Pakete geschnürt und zigtausendfach verkauft, zu einem Durchschnittspreis zwischen fünf und vierzehn Dollar je Paket, das wiederum aus mehreren Spielen oder E-Books besteht. Hier kann der Käufer einerseits etwas erwerben, das ihn interessiert (die Spiele), und wird durch die Verknüpfung mit Spenden dazu angehalten, trotzdem seinen Obulus zu entrichten. Manchesmal (oder auch immer? Das weiß ich nicht) gibt es einen Bonus, wenn man

Der Unterschied, warum das Humble Bundle funktioniert, der Restaurantbetrieb dagegen weniger, liegt an einem simplen Problem, wie Tim Harford berichtet: Den zusätzlichen Kosten (oder auch Grenzkosten), die mit der Herstellung einer weiteren Einheit des Produkts verbunden sind. Das Humble Bundle ist eine Sammlung oft älterer Spiele, deren Entwicklungskosten schon hereingespielt wurden. Wenn nun eine weitere Kopie übers Internet heruntergeladen wird, sind die Grenzkosten für den Spielehersteller vernachlässigbar. Selbst vergleichsweise geringe Zahlungen werden diese Zusatzkosten abdecken, so daß es trotzdem ein Geschäft bleibt. Bei den Bündeln, die als reine karitative Aktion konzipiert sind, gilt dies umso mehr. Bei Speisen und anderen physischen Waren entstehen über die Fixkosten hinaus oft erhebliche Kosten in der Herstellung, und zumindest diese müssen getragen werden, damit das Geschäft weitergehen kann. Doch die Zahl der Trittbrettfahrer ist hoch, der Anreiz, ausreichend zu bezahlen, gering. Projekte, die auf freiwilliges Bezahlen setzen, blühen daher im digitalen Bereich, und sind im Gegensatz dazu auf den Einkaufsstraßen kaum vertreten.

Ein kleiner Hinweis: Harford erwähnt einen Artikel von Ayelet Gneezy, Uri Gneezy, Leif D. Nelson und Amber Brown, dem man hier lesen kann. Von Ayelet Gneezy, Uri Gneezy, Gerhard Riener und Leif D. Nelson gibt es einen Artikel zu „Pay-what-you-want, identity and self-signaling in markets“, in dem verschiedenen Experimente geschildert werden, einschließlich einem Experiment im Wiener Restaurant „Deewan“. Das „Deewan“ ist interessant, weil es es Speisen mit freiwilliger Bezahlung anbietet – Getränke haben feste Preise –, und mit diesem Konzept schon mehrere Jahre erfolgreich ist. Dabei sind die Getränke aber eine Art Preisanker. Bei entsprechender Gestaltung kann also auch ein Restaurant mit freiwilliger Bezahlung reüssieren – es ist aber nicht so einfach und basiert auf der Herstellung sozialer Situationen, in denen der Zahlende (im Durchschnitt) eine Orientierung über den angemessenen Preis erhält und ein Verpflichtung spürt, diesen auch leisten zu müssen.

Vermögensstudie: Die Arbeiterkammer auf der Suche nach den Superreichen

Jede Studie zu Vermögenswerten privater Haushalte macht mich hellhörig, handelt es sich dabei doch um Daten, die nur schwierig zu eruieren sind. Es fängt bei der Beurteilung an, was ein Vermögenswert ist (z.B. auch Versicherungs- und Pensionsansprüche?), geht mit der Erfassung weiter, die von Grundstücken über Schmuck, Bilder, Einrichtungsgegenständen bis zu Wertpapieren reicht, und dann mit der Bewertung dieser Güter. Selbst in Gesellschaften mit gläsernen Bürgern ein Unterfangen, bei dem schlußendlich nur Annahme auf Annahme getürmt werden kann, um zu einem ungefähren Ergebnis zu kommen, das einem halt eine Größenordnung vermittelt. Mehr nicht.

Daher hat mich auch die Studie von sechs Mitarbeitern der Johannes-Kepler-Universität interessiert, die unter Förderung der Arbeiterkammern Wien und Oberösterreich die Vermögen privater Haushalte ermitteln sollte. Und dabei zu einem Ergebnis gekommen ist, daß der Arbeiterkammer zwei nahezu gleichlautende Presseaussendungen wert war: Die vermögensten Österreicher sollen tatsächlich sehr vermögend sein.

Glücklicherweise haben die Zentralbanken des EZB-Verbundes vor kurzem versucht, durch stichprobenartige Erhebungen das Vermögen privater Haushalte zu schätzen. Und diese Daten sind auf Anfrage auch öffentlich zugänglich. Die Studienautoren Paul Eckerstofer, Johannes Halak, Jakob Kapeller, Bernhard Schütz, Florian Springholz und Rafael Wildauer nehmen nun diese Daten und unterstellen für die obersten Vermögenswerte eine Pareto-Verteilung, die an Hand der „Reichenliste“ des Magazins Trends, deren Daten natürlich ebenfalls problematisch sind — was die Autoren auch einräumen – kalibriert wird. Zusätzliche empirische Daten wurden nicht eingeholt; der Verweis auf die weggefallene Erbschaftsteuer scheint mir dabei hinterfragenswert, da sie ja bis August 2008 eingehoben wurde und sich seither die Vermögenswerte wohl nicht dramatisch verschoben haben dürften. Man hätte diese Daten ruhig einbeziehen können.

Der entscheidene Punkt ihrer Datenarbeit wird so beschrieben:

Zuerst wird mithilfe des Cramer-von-Mises Tests ein geeigneter Ansatzpunkt für die Pareto-Verteilung bestimmt. Die Daten oberhalb dieses Ansatzpunktes bilden dann die Datenbasis für die Schätzung der Pareto-Verteilung. Schließlich werden alle Haushalte mit einem Vermögen > 4 Millionen (also der zu korrigierende Teil) aus dem Datensatz entfernt und durch neu generierte Haushalte ersetzt, welche aus einer Serie von Zufallsziehungen aus dem oberen Bereich (> 4 Millionen) der zuvor geschätzten Pareto-Verteilung gewonnen
werden.

Diese Übung ist durchaus nicht uninteressant. Durch die Methode steht das Ergebnis aber praktisch von vornherein fest. Es muß sich fast zwangsläufig ergeben, daß die Vermögenskonzentration höher als in den Ausgangsdaten ist, und das geschätzte Gesamtvermögen ebenfalls zunimmt. In diesem Fall sogar um 25%. Da wäre ein Abgleich mit anderen Datenquellen oder Schätzungen wohl hilfreich, um die Plausibilität zu prüfen.

Die Aussage, die sich für die Arbeiterkammer daraus ergibt, kann der Leser aber nicht gewinnen: Weder ist festgestellt, daß das Vermögen der „Reichen größer als bisher bekannt“ sei, noch, daß die vermögenreichsten Haushalte soundsoviele Milliarden Euro mehr Vermögen haben als laut EZB-Studie. Festgestellt ist, daß unter Annahme einer bestimmten Vermögensverteilung, zu der es in der Studie diskutierte Alternativen gibt, bestimmte Rechenergebnisse folgen, deren Zusammenhang mit der Realität noch Gegenstand weiterer Überprüfungen sein müßte. An der ungefähren Größenordnung, die die EZB-Studie vermittelt, kann diese Arbeit mangels empirischen Beitrags nichts ändern.

Josef Urschitz kommentiert in der „Presse“ spitzzüngig: „Mangels Daten muss man leider wild herumschätzen und hochrechnen, bis das vom Auftraggeber Arbeiterkammer gewünschte Ergebnis vorliegt.“ Und wenn er andeutet, daß die Studie dem Wahlkampf geschuldet ist, hat er wohl nicht unrecht.