Schulmeister über Hayek — das geht nicht gut

Wer lesen will, was ein Ökonom schreibt, der von Theoriengeschichte keine Ahnung hat, dafür festgefahrene ideologische Feindbilder pflegt, dem sei Stephan Schulmeisters neuer Kommentar im „Standard“ empfohlen. Eine Art Selbstdemontage.

Seine Kernthese: Die jetzige Wirtschaftskrise ist ein Produkt der Finanzkrise. Und diese sei nur ein Produkt des Neoliberalismus, und dessen Dominanz sei hauptsächlich die Schuld von Friedrich August von Hayek, der als großer Sympathisant von Diktaturen denunziert wird.

Das ist auf so vielen Ebenen falsch, dass es wehtut.

Hayek und der Mainstream ökonomischen Denkens

Fangen wir bei der Theoriengeschichte an: Friedrich August von Hayek war in den Dreißiger Jahren tatsächlich ein wesentlicher Faktor im ökonomischen Mainstream, seine Artikel wurden lebhaft diskutiert. Doch mit dem Siegeszug des Keynesianismus gerieten die „Österreicher“ mehr und und mehr aus dem Zentrum an den Rand des Diskurses. Hayek selbst beschäftigte sich ab den Vierziger Jahren stärker mit politischer Philosophie, so dass er auch aus diesem Grund nicht mehr ökonomischer Mainstream war.

Aus Keynes’ Ideen und der klassischen Ökonomie schufen Personen wie Paul Samuelson in den Fünfziger Jahren die sogenannte „neoklassische Synthese“, die auch heute noch das Rüstzeug für Studienanfänger der VWL bereithält. Auch die Gegner des Keynesianismus bauten auf dieser Synthese auf, als sie mit der Theorie rationaler Erwartungen frühere Annahmen eines naiv-adaptiven Marktteilnehmers in Frage stellten. Viele Phänomene konnten damit besser erklärt werden. Schließlich kam der Monetarismus um Milton Friedman auf, der als Antwort auf das Versagen keynesianischer Wirtschaftspolitik in der Krise der 70er Jahre gesehen wurde.

In den Siebziger Jahren änderte sich zwar nicht in Österreich, jedoch bei den Vordenkern der VWL einiges: Nun wurde auch das Thema des „Staatsversagens“ stärker thematisiert, die Annahme eines quasi selbstlosen Staats in Frage gestellt und die Problematik von Information in der Ökonomie stärker in den Fokus gerückt. In all dem kommt Hayek nicht vor. Er hat zwar auf vielen Gebieten bereits früher ähnliche Ideen verfolgt, doch die Ökonomen der Siebziger entwickeln ihre Thesen aus einer Auseinandersetzung und Entfaltung der neoklassischen Synthese, nicht einer Wiederbelebung hayekianischer Thesen. Zugespitzt: Chicago liegt nicht in Österreich.

Für den Finanzmarkt haben sich dagegen zwei Ansätze als besonders wirkmächtig herausgestellt: Das Black-Scholes-Modell zur Bewertung von Optionsscheinen, und das Fama-French-Modell. Beide haben viele ähnliche Bewertungsstrategien angeregt, beide sind durchaus nützliche Werkzeuge. Doch wurden und werden diese Bewertungsmodelle als verlässliche Indikatoren von Risken und Wertentwicklungen verwendet, was sie nicht sind. Die nötigen Vereinfachungen dieser Modelle bedeuten immer, das mitunter wesentliche Aspekte nicht berücksichtigt werden können — die völlige Berechenbarkeit des Risikos ist eine Illusion.

Das alles hat aber weiterhin mit Hayek nichts zu tun. Sorry, Stephan Schulmeister. Hayek lehnte übrigens Zeit seines Lebens expansive Geldpolitik ab und träumte von einer Zentralbank, die den Geldwert so stabilisiert, dass er auch kurzfristig die Wirtschaftsentwicklung weder einfriert noch befeuert. Gerade die „Österreicher“ haben eine Ausweitung der Geldmenge wegen ihrer Verzerrung des Preissignals immer kritisiert. Sie können nichts als Kronzeugen der modernen Geldpolitik aufgerufen werden, die Schulmeister als Mitauslöser der Krise identifiziert.

Neoliberalismus?

Schulmeister verwendet den Begriff „Neoliberalismus“ als Chiffre für alle Effekte einer Gesellschaft mit marktwirtschaftlichen Elementen, die er ungerecht empfindet und auf diese marktwirtschaftlichen Elemente zurückzuführen sind. Das ist polemisch heutzutage üblich, doch nichts anderes als Agitation.

Eigentlich entstand der Neoliberalismus als eine neue Idee einer freiheitlichen Grundordnung im Gegensatz zu den totalitären Regimen des Nationalsozialismus und Kommunismus, doch mit einem klaren Blick für eine notwendige ordnende Haltung des Staats in Abgenzung zu reinem Laissez-Faire.

Tatsächlich war die Mont-Pélerin-Society, die Schulmeister bemüht, ursprünglich neoliberal. Auch Hayek war von einem sozial verantwortlichen Liberalismus überzeugt, wie etwa in seiner Befürwortung staatlicher Sicherungssysteme zum Ausdruck kommt.

Dass Hayek nicht seitenlang über soziale Sicherheit schwadroniert hat, sondern über den Notwendigkeit der Freiheit, liegt vor allem daran, dass er diese eben besonders bedroht sah. Der Nationalsozialismus verschlang seine Heimat, der Kommunismus blieb Zeit seines Lebens mächtige Realität, auch im „freien Westen“ war der Glaube an staatliche Allmacht und kollektivistisches Denken weit verbreitet.

Hayeks Anliegen war eine politische Ordnung, die den Menschen ihre Freiheit und Würde lässt, aus der sich eine freiwillige, änderbare private Ordnung entwickeln kann. Daher war er ein Verfechter der Demokratie, aber auch ein Kritiker ihrer Unzulänglichkeiten. Er selbst hatte erlebt, wie Hitler in Deutschland über 40% der Stimmen erreichen konnte, und die Demokratie sich quasi selbst beseitigt hat. Auch der Aufstieg von Populisten, die Bevölkerungsgruppen gegeneinander ausspielen, blieb ihm nicht verborgen. Gewaltenteilung und die strenge Einhaltung gewisser unveränderlicher Regeln, wie es teilweise im deutschen Grundgesetz verwirklicht ist, waren ihm daher ein großes Anliegen.

Vor diesem Hintergrund sind auch seine Aussagen zu Chile zu sehen, die ihm gerade von der Linken so gerne vorgehalten werden. Hayek lehnte Diktaturen ab; doch wenn die Errichtung einer totalitären Diktatur droht, so kann eine kurzfristige Autokratie notwendig sein, um die Gefahr abzuwehren. Ausgedeutscht: Hayek hätte einen Putsch des deutschen Militärs, um den demokratisch legitimierten Reichskanzler 1933 zu stürzen und damit in Wahrheit vielen tausend Menschen das Leben zu retten, begrüßt. Was Schulmeister an dieser Position so verwerflich findet, ist sein Geheimnis.

Die Generalerzählung der Krise

Schulmeisters Interpretation der jetzigen Wirtschaftskrise hätte ich 2008 verstanden, doch kommt sie mir 2013 nur noch skurril vor. Wenn er die Artikel seiner Zunftkollegen gelesen hätte, wüßte er, dass die ursprüngliche Finanzkrise 2008 nur der Auslöser, aber nicht die Ursache der anhaltenden Krise der Realwirtschaft ist. Finanzkrisen sind auch kein neues Phänomen und kommen immer wieder vor, ohne eine anhaltende Rezession hervorzurufen. Doch manche Länder haben diese Krise gut überstanden — dazu zählen grosso modo auch Deutschland und Österreich —, andere haben sich in der Folge in ein Tal der Tränen verirrt. Das liegt nicht an Finanzalchemie, wie es Schulmeister so gern nennt, sondern an strukturellen Rahmenbedingungen, Institutionen, gesellschaftlichen, politischen und auch demographischen Umständen.

In Großbritannien, in dem die Finanzwirtschaft so eine wichtige Rolle spielt, ist die Arbeitslosenrate im Zuge der Krise von 6% auf fast 8% hochgeschnellt, stieg Ende 2011 auf 8,4%, um nun auf 7,7% zu sinken. Frankreich hatte 7,7% bereits im 2. Quartal 2008, und im Juli 2013 eine Arbeitslosenrate von 11%. In Österreich waren es im 2. Quartal 2008 nur 3,5%, ein außerordentlich niedriger Wert. Auch für Österreich. Für Juli 2013 werden 4,8% geschätzt, ein Wert, der in Vergangenheit 2004-2006 übertroffen wurde. Auch 2009 war die Arbeitslosigkeit höher. In Spanien beträgt sie im 2. Quartal 2013 26,4%, vier Jahre vorher waren es 17,9%. Vier Länder, vier völlig unterschiedliche Entwicklungen am Arbeitsmarktes. Man könnte das an Hand anderer Zahlen ebenso durchspielen: Es gibt keine „Generalerzählung“ der Krise, die für alle Länder zutrifft. Was natürlich kein guter Stoff für Kolumnen ist.

Wie ich schon einmal diskutiert habe, liegt Schulmeisters Problem meines Erachtens darin, dass er sicherlich ein guter Makroökonom ist, aber für Dinge wie Institutionenökonomik oder mikroökonomische Fundierung kein Verständnis hat. Dann wäre ihm auch nicht der Lapsus mit dem „manisch-depressiven Irrsein“ der Finanzmärkte passiert, der die gesamte „neoliberale Theorie“ über den Haufen werfe. Der Satz wäre allein schon wieder einen Aufsatz wert. Seine Fixierung auf die negativen Seiten der Finanzmärkte verengt außerdem seinen Blick für andere Zusammenhänge. Schade, denn Schreiben kann er. Jedenfalls weit besser als ich. Jetzt müssten nur noch die Inhalte stimmen.

Der homo oeconomicus bleibt uns erhalten

Es ist ein beliebter Vorwurf gegen die wissenschaftlich betriebene Ökonomie: Sie würde ja durch ihr Modell des homo oeconomicus, des rational nutzenmaximierenden Menschen, die Wirklichkeit völlig verzerren; aus den Wirtschaftswissenschaften abgeleitete Politikempfehlungen wären daher unbrauchbar.

Nun wissen Wirtschaftswissenschafter nicht erst seit gestern, dass diese Modellannahme eben nur eine Annahme ist, noch dazu eine tautologische. Da jedes Modell die Wirklichkeit nur so beschreibt wie eine Landkarte – abstrahiert und für den Zweck angepasst — , so bedient es sich vereinfachender Annahmen, die das Zeichnen der Karte erst ermöglichen. Joan Robinson sagte bekanntermaßen, ein Modell, das die Wirklichkeit vollständig beschreibt, ist so nützlich wie ein Landkarte im Maßstab 1:1.

Für bestimmte Forschungsaufgaben wurde aber das Modell des handelnden Menschen in den letzten Jahrzehnten sukzessive überarbeitet. So mit der Revolution der „rationalen Erwartungen“, mit der Informationen über zukünftige Ereignisse in die Entscheidungen des wirtschaftlichen Akteurs integriert wurden.

Im Gefolge des Nobelpreisträgers Gary S. Becker konnte scheinbar „irrationales Verhalten“ bei verschiedenen nicht-ökonomischen Sachverhalten in einen ökonomischen Rahmen integriert und damit analysiert werden. Ein andere Nobelpreisträger, Daniel Kahneman, gehört zu den Mitbegründern der Verhaltensökonomie, die ökonomische Entscheidungen unter Unsicherheit unter Einbeziehung von Erkenntnissen der Psychologie untersuchen. George Akerlof, wieder ein Nobelpreisträger, hat in den Siebziger Jahren die Auswirkungen asymmetrischer Information auf die Entscheidungen der Akteure untersucht, und um die Jahrtausendwende mit Rachel Kranton die Identitätsökonomie begründet, die versucht, ein Konzept der Identität als Bündel sozialer Normen und Beziehungen in die Darstellung wirtschaftlicher Entscheidungen einzubeziehen.

Es hat sich in der Praxis allerdings gezeigt, dass einfachere Modelle oft robustere Ergebnisse haben. Ein Beispiel dafür zeigen Ronald M. Harstad und Reinhard Selten auf. In den letzten Jahrzehnten wird mit Modellen experimentiert, in denen die Akteure Information nicht komplett rational verarbeiten, sondern beschränkt rational handeln, mit „bounded rationality“. Und doch gibt es viele Gründe, weiterhin mit der Annahme rationaler Akteure zu operieren. Weil man es etwa auf viele Bereiche so anwenden kann, dass interpretierbare Ergebnisse entstehen. Oder weil entsprechende Arbeiten auch von Dritten leichter analysiert werden können. Die Modellierung irrationalen Verhaltens kann auch die Einflüsse anderer Faktoren verdunkeln, in dem man Diskrepanzen leichtfertig auf die beschränkte Rationalität der Akteure schiebt.

Harstad und Selten betonen dabei besonders die Analyse effizienter Verwendung von Ressourcen, die in Modellen mit rationalen Akteuren mit nur beschränkten Annahmen möglich sind und dort sinnvolle Resultate liefern. Modelle mit beschränkter Rationalität sind in solchen Fragen von einer Anwendbarkeit z.T. noch weit entfernt, meinen die Autoren, die dafür eine Mischung experimenteller Ökonomie und beschränkt-rationalen Modellen vorschlagen.

Kurz: Die Annahme des homo oeconomicus ist in den Wirtschaftswissenschaften nicht universal, doch in vielen Bereichen nützlich. Und diese Annahme bleibt es auch in Zukunft, weil komplizierte, menschliches Verhalten möglicherweise besser approximierende Annahmen soviele Unsicherheitsfaktoren beinhalten, dass die Resultate für Dritte nur aufwendig nachzuvollziehen sind. Und manchmal eine Karte im Maßstab 1:100.000 eben nützlicher ist als eine Karte im Maßstab 1:10.

Zahlen Sie doch, soviel Sie wollen!

Was gibt es, wenn jeder für eine Leistung einfach das zahlt, was er dafür zu zahlen bereit ist? Freiwillig? Böse Zungen werden jetzt einmal sagen: Einen verhungernden Verkäufer. In St. Louis hat eine Restaurantkette die Probe aufs Exempel gemacht, allerdings vorsichtig: Lediglich eine Speise, ein Richtpreis ist angegeben, und jeder Mehrerlös dient einem guten Zweck. Da sind schon einmal Anreize gegeben, es nicht mit einem Cent zu belassen. Die Kette betreibt auch bereits eine Lokale mit Bezahlung auf freiwilliger Basis, allerdings handelt es sich dabei um spendenfinanzierte Sozialcafés. Trotzdem: Die Sozialcafés bleiben, doch die Speise mit bloßen Richtpreis ist aus den übrigen Restaurants der Kette wieder verschwunden.

Auch das Humble Bundle, eine Sammlung von Computerspielen, verbindet freiwillige Zahlungshöhe mit einem karitativen Zweck. Mittlerweile wurden über 25 verschiedene „Humble Bundle“-Pakete geschnürt und zigtausendfach verkauft, zu einem Durchschnittspreis zwischen fünf und vierzehn Dollar je Paket, das wiederum aus mehreren Spielen oder E-Books besteht. Hier kann der Käufer einerseits etwas erwerben, das ihn interessiert (die Spiele), und wird durch die Verknüpfung mit Spenden dazu angehalten, trotzdem seinen Obulus zu entrichten. Manchesmal (oder auch immer? Das weiß ich nicht) gibt es einen Bonus, wenn man

Der Unterschied, warum das Humble Bundle funktioniert, der Restaurantbetrieb dagegen weniger, liegt an einem simplen Problem, wie Tim Harford berichtet: Den zusätzlichen Kosten (oder auch Grenzkosten), die mit der Herstellung einer weiteren Einheit des Produkts verbunden sind. Das Humble Bundle ist eine Sammlung oft älterer Spiele, deren Entwicklungskosten schon hereingespielt wurden. Wenn nun eine weitere Kopie übers Internet heruntergeladen wird, sind die Grenzkosten für den Spielehersteller vernachlässigbar. Selbst vergleichsweise geringe Zahlungen werden diese Zusatzkosten abdecken, so daß es trotzdem ein Geschäft bleibt. Bei den Bündeln, die als reine karitative Aktion konzipiert sind, gilt dies umso mehr. Bei Speisen und anderen physischen Waren entstehen über die Fixkosten hinaus oft erhebliche Kosten in der Herstellung, und zumindest diese müssen getragen werden, damit das Geschäft weitergehen kann. Doch die Zahl der Trittbrettfahrer ist hoch, der Anreiz, ausreichend zu bezahlen, gering. Projekte, die auf freiwilliges Bezahlen setzen, blühen daher im digitalen Bereich, und sind im Gegensatz dazu auf den Einkaufsstraßen kaum vertreten.

Ein kleiner Hinweis: Harford erwähnt einen Artikel von Ayelet Gneezy, Uri Gneezy, Leif D. Nelson und Amber Brown, dem man hier lesen kann. Von Ayelet Gneezy, Uri Gneezy, Gerhard Riener und Leif D. Nelson gibt es einen Artikel zu „Pay-what-you-want, identity and self-signaling in markets“, in dem verschiedenen Experimente geschildert werden, einschließlich einem Experiment im Wiener Restaurant „Deewan“. Das „Deewan“ ist interessant, weil es es Speisen mit freiwilliger Bezahlung anbietet – Getränke haben feste Preise –, und mit diesem Konzept schon mehrere Jahre erfolgreich ist. Dabei sind die Getränke aber eine Art Preisanker. Bei entsprechender Gestaltung kann also auch ein Restaurant mit freiwilliger Bezahlung reüssieren – es ist aber nicht so einfach und basiert auf der Herstellung sozialer Situationen, in denen der Zahlende (im Durchschnitt) eine Orientierung über den angemessenen Preis erhält und ein Verpflichtung spürt, diesen auch leisten zu müssen.

Vermögensstudie: Die Arbeiterkammer auf der Suche nach den Superreichen

Jede Studie zu Vermögenswerten privater Haushalte macht mich hellhörig, handelt es sich dabei doch um Daten, die nur schwierig zu eruieren sind. Es fängt bei der Beurteilung an, was ein Vermögenswert ist (z.B. auch Versicherungs- und Pensionsansprüche?), geht mit der Erfassung weiter, die von Grundstücken über Schmuck, Bilder, Einrichtungsgegenständen bis zu Wertpapieren reicht, und dann mit der Bewertung dieser Güter. Selbst in Gesellschaften mit gläsernen Bürgern ein Unterfangen, bei dem schlußendlich nur Annahme auf Annahme getürmt werden kann, um zu einem ungefähren Ergebnis zu kommen, das einem halt eine Größenordnung vermittelt. Mehr nicht.

Daher hat mich auch die Studie von sechs Mitarbeitern der Johannes-Kepler-Universität interessiert, die unter Förderung der Arbeiterkammern Wien und Oberösterreich die Vermögen privater Haushalte ermitteln sollte. Und dabei zu einem Ergebnis gekommen ist, daß der Arbeiterkammer zwei nahezu gleichlautende Presseaussendungen wert war: Die vermögensten Österreicher sollen tatsächlich sehr vermögend sein.

Glücklicherweise haben die Zentralbanken des EZB-Verbundes vor kurzem versucht, durch stichprobenartige Erhebungen das Vermögen privater Haushalte zu schätzen. Und diese Daten sind auf Anfrage auch öffentlich zugänglich. Die Studienautoren Paul Eckerstofer, Johannes Halak, Jakob Kapeller, Bernhard Schütz, Florian Springholz und Rafael Wildauer nehmen nun diese Daten und unterstellen für die obersten Vermögenswerte eine Pareto-Verteilung, die an Hand der „Reichenliste“ des Magazins Trends, deren Daten natürlich ebenfalls problematisch sind — was die Autoren auch einräumen – kalibriert wird. Zusätzliche empirische Daten wurden nicht eingeholt; der Verweis auf die weggefallene Erbschaftsteuer scheint mir dabei hinterfragenswert, da sie ja bis August 2008 eingehoben wurde und sich seither die Vermögenswerte wohl nicht dramatisch verschoben haben dürften. Man hätte diese Daten ruhig einbeziehen können.

Der entscheidene Punkt ihrer Datenarbeit wird so beschrieben:

Zuerst wird mithilfe des Cramer-von-Mises Tests ein geeigneter Ansatzpunkt für die Pareto-Verteilung bestimmt. Die Daten oberhalb dieses Ansatzpunktes bilden dann die Datenbasis für die Schätzung der Pareto-Verteilung. Schließlich werden alle Haushalte mit einem Vermögen > 4 Millionen (also der zu korrigierende Teil) aus dem Datensatz entfernt und durch neu generierte Haushalte ersetzt, welche aus einer Serie von Zufallsziehungen aus dem oberen Bereich (> 4 Millionen) der zuvor geschätzten Pareto-Verteilung gewonnen
werden.

Diese Übung ist durchaus nicht uninteressant. Durch die Methode steht das Ergebnis aber praktisch von vornherein fest. Es muß sich fast zwangsläufig ergeben, daß die Vermögenskonzentration höher als in den Ausgangsdaten ist, und das geschätzte Gesamtvermögen ebenfalls zunimmt. In diesem Fall sogar um 25%. Da wäre ein Abgleich mit anderen Datenquellen oder Schätzungen wohl hilfreich, um die Plausibilität zu prüfen.

Die Aussage, die sich für die Arbeiterkammer daraus ergibt, kann der Leser aber nicht gewinnen: Weder ist festgestellt, daß das Vermögen der „Reichen größer als bisher bekannt“ sei, noch, daß die vermögenreichsten Haushalte soundsoviele Milliarden Euro mehr Vermögen haben als laut EZB-Studie. Festgestellt ist, daß unter Annahme einer bestimmten Vermögensverteilung, zu der es in der Studie diskutierte Alternativen gibt, bestimmte Rechenergebnisse folgen, deren Zusammenhang mit der Realität noch Gegenstand weiterer Überprüfungen sein müßte. An der ungefähren Größenordnung, die die EZB-Studie vermittelt, kann diese Arbeit mangels empirischen Beitrags nichts ändern.

Josef Urschitz kommentiert in der „Presse“ spitzzüngig: „Mangels Daten muss man leider wild herumschätzen und hochrechnen, bis das vom Auftraggeber Arbeiterkammer gewünschte Ergebnis vorliegt.“ Und wenn er andeutet, daß die Studie dem Wahlkampf geschuldet ist, hat er wohl nicht unrecht.

Unkonventionelle Fiskalpolitik an der Nullzinsgrenze

In der aktuellen Ausgabe des American Economic Review ist ein interessanter Artikel über die Konvergenz von Fiskal- und Geldpolitik zu finden: „Unconventional Fiscal Policy at the Zero Bound.“ (Hier in einer älteren Version bei der Federal Reserve Bank of Minneapolis zu lesen.)

Worum geht es? Ökonomen diskutieren lange und gerne darum, was die Politik machen kann, wenn die Wirtschaft derart danieder liegt, dass die Zinsen eigentlich sinken müssten, um die Konjunktur anzukurbeln – aber sie ohnehin bereits nahe Null sind und daher gar nicht mehr gesenkt werden können. Eine Methode wäre, Geld zu drucken, Inflation zu erzeugen. Realzinsen sind bekanntlich die Nominalzinsen, also die offiziell vereinbarten, abzüglich der Inflation. Das ist die sogenannte Fisher-Gleichung. Steigt also die Inflation bei gleichbleibendem Nominalzins, und sei er nahe Null, sinken die Realzinsen. Problem gelöst.

Was ist aber, wenn es schwierig ist, Inflation zu erzeugen? Also z.B. nur um den Preis, die ganze Wirtschaft aus der Balance zu bringen? Oder die Glaubwürdigkeit der Notenbank langfristig zu zerstören? Oder weil wir uns in einer sogenannten Liquiditätsfalle befinden, in der zusätzlich gedrucktes Geld einfach nicht ausgegeben, sondern gehortet wird?

Nun sagen Marktmonetaristen wie Scott Sumner, daß noch nie eine Notenbank daran gescheitert wäre, ihre eigene Währung zu entwerten, wenn sie es vorgehabt hat. An der Sicherung der Währungsstabilität sind schon mehrere gescheitert, doch nicht an der Geldentwertung.

Alternativ könnte man aber durch eine koordinierte, gestaffelte Erhöhung der Konsumabgaben – z.B. der Mehrwertsteuer – und gleichzeitige Senkung der Lohnsteuern und Kapitalsteuern ebenso Inflation erzeugen: Und zwar bei den Verbraucherpreisen. Die Senkung der Lohn- und Kapitalsteuern verhindert eine Lohn-Preis-Spirale, senkt den nötigen Zins, damit sich Investitionen lohnen, und verhindert eine Produzentenpreisinflation. Nach Beendigung der Rezession sollten diese Änderungen wieder langsam rückgeführt werden.

In der politischen Praxis ist dieser Vorschlag nicht durchführbar; gestaffelte Erhöhungen sind unbeliebt, und die Rückführung der Steuern ohne Einsatz erheblichen politischen Kapitals nicht machbar. Doch diese Überlegungen erweitern trotzdem den politischen Werkzeugkasten gerade in einer Währungsunion. Bekanntlich wurden zwar in etlichen EU-Ländern die Konsumsteuern kräftig erhöht, freilich ohne kompensierende Senkungen der Lohn- und Kapitalsteuern.

Eine kurze Einführung in die Wirkung der Mehrwertsteuer

Im Zuge der Krisenbewältigung wurde in vielen europäischen Staaten die Mehrwertsteuer zum Teil ordentlich erhöht, so in Spanien von 16% im Jahr 2009 auf mittlerweile 21%; in Griechenland von 19% auf 23%, oder bereits 2007 in Deutschland von 16% auf 19%.

Nun ist eine der häufigen Kritiken – die auch wissenschaftlich fundiert sind —, daß Mehrwertsteuererhöhungen rasch weitergegeben werden, während Mehrwertsteuersenkungen sich kaum niederschlagen würden. Und tatsächlich ist das so: Die zahlreichen Mehrwertsteuererhöhungen haben die Inflation im Euroraum trotz magerer Konjunktur angeheizt.

Untenstehende Graphik versucht, die Wirkung der Mehrwertsteuer darzustellen. Dabei wird fallender Grenznutzen durch eine weitere Einheit unterstellt – der zweite Becher Wasser bringt mehr Nutzen als der zwölfte -, und steigende Grenzkosten, die industrieweit plausibel sind.

Die Hersteller würden in meinem fiktiven Beispiel zum Preis 5 z.B. 20 Stück eines Gutes herstellen, zum Preis von 4 nur 11 Stück, weil der Verkauf des 12. Stücks zu diesem Preis ein Verlustgeschäft wäre. Die Konsumenten aber würden zum Preis von 4 auch 30 Stück einkaufen, zum Preis von 5 aber nur 10. Ohne Steuer treffen sie sich bei einem Preis von etwa 4,6 und 15 Stück.

Nun kommt eine Mehrwertsteuer von 25% hinzu. Die Produzenten können jetzt 15 Stück nur mehr zum Preis von mindestens 5,75 anbieten, wollen sie ihre Kosten trotz Steuer hereinbekommen. Ihnen selbst bleiben ja weiterhin nur 4,6 davon. Doch zu diesem Preis werden die Konsumenten nicht 15 Stück einkaufen, sondern nur 5. Schließlich einigt man sich via Kaufentscheidungen: 11 Stück zum Preis von 5.

In unserem Diagramm markiert nicht mehr der türkise, sondern der orange Stern das Gleichgewicht von Angebot und Nachfrage. Die Steuern haben einen Keil zwischen Angebot und Nachfrage getrieben, die den Ertrag der Steuern ausmachen. Der Gesamtnutzen der Konsumenten aus dieser Transaktion sinkt. Die Konsumentenrente – der Bereich unter der Nachfragekurve, aber über der Summe aus Einnahmen und Steuern -, ist spürbar geschrumpft. Genauso die Produzentenrente, der Bereich innerhalb des Einnahmenrechtecks über der Angebotskurve.

Das Dreieck, das links von den Steuern, oben von der Nachfragekurve, unten von der Angebotskurve und rechts vom türkisen Stern begrenzt wird, stellt absolut verlorenen Nutzen dar, der nunmehr weder Staat, noch Konsumenten oder Produzenten zufließt.

Man erkennt: Die Steuererhöhung muß gerade in einer Wettbewerbssituation sofort durchschlagen, wollen die Unternehmer nicht mit Verlust produzieren. In der Wirlichkeit ist etwas komplizierter: Manche Hersteller haben Marktmacht, Angebot und Nachfrage reagieren je nach Gut unterschiedlich auf Preisänderungen. Aber im großen und ganzen trifft es zu.

Was geschieht nun bei einer Senkung der Mehrwertsteuer, sagen wir auf zehn Prozent? Ein Blick ins Diagramm verrät: Wir kommen von der punktierten auf die strichlierte Angebotskurve, vom orangen zum blauen Stern als Gleichgewichtspunkt. Das müsste doch zu einer Preissenkung führen? Tut es – langfristig gesehen – auch. Doch selbst in einem Modell mit vollkommener Information und vollkommenem Wettbewerb gibt es einen Grund, warum diese Preisänderungen nicht so durchschlagen. Denn wir haben ja ein System laufender Geldentwertung. Wenn diese Inflation nun wegen der Mehrwertsteuersenkung geringer ausfällt, so fällt das weniger auf.

Dazu kommt, daß in der Realität viele Unternehmer beschränkt Marktmacht haben, und daher kurzfristige Mitnahmeeffekte realisiert werden.

Die obige Betrachtung ist etwas verzerrend, weil sie einen Markt betrachtet hat. Betrachten wir nun beschränkte Budgets, die wir zwischen Sparen und verschiedenen Gütern aufteilen. Aggregiert ist der Effekt der höheren Mehrwertsteuer eindeutig: Die Kaufkraft der Betroffenen geht zurück. Da ärmere Schichten einen höheren Teil ihres Einkommens für Konsum aufwenden, sind diese vom Kaufkraftrückgang natürlich auch stärker betroffen.

Es ist übrigens ein Märchen, das niedrige Mehrwertsteuersätze etwa auf Lebensmittel eine effektive Hilfe für niedrige Einkommen wären. Wer mehr verdient, gibt auch mehr für Lebensmittel aus (man denke nur an das Einkommensprofil eines Biomarktes), und profitiert davon natürlich ebenso.

Zahlt sich eine Vollzeitstelle aus?

„Wozu mehr arbeiten?“, fragt Jeannine Hierländer in der „Presse“ nur halb rhetorisch. In Österreich ist die Steuerprogression besonders stark und früh ausgeprägt. Während niedrige Einkommen steuerfrei sind, erreicht man sehr früh eine Art Flat Tax aus Sozialversicherung und Lohnsteuer von etwa 44%. Betrachtet man die Einkommensteuer allein, so ist die Bemessungsgrundlage (aus der die Sozialversicherungsbeiträge bereits ausgeschieden worden sind) bis 11.000 Euro steuerfrei, dann beginnt bereits ein Grenzsteuersatz von 36,5% zu wirken. Bereits bei einem Jahreseinkommen ab 60.000 Euro hat man die höchte Besteuerungsstufe (50%) erreicht. Diese Graphik der Arbeiterkammer, die allerdings mit dem für ökonomische Entscheidungen weniger relevanten Gesamtanteil von Steuern und Sozialversicheurng am Einkommen operiert, unterstreicht das Problem.

Hierländer schreibt daher: „Wer von Voll- auf Teilzeit umsteigt, arbeitet in vielen Fällen um die Hälfte weniger und verliert dabei nur ein Drittel seines Nettoeinkommens.“

Ein Beispiel, gerechnet mit dem Brutto-Netto-Rechner des BMF: Ein alleinstehender Dienstnehmer ohne Pendlerpauschale erhält ein Bruttoeinkommen von 2.500 Euro monatlich. Das entspricht einem Brutto-Jahreseinkommen von 35.000 Euro, abzüglich von Sozialversicherung, Lohnsteuer etc. nur 23.972,62.  Den Dienstgeber hat er aber insgesamt sogar 45.916,00 Euro gekostet. Nun reduziert der Dienstnehmer seinen Vertrag auf 25 Stunden, also 1.562,50 monatlich. Das Brutto-Jahreseinkommen beträgt nun 21.875, netto bleiben 16.658,10. Der Dienstgeber muß insgesamt 28.697,54 aufwenden. Die Arbeitszeit wurde um 37,5% reduziert, das Nettoeinkommen sank aber nur um 30,5%. Die Gesamtabgabenbelastung des Mehrverdienstes betrug übrigens 44,27%. Ohne 13./14. wäre der Unterschied eklatanter, ebenso in Bereichen mit höheren Stundenlöhnen. Tatsächlich gibt es Branchen, in denen die Rechnung Hierländers die Realität approximiert. A propos: Der Grenzertrag der 40. Wochenstunde liegt für den beispielhaften Dienstnehmer bei 487,68 Euro netto, aber 875 Euro brutto im Jahr. In gewissen Bereichen (so z.B. beim Sprung von 1.490 Euro auf 1.500 Euro brutto/Monat) führt ein höheres Bruttoeinkommen sogar zu einem niedrigeren Nettoeinkommen.

Wer also sein Leben auch mit dem geringerem Einkommen aus Teilzeit bestreiten kann, was insbesondere für Menschen zutrifft, die nicht alleine wohnen (Ehepartner, bei den Eltern, auch Wohngemeinschaften etc.), könnte auf Grund des rapide abnehmenden Grenzertrags der Mehrarbeit leicht den Schluß ziehen, daß sich eine Vollarbeitsstelle nicht auszahlt. Umso mehr, wenn die so gewonnene Zeit für Tätigkeiten genutzt werden kann, denen man selbst eine hohe Priorität einräumt. Ökonomisch gesprochen: Aus deren Ausweitung man einen hohen persönlichen Grenznutzen zieht. Wer sich aus gesellschaftspolitischen Gründen über die hohe Teilzeitquote bei Frauen beschwert, würde hier einen Puzzlestein finden.

Nebenbei: Interessant, daß die Arbeiterkammer und Gewerkschaft den Anstieg an Teilzeit-Verträgen immer scharf kritisieren und als Armutsfalle geißeln, aber selbst immer wieder Vorstöße für eine Verkürzung der Arbeitszeit vornehmen. Allgemeine Teilzeit sozusagen. Siehe übrigens diesen „Presse“-Artikel von Wolfgang Scherf, warum eine allgemeine Arbeitszeitverkürzung die Versprechen ihrer Proponenten rein technisch nicht einlösen kann.

Most of our people never had it so good

Tim Harford ist ein Populärwissenschafter im besten Sinn des Wortes: Er verpackt ökonomisches Wissen in anschauliche, alltagstaugliche Beispiele, bildet unterhaltend die Öffentlichkeit, ohne durch allzugroße Vereinfachung seine Leser zu verbilden oder durch allzu abgehobene Sprache zu verachten.

Nun hat er für die BBC einen interessanten Kurzbeitrag zur Entwicklung des Lebensstandard der Briten heute in der Wirtschaftskrise und im langjährigen Vergleich der letzten fünfzig Jahre gedreht.

Aufhänger dafür ist der berühmte Spruch des früheren britischen Premiers Harold Macmillan aus dem Jahr 1957: „Most of our people never had it so good.“ Angesichts des wirtschaftlichen Aufschwungs der Fünfziger Jahre eine verständliche und durchaus richtige Aussage.

Die Entwicklung der Einkommensperzentilen, die Harford kurz thematisiert, ist freilich ebenfalls nicht die ganze Geschichte, denn der Großteil der Menschen wandert im Laufe ihres Erwerbslebens durch verschiedene Einkommensperzentilen. Ein Beispiel: Der Student mit Nebenjob oder der Lehrling bewegt sich in einer unteren Perzentile, derselbe Mensch ist Jahre später als fertiger Akademiker oder erfahrener Meister in einer weitaus höheren Perzentile anzutreffen. Für die Entwicklung der persönlichen Lebensverdienstsumme — oder, noch wichtiger: der Lebenskonsummöglichkeiten — sagt die Entwicklung dieser einzelnen Perzentilen also nur beschränkt etwas aus.

Vier Kontinente, eine kleine Getränkedose

Wenn man kurz innehält und die kleinen, selbstverständlichen Dinge des Alltags wieder einmal betrachtet, dann merkt man bald, daß sie eigentlich nicht so selbstverständlich sind. Da kann man auch wieder in das Staunen des kleinen Kindes über die wunderbare Welt verfallen.

So etwa bei einem Gebräu, daß mir persönlich zwar nicht besonders schmeckt, aber viele Millionen Fans auf der ganzen Welt hat. Und um deren Durst zu löschen, sind eine ganze Menge Leute auf mehreren Kontinenten beschäftigt, wie Kevin Ashton an Hand einer einzigen Dose US-amerikanischen Coca-Colas (das sich vom europäischen übrigens unterscheidet) in seinem Supermarkt zu berichten weiß.

(Link über kottke.org)

Wein-„Terroir“: Ein Marketingschmäh?

Für den Geschmack des Weins spielen neben der Rebsorte der Boden, die Höhe, Sonnenstunden, Niederschlagsmenge und vieles mehr eine Rolle. So ist es nur natürlich, daß Weine aus bestimmten Lagen, in denen sich diese Eigenschaften hervorragend kombinieren, traditionell einen besonders guten Preis erzielen können.

In Frankreich hat man mit dem „Terroir“-Marketing da eine Vorreiterrolle eingenommen und einige Top-Lagen als Inbegriff guten Weins etablieren können. Daher hält dieses Wort auch Einzug im Marketing anderer Ländern; hier wird es bspw. vom österreichischen Weinmarketing beschrieben.

Vier Ökonomen – zwei in den USA, einer in Brüssel, einer in Frankreich – wollten die Aussagekraft des „Terroir“-Begriffs wissenschaftlich testen. Zwei von ihnen, Orley Ashenfelter und Karl Storchmann, haben mit dem Journalisten George Taber renommierte Wein-Connaisseure zu einer Blindverkostung eingeladen: Acht allgemein für gut befundene französische Weine und zwölf Weine aus New Jersey [!], je die Hälfte Rot und Weiß. Tatsächlich gewannen zwei französische Weine – Clos des Mouches 2010 bei den Weißweinen, Château Mouton-Rothschild 2004 bei den Rotweinen –, doch nur der Clos des Mouches wurde auch statistisch signifikant für besser befunden, während die anderen Weißweine im Prinzip innerhalb der Schwankungsbreite beisammenlagen. Bei den Rotweinen war ein Vertreter aus New Jersey signifikant schlechter, doch die andere Weine wurden allesamt ähnlich gut beurteilt, Terroir hin oder her.

Die beiden europäischen Partner, Oliver Gergaud und Victor Ginsburgh, haben schon vor Jahren in einem Paper festgestellt, daß die Qualitätsurteile der Weinexperten und Konsumenten weniger durch die Einzellage als durch die verwendeten Techniken und Prozesse des Weinbaus und der Vinifizierung erklärt werden können. Andererseits ist bekannt, daß Menschen bereit sind, für einen bestimmten Terroir mehr zu zahlen.

Die Lösung scheint sich so anzubieten: Die Landschaft und das Klima beeinflussen natürlich den Geschmack; doch die Unterschiede zwischen zwei Einzellagen ähnlicher Art, die beide von einem guten, versierten Winzer gepflegt worden sind, sind für den menschlichen Geschmackssinn nicht mehr feststellbar. Das macht aber nichts, denn zum „Gesamterlebnis Wein“ gehört für viele eben auch die Flasche, das Etikett, der Preis, etc. Es ist bekannt, daß Weine den Menschen tendenziell besser schmecken, wenn sie erfahren haben, daß es sich um einen hochpreisigen Tropfen handelt. Insofern gehört ein wenig „Terroir“-Selbstbetrug zur Weinerfahrung heutzutage einfach dazu.