Der homo oeconomicus bleibt uns erhalten

Es ist ein beliebter Vorwurf gegen die wissenschaftlich betriebene Ökonomie: Sie würde ja durch ihr Modell des homo oeconomicus, des rational nutzenmaximierenden Menschen, die Wirklichkeit völlig verzerren; aus den Wirtschaftswissenschaften abgeleitete Politikempfehlungen wären daher unbrauchbar.

Nun wissen Wirtschaftswissenschafter nicht erst seit gestern, dass diese Modellannahme eben nur eine Annahme ist, noch dazu eine tautologische. Da jedes Modell die Wirklichkeit nur so beschreibt wie eine Landkarte – abstrahiert und für den Zweck angepasst — , so bedient es sich vereinfachender Annahmen, die das Zeichnen der Karte erst ermöglichen. Joan Robinson sagte bekanntermaßen, ein Modell, das die Wirklichkeit vollständig beschreibt, ist so nützlich wie ein Landkarte im Maßstab 1:1.

Für bestimmte Forschungsaufgaben wurde aber das Modell des handelnden Menschen in den letzten Jahrzehnten sukzessive überarbeitet. So mit der Revolution der „rationalen Erwartungen“, mit der Informationen über zukünftige Ereignisse in die Entscheidungen des wirtschaftlichen Akteurs integriert wurden.

Im Gefolge des Nobelpreisträgers Gary S. Becker konnte scheinbar „irrationales Verhalten“ bei verschiedenen nicht-ökonomischen Sachverhalten in einen ökonomischen Rahmen integriert und damit analysiert werden. Ein andere Nobelpreisträger, Daniel Kahneman, gehört zu den Mitbegründern der Verhaltensökonomie, die ökonomische Entscheidungen unter Unsicherheit unter Einbeziehung von Erkenntnissen der Psychologie untersuchen. George Akerlof, wieder ein Nobelpreisträger, hat in den Siebziger Jahren die Auswirkungen asymmetrischer Information auf die Entscheidungen der Akteure untersucht, und um die Jahrtausendwende mit Rachel Kranton die Identitätsökonomie begründet, die versucht, ein Konzept der Identität als Bündel sozialer Normen und Beziehungen in die Darstellung wirtschaftlicher Entscheidungen einzubeziehen.

Es hat sich in der Praxis allerdings gezeigt, dass einfachere Modelle oft robustere Ergebnisse haben. Ein Beispiel dafür zeigen Ronald M. Harstad und Reinhard Selten auf. In den letzten Jahrzehnten wird mit Modellen experimentiert, in denen die Akteure Information nicht komplett rational verarbeiten, sondern beschränkt rational handeln, mit „bounded rationality“. Und doch gibt es viele Gründe, weiterhin mit der Annahme rationaler Akteure zu operieren. Weil man es etwa auf viele Bereiche so anwenden kann, dass interpretierbare Ergebnisse entstehen. Oder weil entsprechende Arbeiten auch von Dritten leichter analysiert werden können. Die Modellierung irrationalen Verhaltens kann auch die Einflüsse anderer Faktoren verdunkeln, in dem man Diskrepanzen leichtfertig auf die beschränkte Rationalität der Akteure schiebt.

Harstad und Selten betonen dabei besonders die Analyse effizienter Verwendung von Ressourcen, die in Modellen mit rationalen Akteuren mit nur beschränkten Annahmen möglich sind und dort sinnvolle Resultate liefern. Modelle mit beschränkter Rationalität sind in solchen Fragen von einer Anwendbarkeit z.T. noch weit entfernt, meinen die Autoren, die dafür eine Mischung experimenteller Ökonomie und beschränkt-rationalen Modellen vorschlagen.

Kurz: Die Annahme des homo oeconomicus ist in den Wirtschaftswissenschaften nicht universal, doch in vielen Bereichen nützlich. Und diese Annahme bleibt es auch in Zukunft, weil komplizierte, menschliches Verhalten möglicherweise besser approximierende Annahmen soviele Unsicherheitsfaktoren beinhalten, dass die Resultate für Dritte nur aufwendig nachzuvollziehen sind. Und manchmal eine Karte im Maßstab 1:100.000 eben nützlicher ist als eine Karte im Maßstab 1:10.

Zahlen Sie doch, soviel Sie wollen!

Was gibt es, wenn jeder für eine Leistung einfach das zahlt, was er dafür zu zahlen bereit ist? Freiwillig? Böse Zungen werden jetzt einmal sagen: Einen verhungernden Verkäufer. In St. Louis hat eine Restaurantkette die Probe aufs Exempel gemacht, allerdings vorsichtig: Lediglich eine Speise, ein Richtpreis ist angegeben, und jeder Mehrerlös dient einem guten Zweck. Da sind schon einmal Anreize gegeben, es nicht mit einem Cent zu belassen. Die Kette betreibt auch bereits eine Lokale mit Bezahlung auf freiwilliger Basis, allerdings handelt es sich dabei um spendenfinanzierte Sozialcafés. Trotzdem: Die Sozialcafés bleiben, doch die Speise mit bloßen Richtpreis ist aus den übrigen Restaurants der Kette wieder verschwunden.

Auch das Humble Bundle, eine Sammlung von Computerspielen, verbindet freiwillige Zahlungshöhe mit einem karitativen Zweck. Mittlerweile wurden über 25 verschiedene „Humble Bundle“-Pakete geschnürt und zigtausendfach verkauft, zu einem Durchschnittspreis zwischen fünf und vierzehn Dollar je Paket, das wiederum aus mehreren Spielen oder E-Books besteht. Hier kann der Käufer einerseits etwas erwerben, das ihn interessiert (die Spiele), und wird durch die Verknüpfung mit Spenden dazu angehalten, trotzdem seinen Obulus zu entrichten. Manchesmal (oder auch immer? Das weiß ich nicht) gibt es einen Bonus, wenn man

Der Unterschied, warum das Humble Bundle funktioniert, der Restaurantbetrieb dagegen weniger, liegt an einem simplen Problem, wie Tim Harford berichtet: Den zusätzlichen Kosten (oder auch Grenzkosten), die mit der Herstellung einer weiteren Einheit des Produkts verbunden sind. Das Humble Bundle ist eine Sammlung oft älterer Spiele, deren Entwicklungskosten schon hereingespielt wurden. Wenn nun eine weitere Kopie übers Internet heruntergeladen wird, sind die Grenzkosten für den Spielehersteller vernachlässigbar. Selbst vergleichsweise geringe Zahlungen werden diese Zusatzkosten abdecken, so daß es trotzdem ein Geschäft bleibt. Bei den Bündeln, die als reine karitative Aktion konzipiert sind, gilt dies umso mehr. Bei Speisen und anderen physischen Waren entstehen über die Fixkosten hinaus oft erhebliche Kosten in der Herstellung, und zumindest diese müssen getragen werden, damit das Geschäft weitergehen kann. Doch die Zahl der Trittbrettfahrer ist hoch, der Anreiz, ausreichend zu bezahlen, gering. Projekte, die auf freiwilliges Bezahlen setzen, blühen daher im digitalen Bereich, und sind im Gegensatz dazu auf den Einkaufsstraßen kaum vertreten.

Ein kleiner Hinweis: Harford erwähnt einen Artikel von Ayelet Gneezy, Uri Gneezy, Leif D. Nelson und Amber Brown, dem man hier lesen kann. Von Ayelet Gneezy, Uri Gneezy, Gerhard Riener und Leif D. Nelson gibt es einen Artikel zu „Pay-what-you-want, identity and self-signaling in markets“, in dem verschiedenen Experimente geschildert werden, einschließlich einem Experiment im Wiener Restaurant „Deewan“. Das „Deewan“ ist interessant, weil es es Speisen mit freiwilliger Bezahlung anbietet – Getränke haben feste Preise –, und mit diesem Konzept schon mehrere Jahre erfolgreich ist. Dabei sind die Getränke aber eine Art Preisanker. Bei entsprechender Gestaltung kann also auch ein Restaurant mit freiwilliger Bezahlung reüssieren – es ist aber nicht so einfach und basiert auf der Herstellung sozialer Situationen, in denen der Zahlende (im Durchschnitt) eine Orientierung über den angemessenen Preis erhält und ein Verpflichtung spürt, diesen auch leisten zu müssen.

Vermögensstudie: Die Arbeiterkammer auf der Suche nach den Superreichen

Jede Studie zu Vermögenswerten privater Haushalte macht mich hellhörig, handelt es sich dabei doch um Daten, die nur schwierig zu eruieren sind. Es fängt bei der Beurteilung an, was ein Vermögenswert ist (z.B. auch Versicherungs- und Pensionsansprüche?), geht mit der Erfassung weiter, die von Grundstücken über Schmuck, Bilder, Einrichtungsgegenständen bis zu Wertpapieren reicht, und dann mit der Bewertung dieser Güter. Selbst in Gesellschaften mit gläsernen Bürgern ein Unterfangen, bei dem schlußendlich nur Annahme auf Annahme getürmt werden kann, um zu einem ungefähren Ergebnis zu kommen, das einem halt eine Größenordnung vermittelt. Mehr nicht.

Daher hat mich auch die Studie von sechs Mitarbeitern der Johannes-Kepler-Universität interessiert, die unter Förderung der Arbeiterkammern Wien und Oberösterreich die Vermögen privater Haushalte ermitteln sollte. Und dabei zu einem Ergebnis gekommen ist, daß der Arbeiterkammer zwei nahezu gleichlautende Presseaussendungen wert war: Die vermögensten Österreicher sollen tatsächlich sehr vermögend sein.

Glücklicherweise haben die Zentralbanken des EZB-Verbundes vor kurzem versucht, durch stichprobenartige Erhebungen das Vermögen privater Haushalte zu schätzen. Und diese Daten sind auf Anfrage auch öffentlich zugänglich. Die Studienautoren Paul Eckerstofer, Johannes Halak, Jakob Kapeller, Bernhard Schütz, Florian Springholz und Rafael Wildauer nehmen nun diese Daten und unterstellen für die obersten Vermögenswerte eine Pareto-Verteilung, die an Hand der „Reichenliste“ des Magazins Trends, deren Daten natürlich ebenfalls problematisch sind — was die Autoren auch einräumen – kalibriert wird. Zusätzliche empirische Daten wurden nicht eingeholt; der Verweis auf die weggefallene Erbschaftsteuer scheint mir dabei hinterfragenswert, da sie ja bis August 2008 eingehoben wurde und sich seither die Vermögenswerte wohl nicht dramatisch verschoben haben dürften. Man hätte diese Daten ruhig einbeziehen können.

Der entscheidene Punkt ihrer Datenarbeit wird so beschrieben:

Zuerst wird mithilfe des Cramer-von-Mises Tests ein geeigneter Ansatzpunkt für die Pareto-Verteilung bestimmt. Die Daten oberhalb dieses Ansatzpunktes bilden dann die Datenbasis für die Schätzung der Pareto-Verteilung. Schließlich werden alle Haushalte mit einem Vermögen > 4 Millionen (also der zu korrigierende Teil) aus dem Datensatz entfernt und durch neu generierte Haushalte ersetzt, welche aus einer Serie von Zufallsziehungen aus dem oberen Bereich (> 4 Millionen) der zuvor geschätzten Pareto-Verteilung gewonnen
werden.

Diese Übung ist durchaus nicht uninteressant. Durch die Methode steht das Ergebnis aber praktisch von vornherein fest. Es muß sich fast zwangsläufig ergeben, daß die Vermögenskonzentration höher als in den Ausgangsdaten ist, und das geschätzte Gesamtvermögen ebenfalls zunimmt. In diesem Fall sogar um 25%. Da wäre ein Abgleich mit anderen Datenquellen oder Schätzungen wohl hilfreich, um die Plausibilität zu prüfen.

Die Aussage, die sich für die Arbeiterkammer daraus ergibt, kann der Leser aber nicht gewinnen: Weder ist festgestellt, daß das Vermögen der „Reichen größer als bisher bekannt“ sei, noch, daß die vermögenreichsten Haushalte soundsoviele Milliarden Euro mehr Vermögen haben als laut EZB-Studie. Festgestellt ist, daß unter Annahme einer bestimmten Vermögensverteilung, zu der es in der Studie diskutierte Alternativen gibt, bestimmte Rechenergebnisse folgen, deren Zusammenhang mit der Realität noch Gegenstand weiterer Überprüfungen sein müßte. An der ungefähren Größenordnung, die die EZB-Studie vermittelt, kann diese Arbeit mangels empirischen Beitrags nichts ändern.

Josef Urschitz kommentiert in der „Presse“ spitzzüngig: „Mangels Daten muss man leider wild herumschätzen und hochrechnen, bis das vom Auftraggeber Arbeiterkammer gewünschte Ergebnis vorliegt.“ Und wenn er andeutet, daß die Studie dem Wahlkampf geschuldet ist, hat er wohl nicht unrecht.

Unkonventionelle Fiskalpolitik an der Nullzinsgrenze

In der aktuellen Ausgabe des American Economic Review ist ein interessanter Artikel über die Konvergenz von Fiskal- und Geldpolitik zu finden: „Unconventional Fiscal Policy at the Zero Bound.“ (Hier in einer älteren Version bei der Federal Reserve Bank of Minneapolis zu lesen.)

Worum geht es? Ökonomen diskutieren lange und gerne darum, was die Politik machen kann, wenn die Wirtschaft derart danieder liegt, dass die Zinsen eigentlich sinken müssten, um die Konjunktur anzukurbeln – aber sie ohnehin bereits nahe Null sind und daher gar nicht mehr gesenkt werden können. Eine Methode wäre, Geld zu drucken, Inflation zu erzeugen. Realzinsen sind bekanntlich die Nominalzinsen, also die offiziell vereinbarten, abzüglich der Inflation. Das ist die sogenannte Fisher-Gleichung. Steigt also die Inflation bei gleichbleibendem Nominalzins, und sei er nahe Null, sinken die Realzinsen. Problem gelöst.

Was ist aber, wenn es schwierig ist, Inflation zu erzeugen? Also z.B. nur um den Preis, die ganze Wirtschaft aus der Balance zu bringen? Oder die Glaubwürdigkeit der Notenbank langfristig zu zerstören? Oder weil wir uns in einer sogenannten Liquiditätsfalle befinden, in der zusätzlich gedrucktes Geld einfach nicht ausgegeben, sondern gehortet wird?

Nun sagen Marktmonetaristen wie Scott Sumner, daß noch nie eine Notenbank daran gescheitert wäre, ihre eigene Währung zu entwerten, wenn sie es vorgehabt hat. An der Sicherung der Währungsstabilität sind schon mehrere gescheitert, doch nicht an der Geldentwertung.

Alternativ könnte man aber durch eine koordinierte, gestaffelte Erhöhung der Konsumabgaben – z.B. der Mehrwertsteuer – und gleichzeitige Senkung der Lohnsteuern und Kapitalsteuern ebenso Inflation erzeugen: Und zwar bei den Verbraucherpreisen. Die Senkung der Lohn- und Kapitalsteuern verhindert eine Lohn-Preis-Spirale, senkt den nötigen Zins, damit sich Investitionen lohnen, und verhindert eine Produzentenpreisinflation. Nach Beendigung der Rezession sollten diese Änderungen wieder langsam rückgeführt werden.

In der politischen Praxis ist dieser Vorschlag nicht durchführbar; gestaffelte Erhöhungen sind unbeliebt, und die Rückführung der Steuern ohne Einsatz erheblichen politischen Kapitals nicht machbar. Doch diese Überlegungen erweitern trotzdem den politischen Werkzeugkasten gerade in einer Währungsunion. Bekanntlich wurden zwar in etlichen EU-Ländern die Konsumsteuern kräftig erhöht, freilich ohne kompensierende Senkungen der Lohn- und Kapitalsteuern.

Eine kurze Einführung in die Wirkung der Mehrwertsteuer

Im Zuge der Krisenbewältigung wurde in vielen europäischen Staaten die Mehrwertsteuer zum Teil ordentlich erhöht, so in Spanien von 16% im Jahr 2009 auf mittlerweile 21%; in Griechenland von 19% auf 23%, oder bereits 2007 in Deutschland von 16% auf 19%.

Nun ist eine der häufigen Kritiken – die auch wissenschaftlich fundiert sind —, daß Mehrwertsteuererhöhungen rasch weitergegeben werden, während Mehrwertsteuersenkungen sich kaum niederschlagen würden. Und tatsächlich ist das so: Die zahlreichen Mehrwertsteuererhöhungen haben die Inflation im Euroraum trotz magerer Konjunktur angeheizt.

Untenstehende Graphik versucht, die Wirkung der Mehrwertsteuer darzustellen. Dabei wird fallender Grenznutzen durch eine weitere Einheit unterstellt – der zweite Becher Wasser bringt mehr Nutzen als der zwölfte -, und steigende Grenzkosten, die industrieweit plausibel sind.

Die Hersteller würden in meinem fiktiven Beispiel zum Preis 5 z.B. 20 Stück eines Gutes herstellen, zum Preis von 4 nur 11 Stück, weil der Verkauf des 12. Stücks zu diesem Preis ein Verlustgeschäft wäre. Die Konsumenten aber würden zum Preis von 4 auch 30 Stück einkaufen, zum Preis von 5 aber nur 10. Ohne Steuer treffen sie sich bei einem Preis von etwa 4,6 und 15 Stück.

Nun kommt eine Mehrwertsteuer von 25% hinzu. Die Produzenten können jetzt 15 Stück nur mehr zum Preis von mindestens 5,75 anbieten, wollen sie ihre Kosten trotz Steuer hereinbekommen. Ihnen selbst bleiben ja weiterhin nur 4,6 davon. Doch zu diesem Preis werden die Konsumenten nicht 15 Stück einkaufen, sondern nur 5. Schließlich einigt man sich via Kaufentscheidungen: 11 Stück zum Preis von 5.

In unserem Diagramm markiert nicht mehr der türkise, sondern der orange Stern das Gleichgewicht von Angebot und Nachfrage. Die Steuern haben einen Keil zwischen Angebot und Nachfrage getrieben, die den Ertrag der Steuern ausmachen. Der Gesamtnutzen der Konsumenten aus dieser Transaktion sinkt. Die Konsumentenrente – der Bereich unter der Nachfragekurve, aber über der Summe aus Einnahmen und Steuern -, ist spürbar geschrumpft. Genauso die Produzentenrente, der Bereich innerhalb des Einnahmenrechtecks über der Angebotskurve.

Das Dreieck, das links von den Steuern, oben von der Nachfragekurve, unten von der Angebotskurve und rechts vom türkisen Stern begrenzt wird, stellt absolut verlorenen Nutzen dar, der nunmehr weder Staat, noch Konsumenten oder Produzenten zufließt.

Man erkennt: Die Steuererhöhung muß gerade in einer Wettbewerbssituation sofort durchschlagen, wollen die Unternehmer nicht mit Verlust produzieren. In der Wirlichkeit ist etwas komplizierter: Manche Hersteller haben Marktmacht, Angebot und Nachfrage reagieren je nach Gut unterschiedlich auf Preisänderungen. Aber im großen und ganzen trifft es zu.

Was geschieht nun bei einer Senkung der Mehrwertsteuer, sagen wir auf zehn Prozent? Ein Blick ins Diagramm verrät: Wir kommen von der punktierten auf die strichlierte Angebotskurve, vom orangen zum blauen Stern als Gleichgewichtspunkt. Das müsste doch zu einer Preissenkung führen? Tut es – langfristig gesehen – auch. Doch selbst in einem Modell mit vollkommener Information und vollkommenem Wettbewerb gibt es einen Grund, warum diese Preisänderungen nicht so durchschlagen. Denn wir haben ja ein System laufender Geldentwertung. Wenn diese Inflation nun wegen der Mehrwertsteuersenkung geringer ausfällt, so fällt das weniger auf.

Dazu kommt, daß in der Realität viele Unternehmer beschränkt Marktmacht haben, und daher kurzfristige Mitnahmeeffekte realisiert werden.

Die obige Betrachtung ist etwas verzerrend, weil sie einen Markt betrachtet hat. Betrachten wir nun beschränkte Budgets, die wir zwischen Sparen und verschiedenen Gütern aufteilen. Aggregiert ist der Effekt der höheren Mehrwertsteuer eindeutig: Die Kaufkraft der Betroffenen geht zurück. Da ärmere Schichten einen höheren Teil ihres Einkommens für Konsum aufwenden, sind diese vom Kaufkraftrückgang natürlich auch stärker betroffen.

Es ist übrigens ein Märchen, das niedrige Mehrwertsteuersätze etwa auf Lebensmittel eine effektive Hilfe für niedrige Einkommen wären. Wer mehr verdient, gibt auch mehr für Lebensmittel aus (man denke nur an das Einkommensprofil eines Biomarktes), und profitiert davon natürlich ebenso.

Zahlt sich eine Vollzeitstelle aus?

„Wozu mehr arbeiten?“, fragt Jeannine Hierländer in der „Presse“ nur halb rhetorisch. In Österreich ist die Steuerprogression besonders stark und früh ausgeprägt. Während niedrige Einkommen steuerfrei sind, erreicht man sehr früh eine Art Flat Tax aus Sozialversicherung und Lohnsteuer von etwa 44%. Betrachtet man die Einkommensteuer allein, so ist die Bemessungsgrundlage (aus der die Sozialversicherungsbeiträge bereits ausgeschieden worden sind) bis 11.000 Euro steuerfrei, dann beginnt bereits ein Grenzsteuersatz von 36,5% zu wirken. Bereits bei einem Jahreseinkommen ab 60.000 Euro hat man die höchte Besteuerungsstufe (50%) erreicht. Diese Graphik der Arbeiterkammer, die allerdings mit dem für ökonomische Entscheidungen weniger relevanten Gesamtanteil von Steuern und Sozialversicheurng am Einkommen operiert, unterstreicht das Problem.

Hierländer schreibt daher: „Wer von Voll- auf Teilzeit umsteigt, arbeitet in vielen Fällen um die Hälfte weniger und verliert dabei nur ein Drittel seines Nettoeinkommens.“

Ein Beispiel, gerechnet mit dem Brutto-Netto-Rechner des BMF: Ein alleinstehender Dienstnehmer ohne Pendlerpauschale erhält ein Bruttoeinkommen von 2.500 Euro monatlich. Das entspricht einem Brutto-Jahreseinkommen von 35.000 Euro, abzüglich von Sozialversicherung, Lohnsteuer etc. nur 23.972,62.  Den Dienstgeber hat er aber insgesamt sogar 45.916,00 Euro gekostet. Nun reduziert der Dienstnehmer seinen Vertrag auf 25 Stunden, also 1.562,50 monatlich. Das Brutto-Jahreseinkommen beträgt nun 21.875, netto bleiben 16.658,10. Der Dienstgeber muß insgesamt 28.697,54 aufwenden. Die Arbeitszeit wurde um 37,5% reduziert, das Nettoeinkommen sank aber nur um 30,5%. Die Gesamtabgabenbelastung des Mehrverdienstes betrug übrigens 44,27%. Ohne 13./14. wäre der Unterschied eklatanter, ebenso in Bereichen mit höheren Stundenlöhnen. Tatsächlich gibt es Branchen, in denen die Rechnung Hierländers die Realität approximiert. A propos: Der Grenzertrag der 40. Wochenstunde liegt für den beispielhaften Dienstnehmer bei 487,68 Euro netto, aber 875 Euro brutto im Jahr. In gewissen Bereichen (so z.B. beim Sprung von 1.490 Euro auf 1.500 Euro brutto/Monat) führt ein höheres Bruttoeinkommen sogar zu einem niedrigeren Nettoeinkommen.

Wer also sein Leben auch mit dem geringerem Einkommen aus Teilzeit bestreiten kann, was insbesondere für Menschen zutrifft, die nicht alleine wohnen (Ehepartner, bei den Eltern, auch Wohngemeinschaften etc.), könnte auf Grund des rapide abnehmenden Grenzertrags der Mehrarbeit leicht den Schluß ziehen, daß sich eine Vollarbeitsstelle nicht auszahlt. Umso mehr, wenn die so gewonnene Zeit für Tätigkeiten genutzt werden kann, denen man selbst eine hohe Priorität einräumt. Ökonomisch gesprochen: Aus deren Ausweitung man einen hohen persönlichen Grenznutzen zieht. Wer sich aus gesellschaftspolitischen Gründen über die hohe Teilzeitquote bei Frauen beschwert, würde hier einen Puzzlestein finden.

Nebenbei: Interessant, daß die Arbeiterkammer und Gewerkschaft den Anstieg an Teilzeit-Verträgen immer scharf kritisieren und als Armutsfalle geißeln, aber selbst immer wieder Vorstöße für eine Verkürzung der Arbeitszeit vornehmen. Allgemeine Teilzeit sozusagen. Siehe übrigens diesen „Presse“-Artikel von Wolfgang Scherf, warum eine allgemeine Arbeitszeitverkürzung die Versprechen ihrer Proponenten rein technisch nicht einlösen kann.

Most of our people never had it so good

Tim Harford ist ein Populärwissenschafter im besten Sinn des Wortes: Er verpackt ökonomisches Wissen in anschauliche, alltagstaugliche Beispiele, bildet unterhaltend die Öffentlichkeit, ohne durch allzugroße Vereinfachung seine Leser zu verbilden oder durch allzu abgehobene Sprache zu verachten.

Nun hat er für die BBC einen interessanten Kurzbeitrag zur Entwicklung des Lebensstandard der Briten heute in der Wirtschaftskrise und im langjährigen Vergleich der letzten fünfzig Jahre gedreht.

Aufhänger dafür ist der berühmte Spruch des früheren britischen Premiers Harold Macmillan aus dem Jahr 1957: „Most of our people never had it so good.“ Angesichts des wirtschaftlichen Aufschwungs der Fünfziger Jahre eine verständliche und durchaus richtige Aussage.

Die Entwicklung der Einkommensperzentilen, die Harford kurz thematisiert, ist freilich ebenfalls nicht die ganze Geschichte, denn der Großteil der Menschen wandert im Laufe ihres Erwerbslebens durch verschiedene Einkommensperzentilen. Ein Beispiel: Der Student mit Nebenjob oder der Lehrling bewegt sich in einer unteren Perzentile, derselbe Mensch ist Jahre später als fertiger Akademiker oder erfahrener Meister in einer weitaus höheren Perzentile anzutreffen. Für die Entwicklung der persönlichen Lebensverdienstsumme — oder, noch wichtiger: der Lebenskonsummöglichkeiten — sagt die Entwicklung dieser einzelnen Perzentilen also nur beschränkt etwas aus.

Vier Kontinente, eine kleine Getränkedose

Wenn man kurz innehält und die kleinen, selbstverständlichen Dinge des Alltags wieder einmal betrachtet, dann merkt man bald, daß sie eigentlich nicht so selbstverständlich sind. Da kann man auch wieder in das Staunen des kleinen Kindes über die wunderbare Welt verfallen.

So etwa bei einem Gebräu, daß mir persönlich zwar nicht besonders schmeckt, aber viele Millionen Fans auf der ganzen Welt hat. Und um deren Durst zu löschen, sind eine ganze Menge Leute auf mehreren Kontinenten beschäftigt, wie Kevin Ashton an Hand einer einzigen Dose US-amerikanischen Coca-Colas (das sich vom europäischen übrigens unterscheidet) in seinem Supermarkt zu berichten weiß.

(Link über kottke.org)

Wein-„Terroir“: Ein Marketingschmäh?

Für den Geschmack des Weins spielen neben der Rebsorte der Boden, die Höhe, Sonnenstunden, Niederschlagsmenge und vieles mehr eine Rolle. So ist es nur natürlich, daß Weine aus bestimmten Lagen, in denen sich diese Eigenschaften hervorragend kombinieren, traditionell einen besonders guten Preis erzielen können.

In Frankreich hat man mit dem „Terroir“-Marketing da eine Vorreiterrolle eingenommen und einige Top-Lagen als Inbegriff guten Weins etablieren können. Daher hält dieses Wort auch Einzug im Marketing anderer Ländern; hier wird es bspw. vom österreichischen Weinmarketing beschrieben.

Vier Ökonomen – zwei in den USA, einer in Brüssel, einer in Frankreich – wollten die Aussagekraft des „Terroir“-Begriffs wissenschaftlich testen. Zwei von ihnen, Orley Ashenfelter und Karl Storchmann, haben mit dem Journalisten George Taber renommierte Wein-Connaisseure zu einer Blindverkostung eingeladen: Acht allgemein für gut befundene französische Weine und zwölf Weine aus New Jersey [!], je die Hälfte Rot und Weiß. Tatsächlich gewannen zwei französische Weine – Clos des Mouches 2010 bei den Weißweinen, Château Mouton-Rothschild 2004 bei den Rotweinen –, doch nur der Clos des Mouches wurde auch statistisch signifikant für besser befunden, während die anderen Weißweine im Prinzip innerhalb der Schwankungsbreite beisammenlagen. Bei den Rotweinen war ein Vertreter aus New Jersey signifikant schlechter, doch die andere Weine wurden allesamt ähnlich gut beurteilt, Terroir hin oder her.

Die beiden europäischen Partner, Oliver Gergaud und Victor Ginsburgh, haben schon vor Jahren in einem Paper festgestellt, daß die Qualitätsurteile der Weinexperten und Konsumenten weniger durch die Einzellage als durch die verwendeten Techniken und Prozesse des Weinbaus und der Vinifizierung erklärt werden können. Andererseits ist bekannt, daß Menschen bereit sind, für einen bestimmten Terroir mehr zu zahlen.

Die Lösung scheint sich so anzubieten: Die Landschaft und das Klima beeinflussen natürlich den Geschmack; doch die Unterschiede zwischen zwei Einzellagen ähnlicher Art, die beide von einem guten, versierten Winzer gepflegt worden sind, sind für den menschlichen Geschmackssinn nicht mehr feststellbar. Das macht aber nichts, denn zum „Gesamterlebnis Wein“ gehört für viele eben auch die Flasche, das Etikett, der Preis, etc. Es ist bekannt, daß Weine den Menschen tendenziell besser schmecken, wenn sie erfahren haben, daß es sich um einen hochpreisigen Tropfen handelt. Insofern gehört ein wenig „Terroir“-Selbstbetrug zur Weinerfahrung heutzutage einfach dazu.

Arbeiten wie im Mittelalter

Die Tageszeitung „Die Presse“ hat seit 2010 eine interessante wirtschaftliche Kolumne mit Bildungsauftrag, den „Hobbyökonomen“. Dabei werden immer wieder aktuelle, aber auch Episoden aus der Wirtschaftsgeschichte behandelt, die oft relevanter für die Gegenwart sind, als man annehmen würde.

So auch diesmal, und zwar unter der durchaus provokanten Überschrift: „Im Mittelalter wurde weniger gearbeitet als heute”. Heutzutage wird ja im öffentlichen Diskurs unter „Arbeit“ immer nur „Erwerbsarbeit“ verstanden, während Tätigkeiten wie Kochen, Putzen, Bügeln oder Reparaturen nur dann als Arbeit anerkannt werden, wenn es jemand anderer gegen Bezahlung übernimmt. Vor diesem Hintergrund wird die „Arbeitszeit“ im Spätmittelalter von Historikern nicht allzu hoch angesetzt.

Der Arbeitstag war bis zur Industrialisierung weitgehend von den Jahreszeiten und vom natürlichen Licht bestimmt. Da viele Arbeiten körperlich sehr anstrengend waren, sowohl in der Landwirtschaft oder im Handwerk, waren häufige Pausen üblich und auch notwendig. Dazwischen wurden auch andere wichtige Arbeiten der privaten Sphäre erledigt. Auch der Jahreskreis war darauf ausgelegt, durch Zeiten des Feierns und häufige kirchliche Feiertage Erholungspausen zu ermöglichen. Das kirchliche Sonntagsgebot hat so auch eine soziale Dimension, die schon dem jüdischen Sabbatgebot ausdrücklich innewohnt.

Auch waren bis zur Industrialisierung die „Erwerbsarbeit“ und das Privatleben bei weitem nicht so getrennt wie heute. Vielfach kann man eine Familie damals als eine Art „Kleinbetrieb“ verstehen, die alle möglichen Aufgaben zur Erhaltung auf seine Mitglieder arbeitsteilig aufteilt, die aber örtlich so nahe beieinander tätig sind, daß eine gegenseitige Hilfestellung leicht möglich war.

Das ist keineswegs eine idyllische Zeit gewesen; es war anstrengend und aufreibend, den Lebenserhalt zu sichern. Aber nicht so anstrengend und aufreibend, wie es in den ersten Jahrzehnten der industriellen Revolution für viele Menschen werden sollte. Denn die familiäre Einheit wurde durch die Fabriksarbeit aufgesprengt – vor diesem Hintergrund ergibt auch Marxens Diktum von der Entfremdung einen wenn auch nicht intendierten Sinn –, die Arbeitszeiten auf bis zu 80 Stunden nahezu pausenloser Arbeit massiv ausgeweitet, ohne daß die nötige Zeit für andere Aufgaben zum Erhalt der Familie geschrumpft wäre.

Erst Jahrzehnte später sollte die gestiegene Produktivität auch in den ärmeren Schichten zu einem Wohlstandsgewinn führen, der sich in kürzeren Wochenarbeitszeiten bei ausreichendem Lohn einerseits, in erschwinglichen Hilfen zur Erleichterung der Arbeiten in der privaten Sphäre andererseits (wie die Erfindung des Suppenwürfels …) ausdrückten.