torsdag 17 oktober 2024

ECB:s teknokratiska keynesianism efter eurokrisen: ett paradigmskifte?

 
Europeiska Centralbankens huvudkontor i Frankfurt. 
Foto av signaturen Kiefer på Wikipedia, CC BY-SA
 

Den europeiska monetära unionen, EMU, skapades 1992, en tid när marknadsliberalismen kanske stod på sin zenit som ekonomisk-politisk filosofi. Marknadsliberalismen och monetarismen i Milton Friedmans anda genomsyrade också EMU, säger statsvetaren Jens van t'Klooster (Universitetet i Amsterdam) i en mycket intressant artikel. Enligt den monetaristiska teorin uppstår inflation när staten skapar för mycket pengar relaterat till ekonomins produktiva kapacitet. Därför är det centralt att skapa institutioner som begränsar just denna expansiva aktivitet. I EMU delegerades makten att skapa offentliga pengar till den byråkratiskt styrda (inte politiskt styrda) centralbanken ECB, vars främsta policymål är prisstabilitet. I Maastrichtfördraget (Treaty on the Functioning of the European Union) skrevs det in i artikel 123 att ECB inte hade rätt att köpa statsobligationer direkt från medlemsstater eller institutioner -- ett typiskt sätt på vilket centralbankerna under efterkrigstiden hade stöttat en expansiv ekonomisk politik. (s. 6) EMU:s arkitekter skrev också in strikta budgetregler för att behålla medlemsstaternas budgetbalans ‘to the extent to which this was necessary to prevent imbalances that might threaten monetary stability’, som Delorskommittén formulerade det 1989. (s. 776) Maastrichtfördraget förbjuder medlemsstaterna att låna från varann (Artikel 125) och kräver att de ska "avoid excessive deficits", vilket Kommissionen har makt att övervaka (Artikel 125 och 126). Ett protokoll till fördraget specificerar detta till att budgetunderskotten som mest får vara 3 procent av BNP och statsskulden som mest 60 procent av BNP . 1997 gjordes reglerna än striktare med Stability and Growth Pact.

Liknande monetaristiska idéer om oberoende centralbanker som inte skulle kunna stötta expansiv ekonomisk politik inspirerade på 1980- och 90-talen också andra centralbanker som Bank of England. Ändå så har, vilket vitt och brett observerats och diskuterats i pressen, 2010-talet och det tidiga 20-talet präglats av vad vad man brukar kalla "okonventionell penningpolitik". Bank of Englands chef Andew Bailey förnekade i en op-ed i Financial Times 5 april 2020 just att man gjorde något heterodoxt: rubriken till Baileys artikel var ‘Bank of England is not doing “monetary financing”’. Månaden före hade BoE börjat ett Quantitative Easing-program värt 200 miljarder pund, i vilket man skapade nya pengar för att köpa statsobligationer. Detta var i praktiken förstås monetary financing, just vad man gjorde under efterkrigstiden och vad monetaristerna hade tagit avstånd ifrån, men Bailey vägrade erkänna att man frångått den nya doktrinen och gått tillbaka till den keynesianska erans praktiker. Han argumenterade att  ‘these reserves are not being created with the aim of paying for the government deficit, as under monetary financing’, och tog i princip avstånd från praktiken han egntligen sysslade med: "using monetary financing would damage credibility on controlling inflation by eroding operational independence. It would also ultimately result in an unsustainable central bank balance sheet and is incompatible with the pursuit of an inflation target by an independent central bank." (Bailey 2020, cit. van t'Klooster, s. 775) Ett par dagar senare, konstaterar van t'Klooster, så förklarade BoE attman skulle börja föra över pengar direkt till finansdepartementet (Treasury) genom den så kallade Ways and Means Facility. I flera månader köpte BoE statsobligationer efter att Treasury satt ut nya obligationer på marknaden, men BoE hävdade att det inte handlade om direkt monetary financing.

På ett liknande sätt kom ECB under 2010-talet att frångå sina principer och tänkta regler. Det hände dock inte omedelbart med krisen. 2005 hade ECB slagit fast en regel där man bara skulle köpa statsobligationer som fick goda betyg av marknadens institut, Moody's, Standard and Poor's och Fitch. Tilltron till instituten exemplifierar tidens tilltro till marknaden, men från 2009 och framåt tappade instituten sin prestige. Efter hand med krisen började ECB expandera sitt agerande. Genom Securities Market Programme (SMP) och Outright Monetary Transactions (OMT) köpte man upp statsobligationer på andrahandsmarknaden, för att få ner "unjustified interest spreads" orsakade av "unfounded fears of investors" om att EMU skulle bryta upp. Man hänvisade till prisstabilitetsmålet som ett skäl att agera på detta, och alltså sammanjämka de nya, okonventionella, medlen med det gamla målet. Med 2014 års Public Sector Purchase Programme (PSPP) började ECB återigen köpa statsskuldspapper i prisstabilitetnes namn; fram till 2019 köpte ECB obligationer för 2,1 miljarder euro, men hävdade själva att köpen designats så att ‘fiscally disciplining effect of the interest rate mechanism is upheld’. [1] 

Med covid-pandemin och Pandemic Emergency Purchase Programme (PEPP) blev ECB tydligare med att man sysslade med monetary financing. I mars 2020 proklamerade man att man skulle köpa obligationer för 750 miljarder € inom programmet, och i december hade omfattningen ökat till 1850 miljarder. ECB:s president Christine Lagarde förklarade att PEPP skulle göra så att finansmarknaderna inte fördjupade de ekonomiska chockerna, och att programmet skulel stödja alla sektorer i ekonomin: individer, familjer, företag, banker och stater. Intressant nog så beskrev ECB i sin PEPP-poligy den tidigar regeln om att begränsa sina köp av statsobligationer som "self-imposed", och att det alltså var en regel som man själv kunde förändra, utan att gå genom politikerna. (s. 778) van t'Klooster pekar på två intressanta nyheter i PEPP jämfört med tidigare program: att man inte tog hänsyn till credit ratings agencies betyg på statsobligationer utan köpte grekiska papper utan att bry sig om deras betyg, och att PEPP-köp inte kom med krav på motagerande genom finansministrarna och budgetpolitiken. (s. 778)

I förhållande till 1992 års regler, och till den monetaristiska ekonomisk-politiska filosofi som genomsyrar EMU, så har ECB sedan mitten av 2010-talet alltså betett sig i allra högsta grad okonventionellt. van t'Klooster kallar det till och med ett "paradigmskifte", bort från det monetaristiska paradigmet, och oavsett vad precis vi lägger i begreppen paradigm och paradigmskifte så är det en intressant förändring som ställer den stora frågan: hur kunde denna stora förändring ske? Det har inte skett genom en öppen ekonomisk-politisk diskussion utan snarare genom teknokraters omtolkningar av sitt uppdrag och sina mandat att agera.

van t'Klooster lägger alltså fram en ganska ny förklaring av hur den ekonomiska politiken förändras, jämfört med Halls kanoniska, mer elektoralt drivna modell över ett paradigmskifte. Teknokraterna på ECB har kunnat agera mer keynesianskt än vad det var tänkt att de skulle göra, och som motstånd mot processen pekar van t'Klooster bara på den tyska förvaltningsdomstolen i maj 2020 att PSPP-obligationsköpen faktiskt hade varit utanför ECB:s mandat. (s. 779) Han nämner inte Brexit, men kanske kan den processen åtminstone delvis också ses i detta ljus: känslan av att ovalda byråkrater expanderar sin makt och sina befogenheter var ju en av appellerna i Brexit-rörelsen.


referens

Jens van t'Klooster (2022) "Technocratic Keynesianism: a paradigm shift without legislative change", New Political Economy, 27:5, 771-787.

fotnoter

[1] van t'Klooster citerar här (s. 778) Bundesverfassungsgericht, "par 7", en referens som jag inte riktigt förstår.

onsdag 16 oktober 2024

Ekonomisk-politisk förändring inom och mellan paradigm


Hur förändras den ekonomiska politiken över tid, i ett större perspektiv? En av de mest inflytelserika tolkningarna -- artikeln från 1993 har i skrivande stund 11 489 citeringar på Google Scholar -- av detta är statsvetaren Peter Halls tolkning av hur keynesianismen började dominera brittisk ekonomisk politik för att på 1970-80-talen försvagas och till slut ersättas av monetarismen. Hall arbetade alltså med sådana bredare ekonomisk-politiska filosofier -- keynesianism, monetarism -- och han var inspirerad av Thomas Kuhns (1970) analys av hur vetenskaper arbetar inom paradigm som ackumulerar inre motsägelser varpå paradigmet då och då ersätts av ett nytt paradigm. Denna typ av paradigmatiskt skifte illustreras i diagrammet ovan.

Statsvetarna Martin Carstensen (verksam vid Roskilde universitet) och Matthias Matthijs (Johns Hopkins) arbetar i en artikel från 2018 på en förfinad analys av hur den ekonomiska politiken kan förändras också inom ett bredare paradigm. De utvecklar sin analys genom en studie av Storbritanniens ekonomiska politik sedan Thatchers avgång 1991, och analysen omfattar alltså regeringarna ledda av John Major, Tony Blair, Gordon Brown och David Cameron. (Artikelns skildring tar slut ungefär i höjd med Brexit-omröstningen och Theresa Mays tillträde.) Deras artikel fokuserar på idémässig förändring inom de ekonomisk-politiska paradigmen; sådan fanns förstås också hos Hall, som delade in ekonomisk-politisk förändring på tre olika skalor från liten förändring (medel) till större (mål och filosofi), och det är inte riktigt tydligt hur deras approach skiljer sig från vad Hall kallade first-order och second-order change. [1]

I inramningen refererar de att Halls fokus på paradigmskiften, alltså perioder av relativt oföränderliga policyparadigm följt av drastiska skiften, kritiserats  (Blyth 2002; Béland 2007; Carstensen 2011; Matthijs 2011; Wilder och Howlett 2014) och att hans analys har för lite utrymme åt agens. Så här presenterar de sin egen forskningsagenda, som också sträcker sig bortom just artikeln som jag har läst:

"To contribute to a fruitful new agenda for research on policy paradigms, we suggest in this article that the dynamics of ideational power take up a central position in accounts of paradigmatic stability and change. Drawing on the earlier work of Matthijs (2011) and more recent work by Carstensen and Schmidt (2016), we suggest that crisis narration, authority contests, and ideational power play a much more central role than exogenous shocks, often leading to gradual ideational change within a paradigm rather than a wholesale paradigm shift as theorized by Hall." (s. 432)

Och det här är ju såklart väldigt intressant! Så här sätter de upp den bredare diskussionen om hur idéer används i politiken:

"At any one time, a number of ideas are available for policy-makers to consider. Naturally, given that ideas have different power-distributional implications (Blyth, 2002) and that there are strict limits to the amounts of issues that a political system can deal with at any one time (Baumgartner & Jones, 2009), only very few of these ideas actually receive a hearing. Most ideas hence live a quiet life in relative obscurity, in what Kingdon (2003) called the “primeval soup of ideas.” Among the more “privileged” ideas, we find the ones that make up a policy paradigm. Functioning as the basis of policy-making in one or multiple policy areas, they help policy-makers identify problems and solutions, and work as a collective lens through which a government—along with other parties, societal elites, and likely also the electorate at large—deal with issues deemed of importance." (s. 434)

Figurerna 2 och 3, inklistrade nedan, illustrerar detta tänkande. Varje politiskt parti som konkurrerar om regeringsmakten håller antagligen med om vissa idéer som ingår i det regerande paradigmet, men har antagligen också ett par idéer där utanför. Genom att välja och vraka inom detta "ideational gap" (figur 3) kan poliitken förändras, och Carstensen och Matthijs exemplifierar detta med att Europa 2008-2009 som svar på finanskrisen hade en kortvarig keynesiansk sväng. För att få till varaktig förändring gäller det förstås att få idéerna att fastna, att flytta idéerna från "the ideational gap" till det dominanta paradigmet.


För att förstå hur detta händer behöver vi, säger Carstensen och Matthijs, ett begrepp om makt. De definierar "ideational power" så här:

"We take as our point of departure Carstensen and Schmidt’s (2016) definition of ideational power as the capacity of actors (whether individual or collective) to influence other actors’ normative and cognitive beliefs through the use of ideational elements. This may occur directly in interaction through persuasion or imposition, or indirectly by influencing the ideational context that defines the range of acceptable policy options. From this perspective, acts of ideational power—whether successful or not —only occur in a subset of the relations relevant for understanding how ideas matter, namely, when actors seek to influence the beliefs of others by promoting their own ideas at the expense of others." (s. 436)

Vad jag tycker är svårt och lite oklart här är då hur man egentligen kan skilja på vad som är idéernas kraft i sig, och vad som helt enkelt är att aktören med mest (politisk, institutionell, ekonomisk makt) bestämmer att idén som aktören föredrar, ska gälla -- inte för att idén i sig är kraftfull utan för att aktören är mäktig. (Jfr diskussionen om relationen till "institutional" och "structural power" på s. 437.)

För att analysera hur ideational power spelar roll i intra-paradigmatisk förändring föreslår de en "sekventiell approach" i tre steg. Först ut:

"First, ideational power manifests itself under the guise of constraining power of ideas. This refers to the popular authority certain existing ideas enjoy in structuring thought at the expense of other ideas (Carstensen & Schmidt, 2016). If we return to our situation of two parties in competition over government power, each seeking to close the gap between the reigning paradigm and their preferred set of ideas, the constraining power of ideas presents them with the challenge that the existing paradigm enjoys authority among elites and holds broad sway over the electoral majority, which in turn puts limits on the degree of ideational change that can be achieved.
The constraining power of ideas works through background ideational processes—constituted by systems of knowledge, discursive practices, and institutional setups—that affect which ideas enjoy authority at the expense of other ideas that may have been largely discredited or gone out of fashion. One may think about this kind of authority of ideas in terms of the strength of public philosophies (Schmidt, 2008), public sentiments (Campbell, 1998), or national economic traditions such as ordoliberalism in Germany (Matthijs, 2016) that form the background of policy-making processes. " (s. 438)
Det andra steget är persuasive power through ideas, "the epistemic capacity of actors to convince other
actors to accept and adopt their views of what to think and do through the use of ideational elements
(Carstensen & Schmidt, 2016). " (s. 438)

Det tredje steget är institutional power of ideas, "the capacity of actors to define and rule over the meaning of the body of ideas that constitute a paradigm." (s. 439) Här blir det återigen för mig oklart om idéerna egentligen har någon kraft i sig, eller om det handlar mer om att vissa aktörer är mäktiga och då selekterar de idéer som de tycker sig behöva: "In the case of policy paradigms, the most relevant deployment of institutional power over ideas comes in the form of the ability of actors not to listen, that is, a capacity to resist or veto alternative ideas (Matthijs & McNamara, 2015)." (s. 439) Kanske kan jag formulera det så här: handlar det egentligen om makt genom idéer (alltså att idéerna i sig har kraft) eller makt över idéer?


referens

Martin B. Carstensen och Matthias Matthijs (2018) "Of paradigms and power: British economic policy
making since Thatcher"
, Governance 31: 431-447.

fotnoter

[1] De har på s. 432-433 en sofistikerad analys av Halls paradigmanalys, som jag skippar här för att få flöde i texten. De diskuterar där tre punkter. Ett, att policyparadigm enligt Hall är oförenliga, att var o ch ett "contains its own account of how the world facing policymakers operates". På denna punkt har Oliver och Pemberton (2004) riktat in en kritik: att förändringar sker mer gradvis än så. Den andra punkten handlar om policyanomaliers betydelse för att provocera fram paradigmskiften. Den tredje punkten är att Hall enligt C och M "employed a hard version of the Kuhnian (1970) take on paradigm shifts", genom att göra en modell med bara två sorters policyförändring: den gradvisa förändringen i policy settings eller policy instruments, och så den storskaliga paradigmatiska förändringen.

fredag 11 oktober 2024

Lucaskritiken och politiken

 
 
ur Robert Lucas klassiska artikel (nästan 12 000 citeringar på GS!) "Econometric 
policy evaluation: A critique" från 1976, en av de studier som gav honom 
Nobelpriset i nationalekonomi

 

Det var 1976 som nationalekonomen Robert E. Lucas lanserade sin berömda "Lucaskritik", som var med och lanserade den nyklassiska revolutionen mot Keynes inom nationalekonomin och som han trettio år senare fick Nobelpriset för. Vad var det då som Lucas kritiserade? I grund och botten var det den makroekonomiska modell som då användes för att utvärdera ekonomisk politik. Detta har jag också diskuterat i mitt inlägg om Edward Prescotts Nobelföreläsning från 2006, där Prescott beskriver hans och Finn Kydlands del av den nyklassiska rörelsen på 1970-talet, och den makromodell som Lucas opponerar sig emot är också den som Prescott kritiserade:

y_t+1 = F(y_t, x_t, u, e_t)
x_t = G(y_t, x_t−1, l, n_t)

Där y är utfallsvariabeln och x är den exogena policyvariabeln, och u och l är deras parametrar. Lucas utforskade i sin artikel konsumtion, skatter och Phillipskurvan och argumenterade att aktörer reagerar på policy vilket förändrar utfallen; parametrarna u och l är inte "policy invariant" utan kommer förändras med policy. Med detta argument attackerade Lucas den existerande "system of equations"-approachen, en formalisering av den keynesianska teorin med IS-LM-kurvor och Phillipskurva. Den interventionism som keynesianerna förespråkade fick ett skadeskott med Lucas insikt. [1]

Nationalekonomen Katherine A. Moos från U Mass Amherst diskuterar i en artikel från 2019 Lucaskritiken, och det är från hennes artikel som jag tagit ovanstående diskussion. Hon betonar att Lucas kritik blev en av grundvalarna för den nyklassiska nationalekonomin och för en helt ny typ av makromodeller,dynamic stochastic general equilibrium (DSGE). Den första DSGE-modellen lanserades av Prescott (1986) med en Real Business Cycle-inkarnation fokuserad på produktivitetschocker och inget annat, men senare utvecklingar har tagit in en massa komplikationer och chocker, bland annat i nykeynesianska modeller som tar in prisrigiditet, imperfekt information och andra "distortions". (s. 5) Idag är DSGE-modeller de rigeur i makroekonomiska utvärderingar av policies, och används av en rad praktiker såsom Bank of England. [2]

Moos diskuterar debatten om teorin i Lucaskritiken. En intressant fråga är Lucas argument att ekonomer ska stabilisera "tastes and technology" för att stabilisera modellerna, som ifrågasätts av Kevin Hoover i Oxford Handbook of the Philosophy of Economics (2009). Lucas vill ha smaken som en mikrogrundval för makromodellen, men Hoover pekar på att individers smak formas i ett socialt samspel som inte är rent mikroekonomiskt. Lawson (1995) argumenterar liknande att de djupa parametrarna inte är så stabila som Lucas säger, att Lucas hade rätt i att de ekonometriska relationerna är instabila men att Lucas lösning på problemet leder fel. (s. 7)

Keynesianer som Modigliani (1977) menade från första början att Lucas teori om rationella förväntningar kunde stämma för spekulativa marknader men inte för arbetsmarknadne som är central i en makromodell. Andra keynesianer försvarade sina modeller, menade att parametrarna ändå var stabila och att det var utbudschocker och liknande som förklarade 1970-talets stagflation.

På policyutvärderingssidan menade Sims (1980,  1987) att Lucas undervärderade de enkla keynesianska modellernas förklaringskraft. Ännu mer generellt så menar Marcellino och Salmon (2002) att Lucas modell bygger på ett visst antagande om hur politiken fungerar. Mer bestämt, säger de, så utgår Lucas från att den privata sektorns agenter är rationella och kan förutse effekterna av policy, medan politikerna inte är rationella på detta sätt -- de kan i modellen inte förutse hur den privata sektorns agenter kommer reagera på policy. Så här sammanfattar Moos denna diskussion:

"The Marcellino and Salmon (2002) critique points to an inconsistency in the LC that may unearth, not intellectual sloppiness, but a strong prior regarding the incompetence of the policymaker. Theories of economic policy have an implicit theory of the state. A typical Keynesian model conceives of the state as benign or benevolent, in contrast to Lucas’s theoretical policymaker, which wields considerable power to disrupt the economy by producing exogenous shocks based on its (implicitly) limited rationality." (s. 9)

Från denna mycket intressanta teoretiska diskussion, som jag tycker kunde ha utvecklats mer, går Moos över till den mycket mer praktisk-empiriska aspekten: hur används Lucaskritiken i praktiken? Dess argument har gått in i DSGE-modellerna t ex med kriterier för mikrogrundvalar och "deep parameters", och man kan säga att Lucaskritiken är empiriskt testbar på så sätt att u inte ska reagera på l. Ekonometriker som David Hendry har testat detta i olika studier; Ericsson och Irons gjorde 1995 en survey över studier som testar Lucas argument och kom fram till att i princip alla empiriska studier talade emot argumenten. Det har förstås också gjorts en rad studier sedan 1995; dessa studier har mest fått resultat emot Lucas modell. (s. 9-11) Lindé, verksam vid svenska Riksbanken, publicerade 2001 en artikel i American Economic Review där han ställde frågan hur Lucaskritiken kan ha fått så lite stöd; han menade att studierna har för låg power och att estimaten av u och l därför blir skakiga. (s. 11-12)

Från de empiriska studierna går Moos över till en diskussion av de värderingar som stod på spel i debatten mellan nyklassikerna och keynesianer på 1970-80-talen. Hon refererar Keynes som själv hävdade att nationalekonomin är en "moral science", och keynesianer som Alan Blinder (1988) som menar att keynesianismen har en normativ sida, att ekonomins fluktuationer ska jämnas ut och arbetslösheten hållas nere. Hon refererar i kontrast till detta Hayeks kritik från 1940-talet och Friedmans kritik från 1960-talet av ekonomisk interventionism, tanken att politiken kan lägga sig i och förbättra ekonomin och vanligt folks levnadsstandard. Lucas modell genomsyras av ett perspektiv på policymakers som kortsiktiga och mindre rationella, och därmed som klumpiga och vars agerande leder till oönskade utfall. (s. 15-16) En anledning till att han lyckades få så stort genomslag är enligt Moos att Lucas formalisering av individers rationella förväntningar byggde vidare på något som många ekonomer redan tyckte, men inte hade inkorporerat i modellerna. Hon citerar Milton Friedman: "I think that vision [articulated by Lucas] was present in a way before. Everybody knew that you ought to be forward-looking. What he did was to develop a method whereby you could make that vision operational … . I think Lucas’s big contribution was to make it operational." (cit. 16) I detta perspektiv var Lucas innovation alltså inte teoretisk utan att formalisera en intuition som många nationalekonomer hade.

Samtidigt var modellens kraft att hävda att om man accepterar folks rationalitet, så måste man använda en modell med just dessa mikrogrundvalar, som antaganden som är inbyggda i själva modellen. Detta har så klart väckt kritik, t ex hos så framstående makroekonomer som Frank Hahn och Robert Solow som 1995 skrev att:

‘The irony is that macroeconomics began as the study of large-scale economic pathologies: prolonged depression, mass unemployment, persistent inflation, etc. … Now, at last, macroeconomic theory has as its central conception a model in which such pathologies are, strictly speaking, unmentionable.’ (cit. 17)
För debatten sedan finanskrisen 2008 refererar Moos ett specialnummer av Oxford Review of Economic Policy där en rad prominenta makroekonomer -- Blanchard, Wren-Lewis med flera -- debatterar hur användbara DSGE-modellerna i Lucas tradition egentligen är. Blanchard och Wren-Lewis säger båda att mikrogrundvalarna inte ska överges, men reformeras, och Moos tolkar detta som nyklassikernas fortsatt starka ställning inom makro. Hon menar också att Lucas modellers fortsatta styrka trots den empiriska kritiken bevisar Kuhns analys att ett paradigm inte går under bara för att det har empiriska problem. (s. 21)




referens

Katherine A. Moos (2019) "The Facts and the Values of the Lucas Critique", Review of Political Economy.

fotnoter

[1] Moos påpekar att även om man accepterar att u och l varierar så behöver man inte acceptera precis de mikrogrundvalar för makromodeller som Lucas förespråkade; debatten mellan Tinbergen och Keynes på 1930-talet visar detta. (s. 4, fn 10)
[2] Moos hänvisar dock till en studie av Hurtado (2014) som hävdar att DSGE-modellerna inte är så mycket mer stabila eller har mer prediktionskraft än old school-modellerna; de "deep parameters" som DSGE bygger på verkar förändra över tid och modellernas impulse response functions likaså. (s. 6)

torsdag 10 oktober 2024

Friedman och Prescotts Nobelprisföreläsningar

 
Milton Friedman, 1976. Foto i Public Domain, via Wikipedia


Det fanns (finns?) en tradition att Nobelpristagaren i nationalekonomi publicerar sin Nobelföreläsning i tidskriften Journal of Political Economy. I detta blogginlägg kollar jag på två av föreläsningarna som hållits av ekonomer som associeras med 1970- och 80-talets makroekonomiska revolution mot Keynesianismen: Milton Friedman (1912-2006), pristagare 1976, och Edward C. Prescott (1940-2002), pristagare 2005.

Mitt intresse här är doktrinhistoriskt -- det ekonomiska tänkandets utveckling -- och roligt nog så är båda föreläsningarna i sig rätt doktrinhistoriska, alltså att de två ekonomerna historiserar sig själva och deras prestationer under de föregående decennierna, som lett till att de till slut fått Nobelpriset. Friedmans föreläsning från 1976 börjar med kontroversen kring det då ganska nyskapade (1968) Nobelpriset i nationalekonomi, och ifall man verkligen kan se nationalekonomi "and its fellow social sciences" som vetenskapsgrenar jämförbara med kemi, fysik och medicin. Är inte samhällsvetenskaperna mer som filosofi? Friedman avfärdar den tankegången, inte med motiveringen att samhällsvetenskapen skapar rättfram och säker kunskap, utan för att inte heller naturvetenskaperna gör det. (s. 451-452) I både naturvetenskap och samhällsvetenskap, menar Friedman, arbetar vi med hypoteser, hypoteser som vi testar och förkastar, och genom att förkasta hypoteser som vi trott på, tar vi steg framåt i vår kunskap. [1] 

Friedman pekar för en utförligare diskussion om det vetenskapsteoretiska problemet till sin klassiska artikel från 1953, "The Methodology of Positive Economics", men säger att föreläsningen här ska han istället ägna åt ett exempel på denna utveckling, nämligen " a particular economic issue that has been a major concern of the economics profession throughout the postwar period, namely, the relation between inflation and unemployment." (s. 453) Detta är en politiskt kontroversiell fråga, säger han, men den drastiska förändring som har skett i hur nationalekonomer tänker i frågan, har drivits inte av politik utan av forskning.

Han menar att ekonomernas tänkande om relationen mellan infaltion och arbetslöshet gått igenom två faser sedan 1945 och nu går in i en tredje fas. Den första fasen präglades av AW Phillips (1958) så kallade Phillipskurva, idén att arbetslösheten och ökningen i reallönerna (och i förlängningen inflationen) är stabilt negativt korrelerade med varann. Denna idé illustreras i Figur 1, och Friedman menar att korrelationen snabbt blev tolkad som en kausal relation och därmed en förutsägbar trade-off för politiker: man kunde välja mer arbetslöshet eller mer inflation och mindre arbetslöshet. Friedman menar att en rad empiriska studier av Phillipskurvan på 1960-talet talade emot att den var så stabil som Phillips hävdat, och Friedman (1966, 1968) kritiserade den också på teoretiska grunder. Sysselsättningen berodde på reallönen, inte nominallönen, och prisförändringarna skulle in i beräkningen. Att en acceleration i inflationen minskar arbetslösheten menar Friedman beror på den oförväntade inflationens effekter, som är helt olik än en stabil och förväntad inflations. (s. 455-6)

Utifrån dessa resonemang utvecklade ES Phelps (1967, 1970) och Friedman (1968) i slutet av 1960-talet en annan teori (Friedman kallar den "hypotes") om relationen mellan inflation och arbetslöshet, som bygger just på skillnaden mellan oväntade och väntade effekter. Denna modell syns i Diagram 2 ovan. Företagaren kan tolka en oväntad prisökning som något fördelaktigt, som stigande priser på just det han producerar. Då kan han öka produktionen -- och vara villig att höja penninglönerna -- för att sälja mer till de nya, höga priserna. Och samtidigt:

"To workers, the situation is different: what matters to them is the purchasing power of wages not over the particular good they produce but over all goods in general. Both they and their employers are likely to adjust more slowly their perception of prices in general because it is more costly to acquire information about that than their perception of the price of the particular good they produce. As a result, a rise in nominal wages may be perceived by workers as a rise in real wages and hence call forth an increased supply at the same time that it is perceived by employers as a fall in real wages and hence calls forth an increased offer of jobs. Expressed in terms of the average of perceived future prices, real wages are lower; in terms of the perceived future average price, real
wages are higher. " (s. 456)
Efter ett tag kommer det gå upp för både arbetsgivaren och arbetstagaren att prisökningen var allmän och alltså inte fördelaktig för just dem, och då kommer sysselsättningen att falla tillbaka igen. I modellen finns det, säger Friedman, en "natural rate of unemployment" som är den nivån på arbetslösheten som är förenlig med de reala krafterna och korrekta förväntningar. (Begreppet introducerade han som en parallell till Knut Wickeslls begrepp om den "naturliga räntenivån", säger Friedman.) Den naturliga arbetslösheten har "clearly" stigit i USA, säger Friedman, av två huvudsakliga skäl. Ett, arbetskraften består i allt högre grad av kvinnor, tonåringar och deltidsarbetare, och alla dessa har stor arbetsrörlighet jämfört med manliga arbetare, vilket gör att de också oftare är arbetslösa. Två, mer generöst stöd till de arbetslösa försvagar incitamenten att genast skaffa ett jobb när man förlorat sitt näregående, och ökar samtidigt incitamenten att alls ingå i arbetskraften (söka ett jobb), vilket också det ökar den uppmätta arbetslösheten. (s. 458) Här gör Friedman också ett lite roligt politiskt argument: att det inte är så, som många tror, att låg arbetslöshet per se betyder låg grad av slöseri i ekonomin. Istället, säger han, kan låg uppmätt arbetslöshet vara belägg för en tvångsekonomi " that is using its resources inefficiently and is inducing workers to sacrifice leisure for goods that they value less highly than the leisure under the mistaken belief that their real wages will be higher than they prove to be. " (s. 459) [2] Modell två, den förväntningsanpassade Phillipskurvan, eller Phillipskurvan med NAIRU, har blivit inflytelserik, säger Friedman och han pekar också på de utvecklingar som gjorts under rubriken "rational expectations" av bl.a. Muth (1961), Robert Lucas och Thomas Sargent.

Inte desto mindre så var perspektivet på inflation-arbetslöshet-trade-offen på väg in i en tredje fas 1976, säger Friedman. Det ser idag, säger han, ut som att korrelationen mellan inflation och arbetslöshet är positiv. Här citerar han Storbritanniens Labour-premiärminister James Callaghan, i dennes tal till partikonferensen 1976:

"We used to think that you could just spend your way out of a recession and increase employment by cutting taxes and boosting Government spending. I tell you, in all candour, that that option no longer exists, and that insofar as it ever did exist, it only worked by injecting bigger does of inflation into the economy followed by higher levels of unemployment as the next step. That is the history of the past 20 years." (s. 460)
Här anför Friedman också en hel del statistik om inflation och arbetslöshet i sju länder sedan 1961. På 1970-talet, säger han med hänvisning till diagrammen 3 och 4, är korrelationen faktiskt positiv. Omsvängningen skedde redan före oljekrisen 1973 (s. 463), och Friedman menar att en uppdaterad natural-rate hypothesis kan förklara utvecklingen. Det handlar, säger han, om att förväntningarna uppdateras och till slut stannar på hög inflation. Då är den naturliga arbetslösheten inte längre negativt korrelerad med inflationen så som vi i en Phillips-värld skulle förvänta oss. Forskning om Latinamerika (Harberger 1967, Sjaastad 1974) visar just detta. Liksom det efter 1945 tog lång tid för inflationsförväntningarna att sjunka, kan det göra det samma idag: "That adjustment is still far
from complete (Klein 1975).", och säger Friedman, vi vet inte riktigt vad "a complete adjustment" kommer bestå av. (s. 465)


Den höga inflationen idag, säger Friedman, beror på politik; inte på politikers avsikter, utan på oavsedda effekter av politiken för full sysselsättning och av välfärdspolitiken som ökat statens utgifter. (s. 466) Det negativa med den höga inflationen är att den leder till en massa indexeringar av priser och löner som är ineffektiva, och delvis sätter prismekanismens signaler, som Hayek (1945) lade så stor vikt vid, ur spel. Om det går riktigt långt, inflationen övergår i hyperinflation, så uppstår stor politisk instabilitet, som i en rad länder i Europa efter WW1, eller Argentina och Chile nyligen, menar Friedman. (s. 468)

Slutsatsdelen i Friedmans Nobelföreläsning börjar: "One consequence of the Keynesian revolution of the 1930s was the acceptance of a rigid absolute wage level, and a nearly rigid absolute price level, as a starting point for analyzing short-term economic change." (s. 468) Han placerar alltså tydligt själv in sitt projekt i en kontext av keynesianismen, och att argumentera emot denna. I keynesianismen, menar Friedman, blandade man ihop vad som var absoluta priser och vad som var relativa priser, och började också missförstå relationen mellan arbetslöshet och löner som en mellan arbetslöshet och nominella löner snarare än arbetslöshet och reallöner.

"The hypothesis that there is a stable relation between the level of unemployment and the rate of inflation was adopted by the economics profession with alacrity. It filled a gap in Keynes's theoretical structure. It seemed to be the "one equation" that Keynes himself had said "we are . . . short" (1936, p. 276). In addition, it seemed to provide a reliable tool for economic policy, enabling the economist to inform the policymaker about the alternatives available to him." (s. 469)
Men idag, fyrtio år senare, säger Friedman, har vi testat Keynes hypotes och sett att den inte stämmer. Nationalekonomin har genom detta tagit ett steg framåt. Genom att ta in betydelsen av förväntningar och överraskningar har modellerna börjat passa data igen. (s. 470) Och Friedman avslutar sin föreläsning med en appell för öppen och logisk diskussion, i vilken han citerar en deputerad i den franska nationalförsamlingen år 1790, Pierre S. du Pont.


Också Edward C. Prescotts Nobelföreläsning, nästan fyrtio år senare, började doktrinhistoriskt, med att tala om makroekonomins utveckling:

"What I am going to describe for you is a revolution in macroeconomics, a transformation in methodology that has reshaped how we conduct our science. Prior to the transformation, macroeconomics was largely separate from the rest of economics. Indeed, some considered the study of macroeconomics fundamentally different and thought there was no hope of integrating macroeconomics with the rest of economics, that is, with neoclassical economics." (s. 203)
Och likt Friedman jämförde han nationalekonomin med naturvetenskaperna: "Macroeconomics has progressed beyond the stage of searching for a theory to the stage of deriving the implications of theory. In this way, macroeconomics has become like the natural sciences." (s. 204) Nationalekonomin skiljer sig däremot från naturvetenskap, säger Prescott, eftersom makroekonomin handlar om människor som fattar beslut utifrån vad de tror kommer att hända -- och vad som kommer att hända beror bland annat på besluten som de fattar. Den makroekonomiska teorin och dess begrepp om jämvikt måste alltså vara dynamisk, säger Presccott och "this dynamism is at the core of modern macroeconomics." (s. 204)

Prescott är tydligt stolt över den konjunktyrcykelmodell som han och Finn Kydland, hans medförfattare och med-Nobelpristagare, utvecklade på 1970- och 80-talen, och menar att metoden nu visat sig vara användbar för en rad olika frågor, bortom konjunkturcyklerna specifikt. Prescott har själv använt metoden, säger han till att besvara frågor om börsens fundamentala värde, varför mängden arbetade timmar sjunkit med 1/3 i Västeuropa men inte i Nordamerika sedan 1970-talet, varför Japan upplevde ett "förlorat decennium" av tillväxt efter 1992, och så vidare. Den modell som han utvecklade på 1990-talet utifrån konjunkturcykelmodellen är:

"the real business cycle model economy, which is the single-sector growth model in which people decide how much of their income to consume and save and how much of their time endowment to allocate to the market. Motivated by Ragnar Frisch’s (1970) Nobel address, I call this model the neoclassical growth model because it incorporates the willingness of people to substitute as well as their ability to substitute." (s. 205)
Hans tillbakablick på hur han och Kydland skapade sin nya modell går tillbaka till 1970-talet. Då talade makroekonomer om en policy-effekt som vad som skulle hända "given the current situation". Robert Lucas visade 1976 att detta inte var något bra sätt att tänka på i en dynamisk ekonomisk teori, eftersom förväntningar (t ex på en reform) kommer påverka effekterna av interventionen/reformen. Efter den nyklassiska revolutionen, som Prescott lite vagt refererar till som "the transformation", så fokuserar policy-utvärderande makroekonomer istället på en policy-regel, inte en enskild intervention. I det gamla tänkandet började man med en ekvation som:

   x_t+1 = f (x_t, u_t, e_t).

där x är ekonomins skick, policyvariabeln är u, och e är stokastiska chocker. I en andra uppsättning ekvationer definierade man värdet på variablerna utifårn nationalräkenskaperna. I en kanonisk system-of-equations-makromodell arbetade man med en konsumtionsfunktion, en investeringsfunktion, en money demand-funktion och en Phillipskurva. Det var i denna tradition som Prescott arbetade inom som ung ekonom. Han och Robert Lucas försökte t ex ta fram en bättre investeringsfunktion i sin gemensamma artikel "Investment under uncertainty" (1971). Men Lucas kom i sin artikel som publicerades 1976, och som Prescott läste i utkast 1973, fram till att det inte var rimligt på ett teoretiskt plan att modellens olika delar var okänsliga för policy, för u. "His insight made it clear that there was no hope for the neoclassical synthesis, that is, the development of neoclassical underpinnings of the system-of-equations macro models." (s. 206) Istället började de arbeta med "recursive competitive equilibrium theory" i början av 1970-talet, och "Representing equilibrium as a set of stochastic processes with stationary transition probabilities was crucial to the revolution in macroeconomics." (s. 207)

Prescott gör också denna mycket fascinerande överblick över den äldre typen av modeller och deras naturvetenskapliga ursprung:

"Before the transformation, optimal policy selection was a matter of solving what the physical scientists called a control problem. This is not surprising, given that the system-of-equations approach was borrowed from the physical sciences." (s. 207)
Prescott och Kydlands makromodell bygger däremot på den mycket humanvetenskapliga -- och Keyneska! -- insikten att folks tankar och förväntningar i sig påverkar samhälleliga utfall, på ett dynamiskt sätt. Kydland och Prescotts policy-slutsats av detta var att policy borde vara regelbaserad och därmed förutsägbar. Till exempel, säger han, bidrog spridningen av deras analys till att självständiga centralbanker blev mer populära bland politiker. (s. 209)


Från denna mer allmänna och policyorienterade diskussion går Prescott in på en mer detaljerad diskussion om Prescott och Kydlands konjunkturcykelmodell. Här kommer han också in på hur han och Bob Hodrick (1980) tog fram sitt mycket inflytelserika Hodrick-Prescott-filter för att separera trend och fluktuationer från varann i till exempel makroekonomiska tidsserier. [3] 1970-talets unga ekonomer som Fischer (1977) och Taylor (1980) sökte efter förklaringar till varför Lucas nominella chocker har reala effektere, de sökte efter vad Frisch kallade en "propagation mechanism". I ett leta efter reala chocker gick de tillbaka till äldre ekonomer som Wicksell (1907) och Pigou (1927), förbi keynesianernas modeller. I Kydland och Prescotts (1978) "Time to Build"-artikel, var spridningsmekanismen just "time to build".

Från detta övergår han till en diskussion av Kydland och Prescotts makro-modell. Utifrån Solow-Swan-modellen börjar de med:

c_t + x_t = y_t = F_t (k_t, h_t)

där c är konsumtion, x är investeringar, y är output, k är kapitalinsatsen och h är arbetsinsatsen. En enhet kapital ger en enhet kapitalinsats och kapitalet förslits geometriskt. Kydland-Prescott introducerar ett representativt hushåll som maximerar ett förväntat värde av konsumtion och ledighet. Från modellen går de vidare till att anpassa nationalräkenskaperna för att passa modellen, tvärtom till den tidigare metoden att bygga makroteorin för att passa nationalräkenskaperna. (s. 216) I steget därefter begränsar de däremot modellen, "to be consistent with the growth facts". Detta är en mycket fascinerande och mycket nationalekonomisk utsaga och som bygger på en serie ytterst stylized facts:

"The growth facts are that consumption and investment shares of output are roughly constant, as are labor and capital cost shares. All the variables and the real wage grow over time except for labor supply and the return on capital, which are roughly constant. This leads to a Cobb-Douglas production function. These facts also imply the constancy of the capital-output ratio and of the rental price of capital.

Two key growth facts are that the real wage and consumption grow at the same secular rate as real output per capita, whereas labor supply displays no secular trend." (s. 216-217)

Utifrån detta sätter de nyttofunktionen med u (c, 1-h), där nyttan u alltså är beroende av konsumtionen c och fritiden 1-h. Denna beräknas också med parametern σ som de sätter till 1. När σ är = 1 så är nyttofunktionen log c + g (1-h). g betecknar alltså hur en person värderar fritid, och Prescott menar att denna parameter varierar över tid. Det fjärde steget i modellbygget är en Markov-chockprocess som kan orsaka mismatch mellan arbetsutbud och -efterfrågan. Det femte steget är en "linjär-kvadratisk approximering", det sjätte är att "compute the recursive competitive equilibrium stochastic process", och i steg 7 simulerar de hela modell-ekonomin. I steg 8 jämför de modellens utfall med faktiska utfall i den faktiska ekonomin, för att bedöma hur bra modellen fungerar och vilka slutsatser man kan dra. Här tittar de inte minst på standardavvikelsen i output, konjunkturcykeln. Steg 9 är det sista och där jämförs makromodellen med hushålls beteende på mikronivån.

Från denna förklaring av modellbygget går Prescott över till att förklara hur han och Kydland använde modellen i sin forskning på 1980-talet. I sin "Time to build"-artikel 1982 argumenterar de att " if the willingness of people to intertemporally substitute leisure is one or greater and TFP shocks are highly
persistent and of the right magnitude, then business cycles are what the neoclassical growth model predicts." (s. 219) I en artikel 1986 hävdar Prescott liknande att "productivity shocks are the major contributor to fluctuations in the period 1954–81 in the United States." (s. 219) Givet hur komplext det är att mäta produktivitet, och att den variabeln är extremt endogen till kapacitetsutnyttjande etc, så förstår jag inte riktigt hur man kan dra substantiella slutsatser om detta, men det gör Prescott i vilket fall.


referenser

Milton Friedman (1977) "Nobel Lecture: Inflation and Unemployment", Journal of Political Economy 85 (3).

Edward C. Prescott (2006) "Nobel Lecture: The Transformation of Macroeconomic Policy and Research", Journal of Political Economy 114 (2).

fotnoter

[1]Han anför som exempel en middag i Cambridge med genetikern och matematiske statistikern R.A. Fisher som höll med Friedman om att politik och personliga preferenser spelar roll också för slutsatserna man drar i en naturvetenskap som genetiken. (s. 453)

[2]Det är nog talande för Friedmans modell att han talar om arbetslöhet som "leisure". (s. 459) 

[3] Här säger Prescott också att: "One set of key business cycle facts is that two-thirds of business cycle fluctuations are accounted for by variations in the labor input, one-third by variations in total factor productivity, and virtually zero by variations in the capital service input." (s. 211) En andra stylized fact är att konsumtionen rör sig procykliskt. En tredje är att investeringarna, i procent, varierar 10 gånger så mycket som konsumtionen.

tisdag 8 oktober 2024

Statens roll i den franska arbetsmarknadens omvandling

 
loggan för Le Mouvement des entreprises de France, den stora franska 
arbetsgivareföreningen, grundad 1998 och en av huvudaktörerna i 
Bruno Amables artikel om den franska arbetsmarknadens omvandling
 

Den franske nationalekonomen och statsvetaren Bruno Amable, professor i Genève, börjar en artikel med Lucio Baccaro och Chris Howells (2011, Politics and Society) argument att de europeiska ländernas arbetsmarknader har nyliberaliserats  sedan 1980-talets början. Med det menar de att kollektivavtalen och -förhandlingarna decentraliserats och i högre grad hamnat på företagets eller arbetsplatsens nivå, att anställningsrelationen individualiserats, och att arbetsmarknaderna avreglerats. Också den franska arbetsmarknaden har gått åt detta håll, säger Amable, men ett särskilt drag är att staten varit central också i den nyliberala omvandlingen, i enlighet med Howells (2006, Levy ed., 2009, Politics and Society) argument. [1] Kanske har arbetsgivarna och arbetstagarnas organisationer varit så svaga att de inte kunnat omförhandla arbetsmarknadens spelregler själva, och därför har staten tagit den ledande rollen, säger Howell.

Syftet med Amables syfte är att visa att staten spelat en stor roll, men att det inte är fråga om någon enkelriktad decentralisering. Han menar att regeringarnas policies gentemot arbetsmarknaden och dess flexibilisering varierat beroende på regeringens färg: vänster eller höger. Vänsterns väljarstöd (constituency) är inte minst arbetare, kontorsarbetare och anställda i offentlig sektor, medan högern har mer utpräglat stöd bland anställda i privat sektor. Högern har -- kanske paradoxalt -- använt centrala, tripartistiska förhandlingar för att få till större förändringar av arbetsmarknaden, minska konfliktnivån och öka flexibiliteten, medan vänstern har föredragit decentraliserade förhandlingar, samtidigt som de bevarat arbetsmarknadsregleringar och socialförsäkringarna. (524-525)

Han ger en generös bakgrund över den franska arbetsmarknadsmodellen sedan 1945, djupt influerad av en "moderniserings"-ideologi där dialog mellan arbetare och chefer skulle vara en bidragande faktor till den produktivitetstillväxt som man ville ha. (s. 527-528) Där refererar han också det mycket fascinerande faktat att president De Gaulle i slutet av 1960-talet till och med lekte med tanken att vd:ar skulle väljas av sina anställda. (s. 528) I samma anda laborerade de Gaulle också med idéer om vinstdelning. Efter oljekrisen förändrades utvärderingarna av den franska ekonomiska modellen och president Valery Giscard d'Estaing hävdade 1976 att Frankrike borde gå bortom "de traditionella ideologierna", med vilket han menade kollektivism och planekonomi på ena sidan, och laissez faire på den andra, och istället krympa staten och satsa på en social liberalism. (s. 529)

Det är mot denna bakgrund som de liberaliserande ambitionerna sedan 1980-talet ska ses. I början av 1980-talet var den politiska skalan i Frankrike fortfarande dominerad av samma blockpolitik som funnits på plats sedan 1958, med ett Vänsterblock och ett Högerblock. Vänsterblocket leddes av Socialistpartiet med Kommunistpartiets som stöd, och ville ha större statsinterventionism, mer anställningsskydd och reallöneökningar. Högerblocket bestod av en Gaullist-liberal koalition med starkt stöd hos tjänstemän i privat sektor, de liberala yrkena, egenföretagare och de flesta bönder. 1982 skedde under Mitterrandregeringen den legendariska U-svängen i vänsterns ekonomiska politik [2], med ett skifte, säger Amable, till en utbudsorienterad politik med större vinstmarginaler som tillsammans med ökad anställningsflexibilitet skulle öka investeringarna och skapa fler jobb. (s. 530-531) 

Amable menar att Socialistpartiet här hamnade i en motsägelse som de befunnit sig i sedan dess: ska de välja policies som är populära i deras traditionella väljarbas, eller ska de välja de policies -- mer utbudsorienterad ekonomisk politik -- som de tror på? PS har sedan 1980-talet framför allt valt det senare, säger han. (s. 531) En del av de viktigaste nyliberala reformerna i Frankrike har genomförts av Socialistregeringar, säger han: avregleringar av finanssektorn på 1980-90-talen, reform av företagens styrning år 2001, och privatiseringar på 00-talet. Däremot rörde PS-regeringerna inte arbetsrätten eller socialförsäkringarna, som var centrala för väljarbasen. (s. 531) Detta kom att förändras under Francois Hollandes presidentskap från 2012 och framåt, säger han: PS väljarbas var då knappt sig lik sedan 1970-talet utan bestod mer av högutbildade och tjänstemän som inte brydde sig lika mycket om arbetsrätten. Hollande sa också i valrörelsen 2012 att ett av hans huvudsakliga politiska mål var att avreglera arbetsmarknaden i samma anda som de tyska Hartz-reformerna. Arbetarväljarna gick allt mer till den radikala högern eller struntade i att rösta; denna historia känns igen t ex från Pikettys analys av "the Brahmin left". [3] Amable refererar till och med att en journalist frågade Hollande om han inte oroade sig över att tappa arbetarväljarna, och att Hollande då sa att "losing the support of blue-collar workers did not matter." (s. 533, Amables ord inte Hollandes).

Också högerblocket mötte förstås elektorala avvägningar. På 1980-talet gick den franska högern åt ett mer marknadsliberalt håll, under inflytande från Reaganism och Thatcherism, och 1986 liberaliserade man arbetsgivarens rätt att säga upp folk utifrån ekonomiska överväganden, och att anställa tillfälligt anställda. Detta var populärt med vad Amable kallar högerblockets hårda kärna, hantverkare, affärsidkare, egenföretagare och högre tjänstemän i privat sektor, men inte med andra delar av blocket. Reformer från 1990-talet och framåt var mer inriktade på att liberalisera förhållandena för mer perifera grupper på arbetsmarknaden. (s. 533-534) 1993 och 2006 gick regeringen fram med förslag om att avreglera arbetsvillkoren för yngre anställda, under 25 år. Trots begränsningen så ledde reformförslagen till stora protester vilket gjorde att förslagen övergavs. Däremot lyckades högerregeringen 2008 genomföra en reform av hur fackförbund ska representera de anställda, en reform som förändrade representativiteten från en automatisk sådan för fem konfederationer (CFDT, CFTC, CFE-CGC, CGT och CGT-FO) till att representationen bestäms genom omröstning bland de anställda. Regeringen tänkte sig att denna valsituation skulle få de anställda att välja fram de reformistiska facken som kunde tänkas ge mer omedelbar leverans vad gäller saker av värde för arbetstagarna. (s. 534)

Från diskussionen om 90- och 00-talens reformer går Amable över till en historik över de kollektiva förhandlingarna på den franska arbetsmarknaden sedan 1945. Under efterkrigstiden var branschen den viktigaste förhandlingsnivån; fördelen för arbetsgivarna med detta var att det varken innefattade krav på arbetstagarnas medbestämmande i företagen (som lokala förhandlingar gjorde) eller mer politisk inblandning som hade innefattats om man hade förhandlat på nationell nivå. [4] På 1970-talet och ännu mer efter vänsterns valseger 1981 fokuserade arbetsgivarna mer på den lokala nivån, återigen, menar Amable, för att undvika den politiska kontrollen. (s. 536) Facken kunde se positivt på lokala förhandlingar som ett sätt att aktivera medlemmarna, och Mitterrand genomförde 1982 också en lagförändring (Auroux-lagarna) för att stimulera lokala förhandlingar som ett sätt att öka medbestämmandet. Också i Aubry-lagarna 1998 för att förkorta arbetsveckan till 35 timmar fanns inslag för att öka medbestämmandet, men också starkare makt för arbetsgivarna i utbytet mot den kortare veckan. (s. 537)

Intressant och slående nog så tog arbetsgivarorganisationen Medef (Mouvement des entreprises de France) 1999 initiativet till nationella förhandlingar med de stora fackliga organisationerna [5], med målet att ta fram en ny "social konstitution", ett mål som efter hand omformulerades som en refondation sociale. Medef ville få en ordning på plats som skulle definiera vilka frågor som skulle hanteras av de sociala partners. Medef fick stöd av de reformistisk-modernistiska facken, framför allt CFDT, i att ge en större roll till nationella förhandlingar, för att minimera arbetsmarknadskonflikterna. Vänsterfacket CGT var däremot kritiskt. Socialistpartiets Francois Hollande, som blev president 2012, fortsatte dock att arbeta i andan av refondation sociale. Amable påpekar att Frankrike olikt Tyskland inte hade någon lagstadgad roll för de "sociala parterna", facken och arbetsgivarna, men att Hollande på denna punkt ville gå åt det tyska hållet och stärka parterna. (s. 538-539) Detta var, säger Amable, i kontrast med hur socialisterna agerat på 00-talet i frågan om arbetslöshetsförsäkringen. Frankrike hade sedan 1979 haft ett a-kasse-system där facket, arbetsgivarna och staten gemensamt ansvarade för a-kassan, men i slutet av 1990-talet ville Medef dra sig ur systemet och omvandla a-kassan till ett striktare system med mer fokus på workfare. Detta ledde till konflikt både med facken och med vänsterregeringen (1997-2002) som var ledd av Lionel Jospin. Medefs mål om hårdare krav på de arbetslösa misslyckades 2001, men de fick igenom kraven 2005, efter att högern och Raffarin vunnit parlamentsvalet 2002.

Nicolas Sarkozy vann 2007 års presidentval på löftet om en rupture från vad han såg som 1980- och 90-talens reformtröghet. Han var inspirerad av dansk flexicurity och ville stärka kraven på de arbetslösa att söka jobb, så väl som reformera socialförsäkringarna mera allmänt. Faktiskt instiftades av den föregående högerregeringen en ny lag som innebar ett krav på social dialog inför varje reform av abretsmarknaden, yrkesutbildning och liknande frågor, och i enlighet med denna satte Sarkozy 2007-08 igång en reformdialog om en möjlig liberalisering av anställningskontrakt, flexicurity, och a-kassan. (s. 542-3) Sarkozy nådde också viss framgång med detta och år 2008 så undertecknades Accord National Interprofessionnel av tre arbetsgivarorganisationer och fyra fackförbundskonfederationer av fem. Med ANI så infördes juni 2008 en lag om "moderniseirng av arbetsmarknaden", som förlängde hur länge arbetsgivare kan ha tillfälligt anställda, lättade lite på kraven för att sparka någon, och skapade en ny typ av anställningskontrakt för högkvalificerade anställda med specifika uppdrag. Lagen införde också en ny uppsägningsform, rupture conventionelle som betyder att arbetsgivare och anställd kommer överens om att den anställde slutar (utan krav på särskilda skäl) men också att den anställde får tillgång till a-kassa. Detta var en viktig fråga för Medef i förhandlingarna. (s. 543)

Efter Hollandes valseger 2012 infördes ytterligare en Accord National Interprofessionnel, som enligt Amable var fördelaktig för de högutbildade och cheferna, snarare än Socialistpartiets traditionella väljarbas.Hollande hade under sin valkampanj inte pratat särskilt mycket om arbetsmarknaden, annat än referenser till de tyska Hartz-reformerna och att Frankrike borde göra något liknande, men han arbetade efter sin valseger för större arbetsmarknadsflexibilitet och följde Sarkozy i spåren på så sätt att också Hollande ville förankra möjliga reformer med arbetsmarknadens parter. (s. 544-545)

I slutsatserna konstaterar Amable att den franska arbetsmarknaden de senaste decennierna har utvecklats i en nyliberal riktning "under the influence of the state". (s. 546) Högerregeringar har eftersträvat att öka arbetsmarknadsflexibiliteten genom liberaliserad arbetsrätt och minskad generositet i a-kassan, men efter stora protester mot reformförslag har man på 00- och 10-talen arbetat för detta genom tripartistiska förhandlingar. (s. 546-7) Vänsterregeringarna på 1980- och 90-talen ville däremot inte liberalisera arbetsrätten, men öka flexibiliteten genom ökad roll för förhandlingar på företagsnivån, som genom Auroux- och Aubry-lagarna. Amable tolkar Hollandes presidentskap som ett brott med denna tendens och en konvergens åt höger, i enlighet med att Socialistpartiets väljarbas förborgerligats och väljarna i mindre grad bryr sig om arbetsrätten. (s. 547-8)

 

 

referens

Bruno Amable (2016) "The political economy of the neoliberal transformation of French industrial relations", ILR Review 69 (3).

fotnoter

[1] Amable för också (s. 526) en mer teoretisk diskussion om nyliberalismens natur och relation till staten, där han med referenser till Denord, Foucault, Mirowski och Plehwe (2009), Jackson (2010) och en egen tidigare artikel menar just att nyliberalismen inte ska förstås som anti-statlig.

[2] Amables referens här är Frédéric Lordons artikel "The logic and limits of Désinflation Compétitive" i Oxford Review of Economic Policy 1998. Det har på sistone kommit en del revisionistisk forskning i ämnet, jag tänker framför allt på Sciences Po-historikern Mathieu Fullas artikel "The Neoliberal Turn that Never Was: Breaking with the Standard Narrative of Mitterrand’s tournant de la rigueur" i Contemporary European History.

[3] Amable och hans medförfattare har också varit med i diskussionen om Pikettys tes, framlagd i hans Capital and Ideology (2020). Se t ex Thibault Darcillons blogginlägg "The Brahmin Left, the Merchant Right, and the Bloc Bourgeois" från 2022. 

[4] En intressant aspekt av Amables diskussion om den franska arbetsmarknaden på lång sikt är hans användning av "modernist" för att beskriva en viss typ av inställning eller ideologi som varit viktig bland franska experter och franska policymakers åtminstone sedan 1945. (Jfr Thomas Angelettis studie av nationalekonomer och ekonomisk planering under efterkrigstiden.) Amable ger bland annat denna fascinerande tillbakablick på 1960-talet:

"The issue of a new type of relationship within the firm between capital and labor had been at the center of public debates since the end of the Second World War (Chatriot 2012). A book published in 1963 written by Francois Bloch-Lainé, La réforme de l’entreprise (The Reform of the Enterprise), summarized the ideas put forth by a group of modernists including high-level public servants, firm managers, trade unionists, intellectuals, and others. It argued for a new governance within the firm, giving increased responsibilities to the employees. Although these propositions were met with hostility from employers’ associations as well as some trade unions, they nevertheless had an influence on the public debates of the following decades, in particular with the publication of the Sudreau report in 1975, which itself influenced the Auroux laws (see below) and underscored the importance of the firm level for the development of industrial democracy (Delamotte 1977)." (s. 535-536)
Här tänker jag också på Marion Fourcades karakterisering av nationalekonomins roll i Frankrike jämfört med USA och Storbritannien, där hon pekar på en nationell politisk kultur och "institutional makeup" "centered on the administrative exercise of public power". Konflikt mellan två visioner för nationalekonomin: å ena sidan en liberal, decentraliserad samhällsvision med laissez faire, å andra sidan en ekonomi underordnad det statlig-administrativa projektet. Detta gjorde att nationalekonomi inte blev autonom disciplin förrän under efterkrigstiden. Statism ffa från 1940-tal till 1970-tal. Detta har gjort att nationalekonomin är underutvecklad i näringslivet, med undantag för några större, ofta halvoffentliga företag.

[5] Detta är bland annat väldigt intressant ur ett skandinaviskt perspektiv med tanke till exempel på Industriavtalet som skapades i Sverige 1997, en liknande förhandlingsordning som omdefinierade rollerna på arbetsmarknaden och satte nya spelregler på plats.

tisdag 1 oktober 2024

Effekten av folkhälsa på ekonomisk tillväxt


 

Nationalekonomen David N. Weil, verksam vid Brown-universitetet, börjar en artikel från 2007 mycket effektivt:

"People in poor countries are, on average, much less healthy than their counterparts in rich countries. How much of the gap in income between rich and poor countries is accounted for by this difference in health? The answer to this question is important both for evaluating policies aimed at improving health in developing countries and more generally for understanding the reasons why some countries are rich and some poor." (s. 1265)

Man blir övertygad: folkhälsan spelar roll för den ekonomiska utvecklingen, och det är intressant att veta hur stor roll och på vilket sätt. Folkhälsan (Weil säger bara "health" men jag översätter det till "folkhälsa" eftersom det handlar om befolkningen i stort, makro-effekterna) påverkar ett samhälles inkomstnivå på flera sätt, säger Weil. Den första är den direkta effekten: när man är frisk och mår bra kan man arbeta hårdare och tänka klarare. Bortom denna direkta effekt finns det också en rad indirekta kanaler. Om folk blir friskare och lever längre får de starkare skäl att investera i sin utbildning, eftersom avkastningen kommer ges över ett längre liv. När man är frisk i sin skolgång får man också mer ut av denna eftersom man kan vara närvarande och pigg. Längre livslängd kan också få folk att spara mer för sin ålderdom vilket hjälper samhället med kapitalförsörjningen. Och så vidare. Weil kollar i sin artikel dock bara på den direkta effekten.

Det stora problemet med att undersöka folkhälsans implikationer för ekonomisk utveckling är så klart att den ekonomiska utvecklingen också påverkar folkhälsan: rikare länder får friskare befolkningar. för att undvika detta problem använder Weil "strukturella mikroekonomiska beräkningar" av effekten av hälsa på inkomst på individnivå, och förenar dessa med makrodata.

En rad studier (t ex Alderman et al 2006, OEP) med kvasi-experimentella metoder på vad folk fick för mat och näring när de var barn, visar att bättre näring i barndomen ger goda utfall i form av chansen att gå ut skolan, högre IQ, längre kropp, och bättre lön. Liknande så visar studier av tillgång till avmaskningsmedicin, att barn som får medicinen får bättre skolutfall.

Hans diskussion av det det empiriska ramverk som han ska använda för att röra sig från mikro-estimat till makro-dito börjar med en Cobb-Douglas-produktionsfunktion:
Y_i = Ai_ * K_i^α * (H_i)^1-α
där Y är output, K är fysiskt kapital, A är en "country-specific productivity term" och H är arbetskraften. H ges i sin tur av h_i * v_i * L_i där h är utbildning per arbetare, v är (produktivitetsrelevant) hälsa per arbetare, och L är antalet arbetare. Lönen för en arbetsenhet ges av marginalprodukten dY/dH som är = (1-α) * A_i [Ki / Hi]^α. En friskare arbetare, med högre värde på H eftersom värdet på v är högre, kommer alltså få en högre lön.

Det finns förstås inte några mått från en massa olika länder på hur hälsosam -- hälsa på ett sätt som är relevant för ens produktivitet -- arbetskraften är. Därför använder Weil proxies, t ex kroppslängd som kan ses som en proxy (I) för underliggande hälsa (z) som i sin tur är starkt korrelerad med den teoretiserade produktivitetsrelevanta hälsan (v). Den perfekta proxyn/indikatorn, säger Weil, har tre egenskaper. Först, den är nära relaterad med de aspekter av en persons hälsa som verkligen påverkar personens arbetsproduktivitet. Två, det finns estimat av hur fenomenet påverkar folks produktivitet. Tre, det finns data för indikatorn för en mängd länder. (s. 1276-1277)

Weil använder tre indikatorer: mäns genomsnittliga kroppslängd, mäns adult servival rate (ASR), och genomsnittlig ålder för första menstruationen för kvinnor. Kroppslängd är en bra indikator på den hälsomiljö som en person växte upp i, fenomen som tillgång till mat och sjukdomsläge i barndomen och i mammas mage. Mellan individer påverkas kroppslängd förstås också av en massa andra faktorer, men de skillnaderna jämnas ut när man kollar på en hel befolkning, och om man ser på utvecklingen inom ett land över tid kan man alltså tolka stigande kroppslängd som en förbättring av hälsan. Däremot säger måttet mer om ens hälsa och miljö när man var barn och upp till tjugo år, än ens vuxna hälsa. [1] Kroppslängd är ofta en ofta använd indikator i mikrostudier, men det finns inte befolkningsdata för någon större mängd länder. Däremot data över tid för ett mindre antal länder. Det andra måttet är andelen av 15-åringar som överlever till att bli 60 år, och är alltså ett (grovt) mått på vad som händer när man är i arbetsför ålder. Det finns data för ASR för en mängd länder, men däremot inga mikroestimat av betydelsen av ASR för en persons lön. Det tredje måttet, menarche, är en indikator på flickors näringsläge när de är barn; undernärda flickor menstruerar senare. De tre länder i Weils dataset som har högst genomsnittlig menarche är därför Papua Nya Guinea (15,8 år), Haiti (15,4 år) och Nigeria (15,0 år). Korrelationen mellan ASR och BNP per capita är 0.773, mellan menarche och BNP per capita -0.494, och mellan ASR och menarche -0.495. Måtten ger också rimliga utfall över tid. Weil tar Sverige som representativt för Europa och i Sverige så ökade den genomsnittliga kroppslängden med män med 5,5 centimeter från 1820 till 1900, och med ytterligare 6,8 centimeter från 1900 till 1965. (s. 1281)

Ett naivt sätt att beräkna avkastningen av en hälsoindikator vore en regression med logaritmerad lön som utfallsvariabel. Denna metod har två problem. Ett, feltermen har en stor varians, eftersom indikatorn -- t ex kroppslängd -- är så svagt korrelerad med den hälsoaspekt för produktiviteten som man egentligen vill fånga upp. Två, det finns antagligen en positiv korrelation mellan en persons hälsa och bestämningsfaktorer bakom hans lön, som inte fångats upp av modellen. Till exempel att de som växte upp i rika familjer har bättre hälsa, men också andra fördelar för att få högre inkomster. Weil använder tre metoder för att "deriving unbiased estimates of the return to health, ρ". (s. 1282) Han söker först efter instrument, faktorer som påverkar hälsan men inte påverkar ens inkomst genom några andra kanaler än just hälsan. Det handlar då t ex inputs i ens barndom som påverkade ens hälsa: nyöppnade hälsokliniker, tillgången till hälsosam mat i området, och så vidare. Problemet med instrumenten är att bra inputs kan vara korrelerade med i övrigt gynnsamma familjeförhållanden och i så fall överskattar en instrumentskattning effekten av insatsen. (s. 1284) Därför föredrar Weil de andra två metoderna. Den andra metoden är att använda variationer i födelsevikt mellan enäggstvillingar. Enäggstvillingar delar gener och växer också upp och delar familjeomständigheter; om en av tvillingarna blir lite tyngre så tyder det på en fördelaktig slump till fördel för den lite tyngre tvillingen. Behrman och Rosenzweig (2004, Restat) visar för USA att den lite tyngre tvillingen, bland flickor, får högre inkomster som vuxen, och Black, Devereaux och Salvanes (2007, QJE) visar motsvarande resultat för norska män: för varje centimeter längre ökade inkomsten med 4,2 procent. Den tredje approachen är att använda historiska data, närmare bestämt Fogels (1997) data på tillgången till kalorier för britter de senaste två hundra åren. Här räknar han ρ som γv/γI eller (ln(v_t+1)-ln(v-t))/(I_t+1 - I_t). Enligt Fogels estimat ökade v i Storbritannien med en faktor om 1,95 eller logaritmerat 0,668. Delar man 0,668 med tillväxten i kroppslängd (I) som var 9,1 centimeter så blir den beräknade ökningen i logaritmerad arbetsproduktivitet per extra centimeter i befolkningen 0,073. Med samma teknik blir den genomsnittliga löneökningen 0,281 per års sänkning av menarche.

Med de tre metoderna får Weil fram sex estimat av ρ vad gäller kroppslängd: de tre från barndomsinsatser varierar mellan 0,078 och 0,94, de två från tvillingstudier varierar mellan 0,033 och 0,035, och den med historiska data ger 0,073. ρ vad gäller menarche är 0,281 och 0,261. (s. 1288) Tvillingstudieestimaten är mycket lägre än de från kroppslängd, kanske eftersom tvillingstudierna kommer från rika länder (USA och Norge) och variationen är mindre där. I det följande använder Weil genomsnittet av tvillingstudiernas estimat som mått på avkastningen på kroppslängd, och genomsnittet av menarche-studier för avkastningen på menarche. För avkastningen på ASR gör han helt enkelt antagandet att koefficienten för ASR kan beräknas utifrån koefficienten för kroppslängd. (s. 1290-1292)

När han går tillbaka till makroberäkningarna börjar han med en logaritmerad version av produktionsfunktionen som introducerats ovan:  ln(y_i) =  ln(A_i) +  α ln(k_i) + (1-α ) ln(h_i) + (1-α) ln(v_i). Alla variabler i ekvationen förutom produktivitet, A, är observerade så produktiviteten kan backas ut ur ekvationen som en residual. Data för real BNP per anställd, fysiskt kapital och humankapital (utbildning) kommer från Caselli (2005) och gäller åren 1995 eller 1996, och baserat på Gollin (2002) så antar Weil att kapitalandelen α är 0,33.

Med olika dekomponeringar beräknar Weil att en eliminering av hälsoskillnaden mellan rika och fattiga länder skulle minska variansen i logaritmerad BNP per capita med 9,9 till 12,3 procent. (s. 1294-1295) Weil tolkar detta som att " health has an economically important effect in determining income differences among countries but that this effect is far from the dominant source of cross-country income variation." (s. 1295) Hälsoskillnader är inte så viktiga för skillnaden mellan rika och fattiga länder som WHO (2001) säger, menar Weil. (s. 1301)



referens

David N. Weil (2007) "Accounting for the Effect Of Health on Economic Growth", The Quarterly Journal of Economics, Volume 122, Issue 3, s. 1265–1306.

fotnoter

[1] Dock så refererar Weil Fogel (1994) som menar att de som var sjuka mycket och kanske undernärda när de var barn också tenderar att oftare bli sjuka som vuxna, och oftare drabbas av kroniska sjukdomar.

måndag 30 september 2024

Kritiken mot Piketty och Saez ojämlikhetsserier för USA, del 2


I december förra året bloggade jag om nationalekonomen Vincent Geloso med kollegors beräkningar av inkomstfördelningen i USA 1917 till 1960 och deras kritik mot de beräkningar som Thomas Piketty med kollegor lagt fram, och som förstås blivit mycket inflytelserika. Redan då tänkte jag att jag skulle fortsätta med att kolla på Gerald Auten (nationalekonom på US Treasury) och David Splinters (nationalekonom vid Joint Committee on Taxation, United States Congress) artikel om Piketty med kollegors mer samtida beräkningar, men inte förrän nu tar jag mig för att göra detta.

Och det passar i och för sig ganska bra: Auten och Splinters artikel har cirkulerat i olika utkastversioner i åtminstone sex år, men det  var först i juli i år som den faktiskt blev publicerad i en tidskrift, och då i inget sämre än Journal of Political Economy, en av nationalekonomins topptidskrifter. Att nagelfara de kanoniska Piketty, Saez och Zucman-serierna kan alltså väcka stort intresse inom nationalekonomin. Givet att det är så uppenbart att deras artikel är en kritik av PSZ, är det lite lustigt att de i abstract skriver: "Our analysis of pretax income shows that top income shares are lower and have increased less since 1980 than other studies using tax data." Jojo, vi vet alla vilka ni syftar på med "other studies". Första meningen i artikeln gör också detta klart: "The idea that US top income shares have increased dramatically since the 1960s has become widely accepted, fueled by the conclusions of studies using income tax data (Piketty and Saez 2003; Piketty, Saez, and Zucman 2018)." Det är alltså ett rent deskriptivt resultat som de börjar med, vilket är väldigt intressant givet nationalekonomins rykte att framför allt intressera sig för kausalitet, men de går också vidare med hur folk tolkat det deskriptiva resultatet (hög och stigande ojämlikhet) mer kausalt:

"Acceptance of this view has raised concerns that increasing inequality could indicate greater concentration of political power and increased rent-seeking (Stiglitz 2012; Lindsey and Teles 2017) or increased bargaining power of top earners (Piketty, Saez, and Stantcheva 2014). Such concerns have led to speculation that increasing inequality could lead to decreasing institutional accountability, reduced economic efficiency, and stagnating middle-class wages. These concerns emphasize the importance of accurately measuring the distribution of income." (s. 2180)
Att mäta inkomstfördelningen är dock svårt säger de, på grund av en rad orsaker: demografiska förändringar om hushållsformering, åldersfördelning, pensionssystem, inflation, konjunkturcykler, och så vidare. Skattedata är väldigt omfattande, i bemärkelsen att en stor andel av ett lands hushåll representeras där, men skatteregler förändras över tid vilket gör att det förändrar vilka inkomster som fångas upp av skattebaserade mått. Det är också så, vilket Piketty, Saez och Zucman ju argumenterat i sitt Distributional National Accounts-projekt, att en stor del av nationalinkomsten aldrig filtreras genom individers flöden och beskattas i inkomstbeskattningen. Idag står inkomsterna som tas upp i inkomsttaxeringen för 60 procent av USA:s nationalinkomst, säger Auten och Splinter.

Vad Auten och Splinter gör i sin artikel är att presentera nya beräkningar för USA:s inkomstfördelning sedan 1960-talet, byggda på skattedata men korrigerade för skattereformer, tekniska problem och sociala förändringar såsom en fallande benägenhet att gifta sig. Från första början i artikeln introduceras denna approach i kontrast med Piketty och Saez (2003) skattedatapproach (förkortad PS), och Piketty, Saez och Zucmans (2018) approach med "modified national income" (förkortad PSZ). Enligt PS-metoden ökade toppercentilens andel av inkomsterna från 9 procent år 1962 till 19 procent år 2019, mer än en dubbling. En tredjedel av ökningen skedde dock i samband med Tax Reform Act 1986, säger Auten och Splinten; denna omläggning av skattesystemet breddade skattebasen samtidigt som man sänkte skatten på höga inkomster; den högsta individuella skattesatsen sänktes från 50 procent till 28 procent och den hamnade då under bolagsskattens 34 procent. (s. 2186-2187) Auten och Splinter (kort: AS) räknar därför in retained earnings inom företagen i sina inkomstberäkningar, för att ta hänsyn till att man på 1960- och 70-talen och fram till 1986 hade incitament att behålla mer av vinsterna inom bolagen, medan man efter 1986 tvärtom betalade ut mer av vinsterna till individuella ägare. (s. 2181)  [1] AS korrigering för förändrad demografi handlar om att sedan 1980-talet en lägre andel av låg- och medelinkomsttagare gifter sig, vilket gör att allt fler i dessa grupper själva lämnar in en skattedeklaration. (I USA lämnar gifta par in deklarationen gemensamt.) Detta gör att antalet tax units ökar, samtidigt som de rika är lika benägna att gifta sig som innan, vilket gör att det ser ut som att inkomstkoncentrationen ökar, säger AS. (s. 2181-2182, jfr Galbraith 2018) AS föredragna mått visar bara 4,4 procentenheters ökning av toppercentilandelen av inkomsterna från 1979 till 2019, ungefär hälften av ökningen som man får med med PS metod -- se figur 1 som jag klistrat in ovan. 

År 2014, det sista året som finns med i PSZ ursprungliga artikel från 2018, så skiljer sig beräkningen av toppercentilandelen mellan PSZ och AS med 6 procentenheter: 2,0 procentenheter pga hur de behandlar underreported business income, 1,0 procentenheter pga pensioner, 0,7 procentenheter pga hur man tar hänsyn till bolagsbeskattningen, och 0,4 procentenheter pga hur inkomster rapporteras i deklarationerna.

Efter inledningen följer en del om hur man egentligen mäter toppinkomstandelar. De börjar med inkomstskattedatat och diskuterar hur dess täckning förändras över tid och vad man kan göra för justeringar för det. Diagram 2 visar att på 1960-talet så syns ungefär 60 procent av folks inkomster i inkomstskattedatat, och på 2010-talet någonstans runt 55 procent.


Auten och Splinters jämförelse med Piketty-Saez serie börjar med att replikera PS serie med taxerade inkomster plus kapitalvinster. Det första steget därefter är att ta bort kapitalvinsterna, som inte inkluderas i nationalinkomsten, det andra är att ta bort "dependent filers and nonresidents", som är folk under 20 år som inte är med i PS referenspopulation, samt folk som bor utomlands. De två reduktionerna är så vitt jag kan se okontroversiella, men att AS också tar bort collegestudenter som betalar inkomstskatt (s. 2190) verkar mer diskutabelt: visst är collegestudenter inte något normativt helt hushåll med en heltidsarbetande household head, men de finns ju och tjänar pengar och betalar skatt och har ett eget hushåll, och då ska de väl räknas? Det är absolut så att jämförelsen över tid kompliceras av collegestudenterna -- bara 13 procent av 20-24-åringar var collegestudenter år 1960, mot 40 procent år 2012 -- men jag tycker mer att det säger att man ska vara noggrann när man läser ojämlikhetsstatistik. I vilket fall, Auten-Splinter menar att en minskning i dependent filers skattefria inkomst från $1080 år 1986 till $500 år 1987 (s. 2190) gör att antalet filers ökade kraftigt 1987 och, genom att introducera en massa låginkomsttagare i skattestatistiken, förstås pumpade upp ojämlikhetsmåtten. [2]

Auten-Splinters tredje steg är att beräkna inkomster för nonfilers, alltså de som inte betalar inkomstskatt. Sådan information finns från arbetsgivare, från social security-systemet och från andra håll (s. 2190) -- det är en komplex procedur! Men det är värt det, enligt Auten-Splinter: PS antar att alla non-filers tjänar 20 % av inkomstskatte-tröskeln, men AS menar tvärtom att "some nonfilers have relatively high incomes". (s. 2191) Steg två och tre gör små skillnader till ojämlikhetsestimaten före 1986 men stora skillnader efter 1986, säger Auten-Splinter.

Därpå följer justeringar för skattereformer, att lägga till skattefria ränteinkomster, olika "additions and corrections, och till slut, det sjunde steget, att basera inkomstgrupperna på antalet individer istället för antalet tax units. Här pekar de bland annat på att Larrimore (2014) beräknat att de klass-specifika förändringarna i giftermålstakten förklarar 23 procent av ökningen i hushålls-Ginin från 1979 till 2007. (s. 2192) De storleksanpassar hushåll genom att dela skatte-enhetens inkomst med kvadratroten ur antalet individer i enheten, samma ekvivalensskala som används av amerikanska CBO eller deras Census Bureau när de sätter fattigdomsnormer. De storleksjusterade inkomsterna används bara, betonar Auten och Splinter, för att rangordna skattenheterna och slå fast percentiler etc; percentilernas inkomstandelar bygger på faktisk inkomst. Denna förändring, att bygga inkomstgrupperna på individer istället för tax units, sänker toppercentilens inkomstandel med 1,5 procentenheter år 1960 och 2,9 procentenheter år 2019 -- en rätt betydelsefull minskning. Däremot så innebär rangordningen efter storleksjusterade enhetsinkomster en ökning av toppinkomstandelarna; netto blir resultatet av de två justeringarna en sänkning av toppercentilens andel med 1,6 procentenheter. Här refererar de att också Bricker (Fed), Henriques (också Fed), Krimmel (också Fed) och Sabelhaus (Brookings) (2016, AER P & P) och Larrimore, Mortenson och Splinter (2021, JHR) visat motsvarande resultat.

Måttet (eller inkomstbegreppet) som Auten och Splinter får fram efter dessa sju förändringar av PS kallar de för "improved fiscal income". För att få fram vad de kallar "pretax income" som är förenlig med nationalräkenskapernas nationalinkomst lägger de till ett par saker till, och de laborerar också med en version som är "pretax plus transfers income" som är vad det låter som, "pretax income"-begreppet plus statliga transfereringar. Den sista versionen är "aftertax income", som  drar bort inkomstskatten.

Improved fiscal income-begreppet ger lägre inkomstkoncentration än vad PS metod gör. Den mesta skillnaden beror på rangordningen av skatteenheter/individer.

Från detta går de vidare till mätandet av vad de kallar pretax income. De börjar justeringarna här med att lägga in företagens bibehållna inkomster. Dessa finns med i nationalinkomsten men eftersom de inte delas ut till individer finns de inte med i skattedata som bygger på inkomstskatten. Det blir ju också ett rätt annorlunda inkomstbegrepp när vi börjar räkna in bibehållna inkomster till hushållens inkomster, fast de ju per definition faktiskt inte delats ut till några hushåll. Här finns det också en del rätt teknisk diskussion om olika personers olika ägandeformer av aktier etc. (s. 2195-2198) Här finns också andra relativt obskyra delar av nationalinkomsten som arbetsgivar-betalda förmåner och inkomster på pensionskonton.

Mer uppenbart intressant är diskussionen om "underreporting" av inkomster, alltså skattesmitande och andra kanaler genom vilka en del inkomster undgår att fångas upp i inkomstskattesystemet. Här utgår de från US-amerikanska skatteverkets (IRS) studier av skattesmitande, National Research Program och Taxpayer Compliance Measurement Program, totalt sex studier från 1988 till 2013. (s. 2199-2200) Att lägga in de beräknade skattesmitande inkomsterna sänker toppercentilens inkomstandel med 0,25 procentenheter 1960-2019, säger de.

Det sista måttet är att röra sig från pretax till posttax, via vad de kallar "pretax plus transfers". Posttax-mått är något mycket annorlunda än vad Piketty, Saez och Zucman gjort och vad jag fokuserar på här är debatten med PSZ, så jag skippar denna metod-diskussion. (s. 2200-2203) Figur 4, som jag klistrat in nedan, visar i vilket fall resultatet: posttax-serier jämte de andra inkomstbegreppen, här med inkomstandelen för bottenhalvan av inkomstfördelningen, och samma personers reala inkomsttillväxt. PSZ fick ju med sin DINA-metod fram en kraftig minskning av bottenhalvans inkomstandel sedan 1980-talet, något som redan Galbraith (2018) riktade stark kritik mot, Också Auten och Splinter får fram andra resultat, med sina föredragna mått "pre-tax income" och "after-tax income". Med deras pretax-mått sjönk bottenhalvans inkomstandel från ungefär 20 procent på 1960-talet till 15-16 procent idag, medan PS fiscal income-begrepp ger en minskning från 16 till 9-10 procent. Om man skiftar till fördelningen efter skatter och transfereringar så finns det i sin tur knappt någon trend alls över tid, annat än att 1970-talet hade en större andel för bottenhalvan. [3]



Från denna diskussion går de vidare till en direkt jämförelse med Piketty, Saez och Zucmans beräkningar (PSZ). Figur 6, som jag klistrat in nedan, jämför Auten-Splinters resultat med nationalinkomstbegreppet (inte fiscal income) med PSZ. Skillnaderna är som synes stora: pretax så ökar toppercentilens andel enligt AS från runt 10 procent på 1960-70-talen till runt 14 procent idag, medan ökningen enligt PSZ är från 11-12 procent på 60-70-talen till 18-19 procent idag.



Skillnaderna mellan AS och PSZ, säger Auten och Splinter, handlar framför allt om vad som hänt sedan 1979. År 2014 är toppercentilens andel (pretax) 14,2 procent enligt AS, 6,0 procentenheter lägre än PSZ. De största skillnaderna är hur man beräknat skattesmitandets fördelning (2,0 p.e.), pensionsinkomst (1,0 p.e.), bolagsskatten (0,7 p.e.), och andra skatter (0,7 p.e.). (s. 2209, också Tabell 4) PSZ, säger Auten och Splinter, allokerar oskattade företagsinkomster i enlighet med hur de skattade företagsinkomsterna var fördelade, medan AS menar att underbeskattningen inte minst skedde i skatteenheter som inte rapporterat någon inkomst alls. Så här beskriver de skillnaden:

"In 2014, the PSZ approach implies distributing about 50% of underreported business income to the top 1%. However, audit data suggest that only about 15% should go to the final top 1% after reranking. The PSZ approach effectively removes underreported income found lower in the distribution and allocates it to the top." (s. 2209)
Jag lämnar återigen diskussionen om posttax-måtten därhän. Det är dock intressant att skattesystemet enligt Auten och Splinter omfördelar mer till låg- och medelinkomsttagare idag än vad det gjorde på 1960-talet, det är inte intrycket jag har från diskussionen om Reagan och George W Bushs skattesänkningar, så något nytt för mig. (s. 2214)

I slutdiskussionen pekar Auten och Splinter på att Piketty och Saez (2003), som helt fokuserade på inkomstskattedata, fann att toppercentilens inkomstandel fördubblats sedan 1962. Piketty, Saez och Zucman (2018) förändrade metodologin och breddade inkomstbegreppet, och fick då en mindre drastisk ökning av inkomstkoncentrationen. AS är positiva till PSZ metodologiska förändringar jämfört med PS, men menar att PSZ gör fel i hur de beräknar de oskattade inkomsternas fördelning. (s. 2219)


Piketty, Saez och Zucman har svarat på Auten och Splinter i en kommentar från 16 september som finns att ladda hem t ex från Zucmans hemsida. PSZ svar börjar mycket effektivt: de konstaterar att AS omtestat PSZ resultat:

"Following Piketty, Saez, and Zucman (2018), henceforth PSZ, AS start with income observed in tax returns and make adjustments to account for untaxed income. In contrast to PSZ, AS conclude that the top 1% income share has not increased much since 1980. Because the concentration of taxed income has increased dramatically (a non-controversial fact), AS must assume that untaxed income has become much more equally distributed to obtain their results.Given the importance of the question, clarity is needed in understanding what features of AS’s methodology deliver this result." (s. 1)

PSZ fokuserar i sitt svar på ett par aspekter med AS metod. Den första är hur företagstypen partnerships behandlas; PSZ menar att detta är en vanlig form för att driva företag och att ungefär hälften av inkomsterna i partnerships är skattefria pga generösa avskrivningsregler. AS allokerar, säger PSZ, de oskattade inkomsterna där "not to partnership owners, but to owners of sole proprietorships, who are much less rich." (s. 1) Det handlar alltså om två olika typer av företag som skattas på olika sätt och, enligt PSZ, ägs av olika rika personer. Detta gör en stor skillnad eftersom avskrivningarna i partnerships ökat kraftigt sedan 1970-talet; idag utgör de ungefär 2,5 procent av nationalinkomsten (s. 3). Denna faktor diskuteras i en annan kommentar på Auten och Splinter, av John Iselin och Daniel Reck från universitetet i Maryland.

Den andra är AS övriga behandling och allokering av oskattade inkomster. AS antar, säger PSZ, att oskattade affärsinkomster är rleativt jämnt fördelade, utan trend, medan PSZ menar att dessa inkomster ökat i ojämlikhet, liksom sina skattade motsvarigheter. Här handlar det bland annat om företagstypen S-corporations och att AS enligt PSZ allokerar inkomster från S-corporations till ägare av C-corporations, som inte är lika rika som ägarna till S-corporations. Skillnaderna mellan PSZ och AS här förklarar 40 % av skillnaden i deras perspektiv på toppercentilens inkomstandel, säger PSZ.

Den tredje, som följer på den andra, är behandlingen av pensionsinkomster. Skillnaderna här förklarar 20 % av skillnaden i inkomstkoncentrationsskattningarna mellan PSZ och AS. 

Den fjärde är att AS allokerar delar av nationalinkomsten som inte består av riktiga inkomstflöden på ett väldigt jämlikt sätt. "In AS, public goods expenditures are allocated like a large universal basic income equal to 9% of national income—essentially erasing poverty—and the government deficit is treated like a progressive tax. Other inequality studies (including PSZ) leave these non-cash components out of the picture, i.e., assume they do not affect inequality."


referens

Gerald Auten och David Splinter (2024), "Income inequality in the United States: Using tax data to measure long-term trends", Journal of Political Economy 132 (7).

Thomas Piketty, Emmanuel Saez och Gabriel Zucman (2024) "Income Inequality in the United States: A Comment", opublicerat paper, Paris School of Economics/UC Berkeley, daterat 16 september 2024.

 

fotnoter

[1] Den här "korrigeringen" är väldigt intressant. Ur ett tekniskt perspektiv är den helt rimlig, för att förstå en del av varför 1987 ser så annorlunda ut än, säg, 1971 i USA:s skattedata. Men ur ett substantiellt perspektiv är det inte lika uppenbart att justeringen är rimlig: om skatterna var höga och gjorde att mindre av inkomsterna delades ut till de välbärgade, så är det väl inte fel att säga att inkomsterna till de välbärgade relativt minskade? Jfr AS s. 2186-2187.

[2] Auten och Splinter kallar detta steg för att "correct the sample by removing returns of dependent filers and nonresidents" (s. 2189), men jag känner mig tveksam till att kalla det en "rättelse". Dessa dependent filers finns ju och det är inte fel att ha med dem i sina beräkningar. Däremot så blir jämförelsen över tid snårig, det köper jag. De menar att skattereformen för dependent filers 1987 la till fem miljoner nya skattebetalare (med låga inkomster). De pekar också på att år 2019 så fanns det 6,7 miljoner skattebetalare under 20 år, 4,6 miljoner andra dependent filers (typ collegestudenter och gamla), 1,0 miljoner nonresident filers, och 1,9 miljoner gifta par som lämnade in två deklarationer istället för det vanliga, en gemensam deklaration. (s. 2190)

[3] Här för de också in en diskussion om att man måste komma ihåg att det inte är samma personer som befinner sig i en inkomstgrupp, t ex toppercentilen eller bottenhalvan, år efter år. De menar att en panelstudie (Auten, Gee och Turner 2013) visar att ungefär 40 % av skatteenheterna i toppercentilen befinner sig kvar där efter tre år, och att studier visar att de med låga inkomster har störst följande ökningar, medan också de i toppen har stora fluktuationer. (Auten och Gee 2009, National Tax Journal; Splinter 2021, ROIW). (s. 2206)