fredag 11 oktober 2024

Lucaskritiken och politiken

 
 
ur Robert Lucas klassiska artikel (nästan 12 000 citeringar på GS!) "Econometric 
policy evaluation: A critique" från 1976, en av de studier som gav honom 
Nobelpriset i nationalekonomi

 

Det var 1976 som nationalekonomen Robert E. Lucas lanserade sin berömda "Lucaskritik", som var med och lanserade den nyklassiska revolutionen mot Keynes inom nationalekonomin och som han trettio år senare fick Nobelpriset för. Vad var det då som Lucas kritiserade? I grund och botten var det den makroekonomiska modell som då användes för att utvärdera ekonomisk politik. Detta har jag också diskuterat i mitt inlägg om Edward Prescotts Nobelföreläsning från 2006, där Prescott beskriver hans och Finn Kydlands del av den nyklassiska rörelsen på 1970-talet, och den makromodell som Lucas opponerar sig emot är också den som Prescott kritiserade:

y_t+1 = F(y_t, x_t, u, e_t)
x_t = G(y_t, x_t−1, l, n_t)

Där y är utfallsvariabeln och x är den exogena policyvariabeln, och u och l är deras parametrar. Lucas utforskade i sin artikel konsumtion, skatter och Phillipskurvan och argumenterade att aktörer reagerar på policy vilket förändrar utfallen; parametrarna u och l är inte "policy invariant" utan kommer förändras med policy. Med detta argument attackerade Lucas den existerande "system of equations"-approachen, en formalisering av den keynesianska teorin med IS-LM-kurvor och Phillipskurva. Den interventionism som keynesianerna förespråkade fick ett skadeskott med Lucas insikt. [1]

Nationalekonomen Katherine A. Moos från U Mass Amherst diskuterar i en artikel från 2019 Lucaskritiken, och det är från hennes artikel som jag tagit ovanstående diskussion. Hon betonar att Lucas kritik blev en av grundvalarna för den nyklassiska nationalekonomin och för en helt ny typ av makromodeller,dynamic stochastic general equilibrium (DSGE). Den första DSGE-modellen lanserades av Prescott (1986) med en Real Business Cycle-inkarnation fokuserad på produktivitetschocker och inget annat, men senare utvecklingar har tagit in en massa komplikationer och chocker, bland annat i nykeynesianska modeller som tar in prisrigiditet, imperfekt information och andra "distortions". (s. 5) Idag är DSGE-modeller de rigeur i makroekonomiska utvärderingar av policies, och används av en rad praktiker såsom Bank of England. [2]

Moos diskuterar debatten om teorin i Lucaskritiken. En intressant fråga är Lucas argument att ekonomer ska stabilisera "tastes and technology" för att stabilisera modellerna, som ifrågasätts av Kevin Hoover i Oxford Handbook of the Philosophy of Economics (2009). Lucas vill ha smaken som en mikrogrundval för makromodellen, men Hoover pekar på att individers smak formas i ett socialt samspel som inte är rent mikroekonomiskt. Lawson (1995) argumenterar liknande att de djupa parametrarna inte är så stabila som Lucas säger, att Lucas hade rätt i att de ekonometriska relationerna är instabila men att Lucas lösning på problemet leder fel. (s. 7)

Keynesianer som Modigliani (1977) menade från första början att Lucas teori om rationella förväntningar kunde stämma för spekulativa marknader men inte för arbetsmarknadne som är central i en makromodell. Andra keynesianer försvarade sina modeller, menade att parametrarna ändå var stabila och att det var utbudschocker och liknande som förklarade 1970-talets stagflation.

På policyutvärderingssidan menade Sims (1980,  1987) att Lucas undervärderade de enkla keynesianska modellernas förklaringskraft. Ännu mer generellt så menar Marcellino och Salmon (2002) att Lucas modell bygger på ett visst antagande om hur politiken fungerar. Mer bestämt, säger de, så utgår Lucas från att den privata sektorns agenter är rationella och kan förutse effekterna av policy, medan politikerna inte är rationella på detta sätt -- de kan i modellen inte förutse hur den privata sektorns agenter kommer reagera på policy. Så här sammanfattar Moos denna diskussion:

"The Marcellino and Salmon (2002) critique points to an inconsistency in the LC that may unearth, not intellectual sloppiness, but a strong prior regarding the incompetence of the policymaker. Theories of economic policy have an implicit theory of the state. A typical Keynesian model conceives of the state as benign or benevolent, in contrast to Lucas’s theoretical policymaker, which wields considerable power to disrupt the economy by producing exogenous shocks based on its (implicitly) limited rationality." (s. 9)

Från denna mycket intressanta teoretiska diskussion, som jag tycker kunde ha utvecklats mer, går Moos över till den mycket mer praktisk-empiriska aspekten: hur används Lucaskritiken i praktiken? Dess argument har gått in i DSGE-modellerna t ex med kriterier för mikrogrundvalar och "deep parameters", och man kan säga att Lucaskritiken är empiriskt testbar på så sätt att u inte ska reagera på l. Ekonometriker som David Hendry har testat detta i olika studier; Ericsson och Irons gjorde 1995 en survey över studier som testar Lucas argument och kom fram till att i princip alla empiriska studier talade emot argumenten. Det har förstås också gjorts en rad studier sedan 1995; dessa studier har mest fått resultat emot Lucas modell. (s. 9-11) Lindé, verksam vid svenska Riksbanken, publicerade 2001 en artikel i American Economic Review där han ställde frågan hur Lucaskritiken kan ha fått så lite stöd; han menade att studierna har för låg power och att estimaten av u och l därför blir skakiga. (s. 11-12)

Från de empiriska studierna går Moos över till en diskussion av de värderingar som stod på spel i debatten mellan nyklassikerna och keynesianer på 1970-80-talen. Hon refererar Keynes som själv hävdade att nationalekonomin är en "moral science", och keynesianer som Alan Blinder (1988) som menar att keynesianismen har en normativ sida, att ekonomins fluktuationer ska jämnas ut och arbetslösheten hållas nere. Hon refererar i kontrast till detta Hayeks kritik från 1940-talet och Friedmans kritik från 1960-talet av ekonomisk interventionism, tanken att politiken kan lägga sig i och förbättra ekonomin och vanligt folks levnadsstandard. Lucas modell genomsyras av ett perspektiv på policymakers som kortsiktiga och mindre rationella, och därmed som klumpiga och vars agerande leder till oönskade utfall. (s. 15-16) En anledning till att han lyckades få så stort genomslag är enligt Moos att Lucas formalisering av individers rationella förväntningar byggde vidare på något som många ekonomer redan tyckte, men inte hade inkorporerat i modellerna. Hon citerar Milton Friedman: "I think that vision [articulated by Lucas] was present in a way before. Everybody knew that you ought to be forward-looking. What he did was to develop a method whereby you could make that vision operational … . I think Lucas’s big contribution was to make it operational." (cit. 16) I detta perspektiv var Lucas innovation alltså inte teoretisk utan att formalisera en intuition som många nationalekonomer hade.

Samtidigt var modellens kraft att hävda att om man accepterar folks rationalitet, så måste man använda en modell med just dessa mikrogrundvalar, som antaganden som är inbyggda i själva modellen. Detta har så klart väckt kritik, t ex hos så framstående makroekonomer som Frank Hahn och Robert Solow som 1995 skrev att:

‘The irony is that macroeconomics began as the study of large-scale economic pathologies: prolonged depression, mass unemployment, persistent inflation, etc. … Now, at last, macroeconomic theory has as its central conception a model in which such pathologies are, strictly speaking, unmentionable.’ (cit. 17)
För debatten sedan finanskrisen 2008 refererar Moos ett specialnummer av Oxford Review of Economic Policy där en rad prominenta makroekonomer -- Blanchard, Wren-Lewis med flera -- debatterar hur användbara DSGE-modellerna i Lucas tradition egentligen är. Blanchard och Wren-Lewis säger båda att mikrogrundvalarna inte ska överges, men reformeras, och Moos tolkar detta som nyklassikernas fortsatt starka ställning inom makro. Hon menar också att Lucas modellers fortsatta styrka trots den empiriska kritiken bevisar Kuhns analys att ett paradigm inte går under bara för att det har empiriska problem. (s. 21)




referens

Katherine A. Moos (2019) "The Facts and the Values of the Lucas Critique", Review of Political Economy.

fotnoter

[1] Moos påpekar att även om man accepterar att u och l varierar så behöver man inte acceptera precis de mikrogrundvalar för makromodeller som Lucas förespråkade; debatten mellan Tinbergen och Keynes på 1930-talet visar detta. (s. 4, fn 10)
[2] Moos hänvisar dock till en studie av Hurtado (2014) som hävdar att DSGE-modellerna inte är så mycket mer stabila eller har mer prediktionskraft än old school-modellerna; de "deep parameters" som DSGE bygger på verkar förändra över tid och modellernas impulse response functions likaså. (s. 6)

torsdag 10 oktober 2024

Friedman och Prescotts Nobelprisföreläsningar

 
Milton Friedman, 1976. Foto i Public Domain, via Wikipedia


Det fanns (finns?) en tradition att Nobelpristagaren i nationalekonomi publicerar sin Nobelföreläsning i tidskriften Journal of Political Economy. I detta blogginlägg kollar jag på två av föreläsningarna som hållits av ekonomer som associeras med 1970- och 80-talets makroekonomiska revolution mot Keynesianismen: Milton Friedman (1912-2006), pristagare 1976, och Edward C. Prescott (1940-2002), pristagare 2005.

Mitt intresse här är doktrinhistoriskt -- det ekonomiska tänkandets utveckling -- och roligt nog så är båda föreläsningarna i sig rätt doktrinhistoriska, alltså att de två ekonomerna historiserar sig själva och deras prestationer under de föregående decennierna, som lett till att de till slut fått Nobelpriset. Friedmans föreläsning från 1976 börjar med kontroversen kring det då ganska nyskapade (1968) Nobelpriset i nationalekonomi, och ifall man verkligen kan se nationalekonomi "and its fellow social sciences" som vetenskapsgrenar jämförbara med kemi, fysik och medicin. Är inte samhällsvetenskaperna mer som filosofi? Friedman avfärdar den tankegången, inte med motiveringen att samhällsvetenskapen skapar rättfram och säker kunskap, utan för att inte heller naturvetenskaperna gör det. (s. 451-452) I både naturvetenskap och samhällsvetenskap, menar Friedman, arbetar vi med hypoteser, hypoteser som vi testar och förkastar, och genom att förkasta hypoteser som vi trott på, tar vi steg framåt i vår kunskap. [1] 

Friedman pekar för en utförligare diskussion om det vetenskapsteoretiska problemet till sin klassiska artikel från 1953, "The Methodology of Positive Economics", men säger att föreläsningen här ska han istället ägna åt ett exempel på denna utveckling, nämligen " a particular economic issue that has been a major concern of the economics profession throughout the postwar period, namely, the relation between inflation and unemployment." (s. 453) Detta är en politiskt kontroversiell fråga, säger han, men den drastiska förändring som har skett i hur nationalekonomer tänker i frågan, har drivits inte av politik utan av forskning.

Han menar att ekonomernas tänkande om relationen mellan infaltion och arbetslöshet gått igenom två faser sedan 1945 och nu går in i en tredje fas. Den första fasen präglades av AW Phillips (1958) så kallade Phillipskurva, idén att arbetslösheten och ökningen i reallönerna (och i förlängningen inflationen) är stabilt negativt korrelerade med varann. Denna idé illustreras i Figur 1, och Friedman menar att korrelationen snabbt blev tolkad som en kausal relation och därmed en förutsägbar trade-off för politiker: man kunde välja mer arbetslöshet eller mer inflation och mindre arbetslöshet. Friedman menar att en rad empiriska studier av Phillipskurvan på 1960-talet talade emot att den var så stabil som Phillips hävdat, och Friedman (1966, 1968) kritiserade den också på teoretiska grunder. Sysselsättningen berodde på reallönen, inte nominallönen, och prisförändringarna skulle in i beräkningen. Att en acceleration i inflationen minskar arbetslösheten menar Friedman beror på den oförväntade inflationens effekter, som är helt olik än en stabil och förväntad inflations. (s. 455-6)

Utifrån dessa resonemang utvecklade ES Phelps (1967, 1970) och Friedman (1968) i slutet av 1960-talet en annan teori (Friedman kallar den "hypotes") om relationen mellan inflation och arbetslöshet, som bygger just på skillnaden mellan oväntade och väntade effekter. Denna modell syns i Diagram 2 ovan. Företagaren kan tolka en oväntad prisökning som något fördelaktigt, som stigande priser på just det han producerar. Då kan han öka produktionen -- och vara villig att höja penninglönerna -- för att sälja mer till de nya, höga priserna. Och samtidigt:

"To workers, the situation is different: what matters to them is the purchasing power of wages not over the particular good they produce but over all goods in general. Both they and their employers are likely to adjust more slowly their perception of prices in general because it is more costly to acquire information about that than their perception of the price of the particular good they produce. As a result, a rise in nominal wages may be perceived by workers as a rise in real wages and hence call forth an increased supply at the same time that it is perceived by employers as a fall in real wages and hence calls forth an increased offer of jobs. Expressed in terms of the average of perceived future prices, real wages are lower; in terms of the perceived future average price, real
wages are higher. " (s. 456)
Efter ett tag kommer det gå upp för både arbetsgivaren och arbetstagaren att prisökningen var allmän och alltså inte fördelaktig för just dem, och då kommer sysselsättningen att falla tillbaka igen. I modellen finns det, säger Friedman, en "natural rate of unemployment" som är den nivån på arbetslösheten som är förenlig med de reala krafterna och korrekta förväntningar. (Begreppet introducerade han som en parallell till Knut Wickeslls begrepp om den "naturliga räntenivån", säger Friedman.) Den naturliga arbetslösheten har "clearly" stigit i USA, säger Friedman, av två huvudsakliga skäl. Ett, arbetskraften består i allt högre grad av kvinnor, tonåringar och deltidsarbetare, och alla dessa har stor arbetsrörlighet jämfört med manliga arbetare, vilket gör att de också oftare är arbetslösa. Två, mer generöst stöd till de arbetslösa försvagar incitamenten att genast skaffa ett jobb när man förlorat sitt näregående, och ökar samtidigt incitamenten att alls ingå i arbetskraften (söka ett jobb), vilket också det ökar den uppmätta arbetslösheten. (s. 458) Här gör Friedman också ett lite roligt politiskt argument: att det inte är så, som många tror, att låg arbetslöshet per se betyder låg grad av slöseri i ekonomin. Istället, säger han, kan låg uppmätt arbetslöshet vara belägg för en tvångsekonomi " that is using its resources inefficiently and is inducing workers to sacrifice leisure for goods that they value less highly than the leisure under the mistaken belief that their real wages will be higher than they prove to be. " (s. 459) [2] Modell två, den förväntningsanpassade Phillipskurvan, eller Phillipskurvan med NAIRU, har blivit inflytelserik, säger Friedman och han pekar också på de utvecklingar som gjorts under rubriken "rational expectations" av bl.a. Muth (1961), Robert Lucas och Thomas Sargent.

Inte desto mindre så var perspektivet på inflation-arbetslöshet-trade-offen på väg in i en tredje fas 1976, säger Friedman. Det ser idag, säger han, ut som att korrelationen mellan inflation och arbetslöshet är positiv. Här citerar han Storbritanniens Labour-premiärminister James Callaghan, i dennes tal till partikonferensen 1976:

"We used to think that you could just spend your way out of a recession and increase employment by cutting taxes and boosting Government spending. I tell you, in all candour, that that option no longer exists, and that insofar as it ever did exist, it only worked by injecting bigger does of inflation into the economy followed by higher levels of unemployment as the next step. That is the history of the past 20 years." (s. 460)
Här anför Friedman också en hel del statistik om inflation och arbetslöshet i sju länder sedan 1961. På 1970-talet, säger han med hänvisning till diagrammen 3 och 4, är korrelationen faktiskt positiv. Omsvängningen skedde redan före oljekrisen 1973 (s. 463), och Friedman menar att en uppdaterad natural-rate hypothesis kan förklara utvecklingen. Det handlar, säger han, om att förväntningarna uppdateras och till slut stannar på hög inflation. Då är den naturliga arbetslösheten inte längre negativt korrelerad med inflationen så som vi i en Phillips-värld skulle förvänta oss. Forskning om Latinamerika (Harberger 1967, Sjaastad 1974) visar just detta. Liksom det efter 1945 tog lång tid för inflationsförväntningarna att sjunka, kan det göra det samma idag: "That adjustment is still far
from complete (Klein 1975).", och säger Friedman, vi vet inte riktigt vad "a complete adjustment" kommer bestå av. (s. 465)


Den höga inflationen idag, säger Friedman, beror på politik; inte på politikers avsikter, utan på oavsedda effekter av politiken för full sysselsättning och av välfärdspolitiken som ökat statens utgifter. (s. 466) Det negativa med den höga inflationen är att den leder till en massa indexeringar av priser och löner som är ineffektiva, och delvis sätter prismekanismens signaler, som Hayek (1945) lade så stor vikt vid, ur spel. Om det går riktigt långt, inflationen övergår i hyperinflation, så uppstår stor politisk instabilitet, som i en rad länder i Europa efter WW1, eller Argentina och Chile nyligen, menar Friedman. (s. 468)

Slutsatsdelen i Friedmans Nobelföreläsning börjar: "One consequence of the Keynesian revolution of the 1930s was the acceptance of a rigid absolute wage level, and a nearly rigid absolute price level, as a starting point for analyzing short-term economic change." (s. 468) Han placerar alltså tydligt själv in sitt projekt i en kontext av keynesianismen, och att argumentera emot denna. I keynesianismen, menar Friedman, blandade man ihop vad som var absoluta priser och vad som var relativa priser, och började också missförstå relationen mellan arbetslöshet och löner som en mellan arbetslöshet och nominella löner snarare än arbetslöshet och reallöner.

"The hypothesis that there is a stable relation between the level of unemployment and the rate of inflation was adopted by the economics profession with alacrity. It filled a gap in Keynes's theoretical structure. It seemed to be the "one equation" that Keynes himself had said "we are . . . short" (1936, p. 276). In addition, it seemed to provide a reliable tool for economic policy, enabling the economist to inform the policymaker about the alternatives available to him." (s. 469)
Men idag, fyrtio år senare, säger Friedman, har vi testat Keynes hypotes och sett att den inte stämmer. Nationalekonomin har genom detta tagit ett steg framåt. Genom att ta in betydelsen av förväntningar och överraskningar har modellerna börjat passa data igen. (s. 470) Och Friedman avslutar sin föreläsning med en appell för öppen och logisk diskussion, i vilken han citerar en deputerad i den franska nationalförsamlingen år 1790, Pierre S. du Pont.


Också Edward C. Prescotts Nobelföreläsning, nästan fyrtio år senare, började doktrinhistoriskt, med att tala om makroekonomins utveckling:

"What I am going to describe for you is a revolution in macroeconomics, a transformation in methodology that has reshaped how we conduct our science. Prior to the transformation, macroeconomics was largely separate from the rest of economics. Indeed, some considered the study of macroeconomics fundamentally different and thought there was no hope of integrating macroeconomics with the rest of economics, that is, with neoclassical economics." (s. 203)
Och likt Friedman jämförde han nationalekonomin med naturvetenskaperna: "Macroeconomics has progressed beyond the stage of searching for a theory to the stage of deriving the implications of theory. In this way, macroeconomics has become like the natural sciences." (s. 204) Nationalekonomin skiljer sig däremot från naturvetenskap, säger Prescott, eftersom makroekonomin handlar om människor som fattar beslut utifrån vad de tror kommer att hända -- och vad som kommer att hända beror bland annat på besluten som de fattar. Den makroekonomiska teorin och dess begrepp om jämvikt måste alltså vara dynamisk, säger Presccott och "this dynamism is at the core of modern macroeconomics." (s. 204)

Prescott är tydligt stolt över den konjunktyrcykelmodell som han och Finn Kydland, hans medförfattare och med-Nobelpristagare, utvecklade på 1970- och 80-talen, och menar att metoden nu visat sig vara användbar för en rad olika frågor, bortom konjunkturcyklerna specifikt. Prescott har själv använt metoden, säger han till att besvara frågor om börsens fundamentala värde, varför mängden arbetade timmar sjunkit med 1/3 i Västeuropa men inte i Nordamerika sedan 1970-talet, varför Japan upplevde ett "förlorat decennium" av tillväxt efter 1992, och så vidare. Den modell som han utvecklade på 1990-talet utifrån konjunkturcykelmodellen är:

"the real business cycle model economy, which is the single-sector growth model in which people decide how much of their income to consume and save and how much of their time endowment to allocate to the market. Motivated by Ragnar Frisch’s (1970) Nobel address, I call this model the neoclassical growth model because it incorporates the willingness of people to substitute as well as their ability to substitute." (s. 205)
Hans tillbakablick på hur han och Kydland skapade sin nya modell går tillbaka till 1970-talet. Då talade makroekonomer om en policy-effekt som vad som skulle hända "given the current situation". Robert Lucas visade 1976 att detta inte var något bra sätt att tänka på i en dynamisk ekonomisk teori, eftersom förväntningar (t ex på en reform) kommer påverka effekterna av interventionen/reformen. Efter den nyklassiska revolutionen, som Prescott lite vagt refererar till som "the transformation", så fokuserar policy-utvärderande makroekonomer istället på en policy-regel, inte en enskild intervention. I det gamla tänkandet började man med en ekvation som:

   x_t+1 = f (x_t, u_t, e_t).

där x är ekonomins skick, policyvariabeln är u, och e är stokastiska chocker. I en andra uppsättning ekvationer definierade man värdet på variablerna utifårn nationalräkenskaperna. I en kanonisk system-of-equations-makromodell arbetade man med en konsumtionsfunktion, en investeringsfunktion, en money demand-funktion och en Phillipskurva. Det var i denna tradition som Prescott arbetade inom som ung ekonom. Han och Robert Lucas försökte t ex ta fram en bättre investeringsfunktion i sin gemensamma artikel "Investment under uncertainty" (1971). Men Lucas kom i sin artikel som publicerades 1976, och som Prescott läste i utkast 1973, fram till att det inte var rimligt på ett teoretiskt plan att modellens olika delar var okänsliga för policy, för u. "His insight made it clear that there was no hope for the neoclassical synthesis, that is, the development of neoclassical underpinnings of the system-of-equations macro models." (s. 206) Istället började de arbeta med "recursive competitive equilibrium theory" i början av 1970-talet, och "Representing equilibrium as a set of stochastic processes with stationary transition probabilities was crucial to the revolution in macroeconomics." (s. 207)

Prescott gör också denna mycket fascinerande överblick över den äldre typen av modeller och deras naturvetenskapliga ursprung:

"Before the transformation, optimal policy selection was a matter of solving what the physical scientists called a control problem. This is not surprising, given that the system-of-equations approach was borrowed from the physical sciences." (s. 207)
Prescott och Kydlands makromodell bygger däremot på den mycket humanvetenskapliga -- och Keyneska! -- insikten att folks tankar och förväntningar i sig påverkar samhälleliga utfall, på ett dynamiskt sätt. Kydland och Prescotts policy-slutsats av detta var att policy borde vara regelbaserad och därmed förutsägbar. Till exempel, säger han, bidrog spridningen av deras analys till att självständiga centralbanker blev mer populära bland politiker. (s. 209)


Från denna mer allmänna och policyorienterade diskussion går Prescott in på en mer detaljerad diskussion om Prescott och Kydlands konjunkturcykelmodell. Här kommer han också in på hur han och Bob Hodrick (1980) tog fram sitt mycket inflytelserika Hodrick-Prescott-filter för att separera trend och fluktuationer från varann i till exempel makroekonomiska tidsserier. [3] 1970-talets unga ekonomer som Fischer (1977) och Taylor (1980) sökte efter förklaringar till varför Lucas nominella chocker har reala effektere, de sökte efter vad Frisch kallade en "propagation mechanism". I ett leta efter reala chocker gick de tillbaka till äldre ekonomer som Wicksell (1907) och Pigou (1927), förbi keynesianernas modeller. I Kydland och Prescotts (1978) "Time to Build"-artikel, var spridningsmekanismen just "time to build".

Från detta övergår han till en diskussion av Kydland och Prescotts makro-modell. Utifrån Solow-Swan-modellen börjar de med:

c_t + x_t = y_t = F_t (k_t, h_t)

där c är konsumtion, x är investeringar, y är output, k är kapitalinsatsen och h är arbetsinsatsen. En enhet kapital ger en enhet kapitalinsats och kapitalet förslits geometriskt. Kydland-Prescott introducerar ett representativt hushåll som maximerar ett förväntat värde av konsumtion och ledighet. Från modellen går de vidare till att anpassa nationalräkenskaperna för att passa modellen, tvärtom till den tidigare metoden att bygga makroteorin för att passa nationalräkenskaperna. (s. 216) I steget därefter begränsar de däremot modellen, "to be consistent with the growth facts". Detta är en mycket fascinerande och mycket nationalekonomisk utsaga och som bygger på en serie ytterst stylized facts:

"The growth facts are that consumption and investment shares of output are roughly constant, as are labor and capital cost shares. All the variables and the real wage grow over time except for labor supply and the return on capital, which are roughly constant. This leads to a Cobb-Douglas production function. These facts also imply the constancy of the capital-output ratio and of the rental price of capital.

Two key growth facts are that the real wage and consumption grow at the same secular rate as real output per capita, whereas labor supply displays no secular trend." (s. 216-217)

Utifrån detta sätter de nyttofunktionen med u (c, 1-h), där nyttan u alltså är beroende av konsumtionen c och fritiden 1-h. Denna beräknas också med parametern σ som de sätter till 1. När σ är = 1 så är nyttofunktionen log c + g (1-h). g betecknar alltså hur en person värderar fritid, och Prescott menar att denna parameter varierar över tid. Det fjärde steget i modellbygget är en Markov-chockprocess som kan orsaka mismatch mellan arbetsutbud och -efterfrågan. Det femte steget är en "linjär-kvadratisk approximering", det sjätte är att "compute the recursive competitive equilibrium stochastic process", och i steg 7 simulerar de hela modell-ekonomin. I steg 8 jämför de modellens utfall med faktiska utfall i den faktiska ekonomin, för att bedöma hur bra modellen fungerar och vilka slutsatser man kan dra. Här tittar de inte minst på standardavvikelsen i output, konjunkturcykeln. Steg 9 är det sista och där jämförs makromodellen med hushålls beteende på mikronivån.

Från denna förklaring av modellbygget går Prescott över till att förklara hur han och Kydland använde modellen i sin forskning på 1980-talet. I sin "Time to build"-artikel 1982 argumenterar de att " if the willingness of people to intertemporally substitute leisure is one or greater and TFP shocks are highly
persistent and of the right magnitude, then business cycles are what the neoclassical growth model predicts." (s. 219) I en artikel 1986 hävdar Prescott liknande att "productivity shocks are the major contributor to fluctuations in the period 1954–81 in the United States." (s. 219) Givet hur komplext det är att mäta produktivitet, och att den variabeln är extremt endogen till kapacitetsutnyttjande etc, så förstår jag inte riktigt hur man kan dra substantiella slutsatser om detta, men det gör Prescott i vilket fall.


referenser

Milton Friedman (1977) "Nobel Lecture: Inflation and Unemployment", Journal of Political Economy 85 (3).

Edward C. Prescott (2006) "Nobel Lecture: The Transformation of Macroeconomic Policy and Research", Journal of Political Economy 114 (2).

fotnoter

[1]Han anför som exempel en middag i Cambridge med genetikern och matematiske statistikern R.A. Fisher som höll med Friedman om att politik och personliga preferenser spelar roll också för slutsatserna man drar i en naturvetenskap som genetiken. (s. 453)

[2]Det är nog talande för Friedmans modell att han talar om arbetslöhet som "leisure". (s. 459) 

[3] Här säger Prescott också att: "One set of key business cycle facts is that two-thirds of business cycle fluctuations are accounted for by variations in the labor input, one-third by variations in total factor productivity, and virtually zero by variations in the capital service input." (s. 211) En andra stylized fact är att konsumtionen rör sig procykliskt. En tredje är att investeringarna, i procent, varierar 10 gånger så mycket som konsumtionen.

tisdag 8 oktober 2024

Statens roll i den franska arbetsmarknadens omvandling

Den franske nationalekonomen och statsvetaren Bruno Amable, professor i Genève, börjar en artikel med Lucio Baccaro och Chris Howells (2011, Politics and Society) argument att de europeiska ländernas arbetsmarknader har nyliberaliserats  sedan 1980-talets början. Med det menar de att kollektivavtalen och -förhandlingarna decentraliserats och i högre grad hamnat på företagets eller arbetsplatsens nivå, att anställningsrelationen individualiserats, och att arbetsmarknaderna avreglerats. Också den franska arbetsmarknaden har gått åt detta håll, säger Amable, men ett särskilt drag är att staten varit central också i den nyliberala omvandlingen, i enlighet med Howells (2006, Levy ed., 2009, Politics and Society) argument. [1] Kanske har arbetsgivarna och arbetstagarnas organisationer varit så svaga att de inte kunnat omförhandla arbetsmarknadens spelregler själva, och därför har staten tagit den ledande rollen, säger Howell.

Syftet med Amables syfte är att visa att staten spelat en stor roll, men att det inte är fråga om någon enkelriktad decentralisering. Han menar att regeringarnas policies gentemot arbetsmarknaden och dess flexibilisering varierat beroende på regeringens färg: vänster eller höger. Vänsterns väljarstöd (constituency) är inte minst arbetare, kontorsarbetare och anställda i offentlig sektor, medan högern har mer utpräglat stöd bland anställda i privat sektor. Högern har -- kanske paradoxalt -- använt centrala, tripartistiska förhandlingar för att få till större förändringar av arbetsmarknaden, minska konfliktnivån och öka flexibiliteten, medan vänstern har föredragit decentraliserade förhandlingar, samtidigt som de bevarat arbetsmarknadsregleringar och socialförsäkringarna. (524-525)

Han ger en generös bakgrund över den franska arbetsmarknadsmodellen sedan 1945, djupt influerad av en "moderniserings"-ideologi där dialog mellan arbetare och chefer skulle vara en bidragande faktor till den produktivitetstillväxt som man ville ha. (s. 527-528) Där refererar han också det mycket fascinerande faktat att president De Gaulle i slutet av 1960-talet till och med lekte med tanken att vd:ar skulle väljas av sina anställda. (s. 528) I samma anda laborerade de Gaulle också med idéer om vinstdelning. Efter oljekrisen förändrades utvärderingarna av den franska ekonomiska modellen och president Valery Giscard d'Estaing hävdade 1976 att Frankrike borde gå bortom "de traditionella ideologierna", med vilket han menade kollektivism och planekonomi på ena sidan, och laissez faire på den andra, och istället krympa staten och satsa på en social liberalism. (s. 529)

Det är mot denna bakgrund som de liberaliserande ambitionerna sedan 1980-talet ska ses. I början av 1980-talet var den politiska skalan i Frankrike fortfarande dominerad av samma blockpolitik som funnits på plats sedan 1958, med ett Vänsterblock och ett Högerblock. Vänsterblocket leddes av Socialistpartiet med Kommunistpartiets som stöd, och ville ha större statsinterventionism, mer anställningsskydd och reallöneökningar. Högerblocket bestod av en Gaullist-liberal koalition med starkt stöd hos tjänstemän i privat sektor, de liberala yrkena, egenföretagare och de flesta bönder. 1982 skedde under Mitterrandregeringen den legendariska U-svängen i vänsterns ekonomiska politik [2], med ett skifte, säger Amable, till en utbudsorienterad politik med större vinstmarginaler som tillsammans med ökad anställningsflexibilitet skulle öka investeringarna och skapa fler jobb. (s. 530-531) 

Amable menar att Socialistpartiet här hamnade i en motsägelse som de befunnit sig i sedan dess: ska de välja policies som är populära i deras traditionella väljarbas, eller ska de välja de policies -- mer utbudsorienterad ekonomisk politik -- som de tror på? PS har sedan 1980-talet framför allt valt det senare, säger han. (s. 531) En del av de viktigaste nyliberala reformerna i Frankrike har genomförts av Socialistregeringar, säger han: avregleringar av finanssektorn på 1980-90-talen, reform av företagens styrning år 2001, och privatiseringar på 00-talet. Däremot rörde PS-regeringerna inte arbetsrätten eller socialförsäkringarna, som var centrala för väljarbasen. (s. 531) Detta kom att förändras under Francois Hollandes presidentskap från 2012 och framåt, säger han: PS väljarbas var då knappt sig lik sedan 1970-talet utan bestod mer av högutbildade och tjänstemän som inte brydde sig lika mycket om arbetsrätten. Hollande sa också i valrörelsen 2012 att ett av hans huvudsakliga politiska mål var att avreglera arbetsmarknaden i samma anda som de tyska Hartz-reformerna. Arbetarväljarna gick allt mer till den radikala högern eller struntade i att rösta; denna historia känns igen t ex från Pikettys analys av "the Brahmin left". [3] Amable refererar till och med att en journalist frågade Hollande om han inte oroade sig över att tappa arbetarväljarna, och att Hollande då sa att "losing the support of blue-collar workers did not matter." (s. 533, Amables ord inte Hollandes).

Också högerblocket mötte förstås elektorala avvägningar. På 1980-talet gick den franska högern åt ett mer marknadsliberalt håll, under inflytande från Reaganism och Thatcherism, och 1986 liberaliserade man arbetsgivarens rätt att säga upp folk utifrån ekonomiska överväganden, och att anställa tillfälligt anställda. Detta var populärt med vad Amable kallar högerblockets hårda kärna, hantverkare, affärsidkare, egenföretagare och högre tjänstemän i privat sektor, men inte med andra delar av blocket. Reformer från 1990-talet och framåt var mer inriktade på att liberalisera förhållandena för mer perifera grupper på arbetsmarknaden. (s. 533-534) 1993 och 2006 gick regeringen fram med förslag om att avreglera arbetsvillkoren för yngre anställda, under 25 år. Trots begränsningen så ledde reformförslagen till stora protester vilket gjorde att förslagen övergavs. Däremot lyckades högerregeringen 2008 genomföra en reform av hur fackförbund ska representera de anställda, en reform som förändrade representativiteten från en automatisk sådan för fem konfederationer (CFDT, CFTC, CFE-CGC, CGT och CGT-FO) till att representationen bestäms genom omröstning bland de anställda. Regeringen tänkte sig att denna valsituation skulle få de anställda att välja fram de reformistiska facken som kunde tänkas ge mer omedelbar leverans vad gäller saker av värde för arbetstagarna. (s. 534)

Från diskussionen om 90- och 00-talens reformer går Amable över till en historik över de kollektiva förhandlingarna på den franska arbetsmarknaden sedan 1945. Under efterkrigstiden var branschen den viktigaste förhandlingsnivån; fördelen för arbetsgivarna med detta var att det varken innefattade krav på arbetstagarnas medbestämmande i företagen (som lokala förhandlingar gjorde) eller mer politisk inblandning som hade innefattats om man hade förhandlat på nationell nivå. På 1970-talet och ännu mer efter vänsterns valseger 1981 fokuserade arbetsgivarna mer på den lokala nivån, återigen, menar Amable, för att undvika den politiska kontrollen. (s. 536) Facken kunde se positivt på lokala förhandlingar som ett sätt att aktivera medlemmarna, och Mitterrand genomförde 1982 också en lagförändring (Auroux-lagarna) för att stimulera lokala förhandlingar som ett sätt att öka medbestämmandet.

Intressant och slående nog så tog arbetsgivarorganisationen Medef (Mouvement des entreprises de France) 1999 initiativet till nationella förhandlingar med de stora fackliga organisationerna [4], med målet att ta fram en ny "social konstitution", ett mål som efter hand omformulerades som en refondation sociale. Medef ville få en ordning på plats som skulle definiera vilka frågor som skulle hanteras av de sociala partners. Medef fick stöd av de reformistisk-modernistiska facken, framför allt CFDT, i att ge en större roll till nationella förhandlingar, för att minimera arbetsmarknadskonflikterna. Vänsterfacket CGT var däremot kritiskt.

 

referens

Bruno Amable (2016) "The political economy of the neoliberal transformation of French industrial relations", ILR Review 69 (3).

fotnoter

[1] Amable för också (s. 526) en mer teoretisk diskussion om nyliberalismens natur och relation till staten, där han med referenser till Denord, Foucault, Mirowski och Plehwe (2009), Jackson (2010) och en egen tidigare artikel menar just att nyliberalismen inte ska förstås som anti-statlig.

[2] Amables referens här är Frédéric Lordons artikel "The logic and limits of Désinflation Compétitive" i Oxford Review of Economic Policy 1998. Det har på sistone kommit en del revisionistisk forskning i ämnet, jag tänker framför allt på Sciences Po-historikern Mathieu Fullas artikel "The Neoliberal Turn that Never Was: Breaking with the Standard Narrative of Mitterrand’s tournant de la rigueur" i Contemporary European History.

[3] Amable och hans medförfattare har också varit med i diskussionen om Pikettys tes, framlagd i hans Capital and Ideology (2020). Se t ex Thibault Darcillons blogginlägg "The Brahmin Left, the Merchant Right, and the Bloc Bourgeois" från 2022. 

[4] Detta är bland annat väldigt intressant ur ett skandinaviskt perspektiv med tanke till exempel på Industriavtalet som skapades i Sverige 1997, en liknande förhandlingsordning som omdefinierade rollerna på arbetsmarknaden och satte nya spelregler på plats.

tisdag 1 oktober 2024

Effekten av folkhälsa på ekonomisk tillväxt


 

Nationalekonomen David N. Weil, verksam vid Brown-universitetet, börjar en artikel från 2007 mycket effektivt:

"People in poor countries are, on average, much less healthy than their counterparts in rich countries. How much of the gap in income between rich and poor countries is accounted for by this difference in health? The answer to this question is important both for evaluating policies aimed at improving health in developing countries and more generally for understanding the reasons why some countries are rich and some poor." (s. 1265)

Man blir övertygad: folkhälsan spelar roll för den ekonomiska utvecklingen, och det är intressant att veta hur stor roll och på vilket sätt. Folkhälsan (Weil säger bara "health" men jag översätter det till "folkhälsa" eftersom det handlar om befolkningen i stort, makro-effekterna) påverkar ett samhälles inkomstnivå på flera sätt, säger Weil. Den första är den direkta effekten: när man är frisk och mår bra kan man arbeta hårdare och tänka klarare. Bortom denna direkta effekt finns det också en rad indirekta kanaler. Om folk blir friskare och lever längre får de starkare skäl att investera i sin utbildning, eftersom avkastningen kommer ges över ett längre liv. När man är frisk i sin skolgång får man också mer ut av denna eftersom man kan vara närvarande och pigg. Längre livslängd kan också få folk att spara mer för sin ålderdom vilket hjälper samhället med kapitalförsörjningen. Och så vidare. Weil kollar i sin artikel dock bara på den direkta effekten.

Det stora problemet med att undersöka folkhälsans implikationer för ekonomisk utveckling är så klart att den ekonomiska utvecklingen också påverkar folkhälsan: rikare länder får friskare befolkningar. för att undvika detta problem använder Weil "strukturella mikroekonomiska beräkningar" av effekten av hälsa på inkomst på individnivå, och förenar dessa med makrodata.

En rad studier (t ex Alderman et al 2006, OEP) med kvasi-experimentella metoder på vad folk fick för mat och näring när de var barn, visar att bättre näring i barndomen ger goda utfall i form av chansen att gå ut skolan, högre IQ, längre kropp, och bättre lön. Liknande så visar studier av tillgång till avmaskningsmedicin, att barn som får medicinen får bättre skolutfall.

Hans diskussion av det det empiriska ramverk som han ska använda för att röra sig från mikro-estimat till makro-dito börjar med en Cobb-Douglas-produktionsfunktion:
Y_i = Ai_ * K_i^α * (H_i)^1-α
där Y är output, K är fysiskt kapital, A är en "country-specific productivity term" och H är arbetskraften. H ges i sin tur av h_i * v_i * L_i där h är utbildning per arbetare, v är (produktivitetsrelevant) hälsa per arbetare, och L är antalet arbetare. Lönen för en arbetsenhet ges av marginalprodukten dY/dH som är = (1-α) * A_i [Ki / Hi]^α. En friskare arbetare, med högre värde på H eftersom värdet på v är högre, kommer alltså få en högre lön.

Det finns förstås inte några mått från en massa olika länder på hur hälsosam -- hälsa på ett sätt som är relevant för ens produktivitet -- arbetskraften är. Därför använder Weil proxies, t ex kroppslängd som kan ses som en proxy (I) för underliggande hälsa (z) som i sin tur är starkt korrelerad med den teoretiserade produktivitetsrelevanta hälsan (v). Den perfekta proxyn/indikatorn, säger Weil, har tre egenskaper. Först, den är nära relaterad med de aspekter av en persons hälsa som verkligen påverkar personens arbetsproduktivitet. Två, det finns estimat av hur fenomenet påverkar folks produktivitet. Tre, det finns data för indikatorn för en mängd länder. (s. 1276-1277)

Weil använder tre indikatorer: mäns genomsnittliga kroppslängd, mäns adult servival rate (ASR), och genomsnittlig ålder för första menstruationen för kvinnor. Kroppslängd är en bra indikator på den hälsomiljö som en person växte upp i, fenomen som tillgång till mat och sjukdomsläge i barndomen och i mammas mage. Mellan individer påverkas kroppslängd förstås också av en massa andra faktorer, men de skillnaderna jämnas ut när man kollar på en hel befolkning, och om man ser på utvecklingen inom ett land över tid kan man alltså tolka stigande kroppslängd som en förbättring av hälsan. Däremot säger måttet mer om ens hälsa och miljö när man var barn och upp till tjugo år, än ens vuxna hälsa. [1] Kroppslängd är ofta en ofta använd indikator i mikrostudier, men det finns inte befolkningsdata för någon större mängd länder. Däremot data över tid för ett mindre antal länder. Det andra måttet är andelen av 15-åringar som överlever till att bli 60 år, och är alltså ett (grovt) mått på vad som händer när man är i arbetsför ålder. Det finns data för ASR för en mängd länder, men däremot inga mikroestimat av betydelsen av ASR för en persons lön. Det tredje måttet, menarche, är en indikator på flickors näringsläge när de är barn; undernärda flickor menstruerar senare. De tre länder i Weils dataset som har högst genomsnittlig menarche är därför Papua Nya Guinea (15,8 år), Haiti (15,4 år) och Nigeria (15,0 år). Korrelationen mellan ASR och BNP per capita är 0.773, mellan menarche och BNP per capita -0.494, och mellan ASR och menarche -0.495. Måtten ger också rimliga utfall över tid. Weil tar Sverige som representativt för Europa och i Sverige så ökade den genomsnittliga kroppslängden med män med 5,5 centimeter från 1820 till 1900, och med ytterligare 6,8 centimeter från 1900 till 1965. (s. 1281)

Ett naivt sätt att beräkna avkastningen av en hälsoindikator vore en regression med logaritmerad lön som utfallsvariabel. Denna metod har två problem. Ett, feltermen har en stor varians, eftersom indikatorn -- t ex kroppslängd -- är så svagt korrelerad med den hälsoaspekt för produktiviteten som man egentligen vill fånga upp. Två, det finns antagligen en positiv korrelation mellan en persons hälsa och bestämningsfaktorer bakom hans lön, som inte fångats upp av modellen. Till exempel att de som växte upp i rika familjer har bättre hälsa, men också andra fördelar för att få högre inkomster. Weil använder tre metoder för att "deriving unbiased estimates of the return to health, ρ". (s. 1282) Han söker först efter instrument, faktorer som påverkar hälsan men inte påverkar ens inkomst genom några andra kanaler än just hälsan. Det handlar då t ex inputs i ens barndom som påverkade ens hälsa: nyöppnade hälsokliniker, tillgången till hälsosam mat i området, och så vidare. Problemet med instrumenten är att bra inputs kan vara korrelerade med i övrigt gynnsamma familjeförhållanden och i så fall överskattar en instrumentskattning effekten av insatsen. (s. 1284) Därför föredrar Weil de andra två metoderna. Den andra metoden är att använda variationer i födelsevikt mellan enäggstvillingar. Enäggstvillingar delar gener och växer också upp och delar familjeomständigheter; om en av tvillingarna blir lite tyngre så tyder det på en fördelaktig slump till fördel för den lite tyngre tvillingen. Behrman och Rosenzweig (2004, Restat) visar för USA att den lite tyngre tvillingen, bland flickor, får högre inkomster som vuxen, och Black, Devereaux och Salvanes (2007, QJE) visar motsvarande resultat för norska män: för varje centimeter längre ökade inkomsten med 4,2 procent. Den tredje approachen är att använda historiska data, närmare bestämt Fogels (1997) data på tillgången till kalorier för britter de senaste två hundra åren. Här räknar han ρ som γv/γI eller (ln(v_t+1)-ln(v-t))/(I_t+1 - I_t). Enligt Fogels estimat ökade v i Storbritannien med en faktor om 1,95 eller logaritmerat 0,668. Delar man 0,668 med tillväxten i kroppslängd (I) som var 9,1 centimeter så blir den beräknade ökningen i logaritmerad arbetsproduktivitet per extra centimeter i befolkningen 0,073. Med samma teknik blir den genomsnittliga löneökningen 0,281 per års sänkning av menarche.

Med de tre metoderna får Weil fram sex estimat av ρ vad gäller kroppslängd: de tre från barndomsinsatser varierar mellan 0,078 och 0,94, de två från tvillingstudier varierar mellan 0,033 och 0,035, och den med historiska data ger 0,073. ρ vad gäller menarche är 0,281 och 0,261. (s. 1288) Tvillingstudieestimaten är mycket lägre än de från kroppslängd, kanske eftersom tvillingstudierna kommer från rika länder (USA och Norge) och variationen är mindre där. I det följande använder Weil genomsnittet av tvillingstudiernas estimat som mått på avkastningen på kroppslängd, och genomsnittet av menarche-studier för avkastningen på menarche. För avkastningen på ASR gör han helt enkelt antagandet att koefficienten för ASR kan beräknas utifrån koefficienten för kroppslängd. (s. 1290-1292)

När han går tillbaka till makroberäkningarna börjar han med en logaritmerad version av produktionsfunktionen som introducerats ovan:  ln(y_i) =  ln(A_i) +  α ln(k_i) + (1-α ) ln(h_i) + (1-α) ln(v_i). Alla variabler i ekvationen förutom produktivitet, A, är observerade så produktiviteten kan backas ut ur ekvationen som en residual. Data för real BNP per anställd, fysiskt kapital och humankapital (utbildning) kommer från Caselli (2005) och gäller åren 1995 eller 1996, och baserat på Gollin (2002) så antar Weil att kapitalandelen α är 0,33.

Med olika dekomponeringar beräknar Weil att en eliminering av hälsoskillnaden mellan rika och fattiga länder skulle minska variansen i logaritmerad BNP per capita med 9,9 till 12,3 procent. (s. 1294-1295) Weil tolkar detta som att " health has an economically important effect in determining income differences among countries but that this effect is far from the dominant source of cross-country income variation." (s. 1295) Hälsoskillnader är inte så viktiga för skillnaden mellan rika och fattiga länder som WHO (2001) säger, menar Weil. (s. 1301)



referens

David N. Weil (2007) "Accounting for the Effect Of Health on Economic Growth", The Quarterly Journal of Economics, Volume 122, Issue 3, s. 1265–1306.

fotnoter

[1] Dock så refererar Weil Fogel (1994) som menar att de som var sjuka mycket och kanske undernärda när de var barn också tenderar att oftare bli sjuka som vuxna, och oftare drabbas av kroniska sjukdomar.

måndag 30 september 2024

Kritiken mot Piketty och Saez ojämlikhetsserier för USA, del 2


I december förra året bloggade jag om nationalekonomen Vincent Geloso med kollegors beräkningar av inkomstfördelningen i USA 1917 till 1960 och deras kritik mot de beräkningar som Thomas Piketty med kollegor lagt fram, och som förstås blivit mycket inflytelserika. Redan då tänkte jag att jag skulle fortsätta med att kolla på Gerald Auten (nationalekonom på US Treasury) och David Splinters (nationalekonom vid Joint Committee on Taxation, United States Congress) artikel om Piketty med kollegors mer samtida beräkningar, men inte förrän nu tar jag mig för att göra detta.

Och det passar i och för sig ganska bra: Auten och Splinters artikel har cirkulerat i olika utkastversioner i åtminstone sex år, men det  var först i juli i år som den faktiskt blev publicerad i en tidskrift, och då i inget sämre än Journal of Political Economy, en av nationalekonomins topptidskrifter. Att nagelfara de kanoniska Piketty, Saez och Zucman-serierna kan alltså väcka stort intresse inom nationalekonomin. Givet att det är så uppenbart att deras artikel är en kritik av PSZ, är det lite lustigt att de i abstract skriver: "Our analysis of pretax income shows that top income shares are lower and have increased less since 1980 than other studies using tax data." Jojo, vi vet alla vilka ni syftar på med "other studies". Första meningen i artikeln gör också detta klart: "The idea that US top income shares have increased dramatically since the 1960s has become widely accepted, fueled by the conclusions of studies using income tax data (Piketty and Saez 2003; Piketty, Saez, and Zucman 2018)." Det är alltså ett rent deskriptivt resultat som de börjar med, vilket är väldigt intressant givet nationalekonomins rykte att framför allt intressera sig för kausalitet, men de går också vidare med hur folk tolkat det deskriptiva resultatet (hög och stigande ojämlikhet) mer kausalt:

"Acceptance of this view has raised concerns that increasing inequality could indicate greater concentration of political power and increased rent-seeking (Stiglitz 2012; Lindsey and Teles 2017) or increased bargaining power of top earners (Piketty, Saez, and Stantcheva 2014). Such concerns have led to speculation that increasing inequality could lead to decreasing institutional accountability, reduced economic efficiency, and stagnating middle-class wages. These concerns emphasize the importance of accurately measuring the distribution of income." (s. 2180)
Att mäta inkomstfördelningen är dock svårt säger de, på grund av en rad orsaker: demografiska förändringar om hushållsformering, åldersfördelning, pensionssystem, inflation, konjunkturcykler, och så vidare. Skattedata är väldigt omfattande, i bemärkelsen att en stor andel av ett lands hushåll representeras där, men skatteregler förändras över tid vilket gör att det förändrar vilka inkomster som fångas upp av skattebaserade mått. Det är också så, vilket Piketty, Saez och Zucman ju argumenterat i sitt Distributional National Accounts-projekt, att en stor del av nationalinkomsten aldrig filtreras genom individers flöden och beskattas i inkomstbeskattningen. Idag står inkomsterna som tas upp i inkomsttaxeringen för 60 procent av USA:s nationalinkomst, säger Auten och Splinter.

Vad Auten och Splinter gör i sin artikel är att presentera nya beräkningar för USA:s inkomstfördelning sedan 1960-talet, byggda på skattedata men korrigerade för skattereformer, tekniska problem och sociala förändringar såsom en fallande benägenhet att gifta sig. Från första början i artikeln introduceras denna approach i kontrast med Piketty och Saez (2003) skattedatapproach (förkortad PS), och Piketty, Saez och Zucmans (2018) approach med "modified national income" (förkortad PSZ). Enligt PS-metoden ökade toppercentilens andel av inkomsterna från 9 procent år 1962 till 19 procent år 2019, mer än en dubbling. En tredjedel av ökningen skedde dock i samband med Tax Reform Act 1986, säger Auten och Splinten; denna omläggning av skattesystemet breddade skattebasen samtidigt som man sänkte skatten på höga inkomster; den högsta individuella skattesatsen sänktes från 50 procent till 28 procent och den hamnade då under bolagsskattens 34 procent. (s. 2186-2187) Auten och Splinter (kort: AS) räknar därför in retained earnings inom företagen i sina inkomstberäkningar, för att ta hänsyn till att man på 1960- och 70-talen och fram till 1986 hade incitament att behålla mer av vinsterna inom bolagen, medan man efter 1986 tvärtom betalade ut mer av vinsterna till individuella ägare. (s. 2181)  [1] AS korrigering för förändrad demografi handlar om att sedan 1980-talet en lägre andel av låg- och medelinkomsttagare gifter sig, vilket gör att allt fler i dessa grupper själva lämnar in en skattedeklaration. (I USA lämnar gifta par in deklarationen gemensamt.) Detta gör att antalet tax units ökar, samtidigt som de rika är lika benägna att gifta sig som innan, vilket gör att det ser ut som att inkomstkoncentrationen ökar, säger AS. (s. 2181-2182, jfr Galbraith 2018) AS föredragna mått visar bara 4,4 procentenheters ökning av toppercentilandelen av inkomsterna från 1979 till 2019, ungefär hälften av ökningen som man får med med PS metod -- se figur 1 som jag klistrat in ovan. 

År 2014, det sista året som finns med i PSZ ursprungliga artikel från 2018, så skiljer sig beräkningen av toppercentilandelen mellan PSZ och AS med 6 procentenheter: 2,0 procentenheter pga hur de behandlar underreported business income, 1,0 procentenheter pga pensioner, 0,7 procentenheter pga hur man tar hänsyn till bolagsbeskattningen, och 0,4 procentenheter pga hur inkomster rapporteras i deklarationerna.

Efter inledningen följer en del om hur man egentligen mäter toppinkomstandelar. De börjar med inkomstskattedatat och diskuterar hur dess täckning förändras över tid och vad man kan göra för justeringar för det. Diagram 2 visar att på 1960-talet så syns ungefär 60 procent av folks inkomster i inkomstskattedatat, och på 2010-talet någonstans runt 55 procent.


Auten och Splinters jämförelse med Piketty-Saez serie börjar med att replikera PS serie med taxerade inkomster plus kapitalvinster. Det första steget därefter är att ta bort kapitalvinsterna, som inte inkluderas i nationalinkomsten, det andra är att ta bort "dependent filers and nonresidents", som är folk under 20 år som inte är med i PS referenspopulation, samt folk som bor utomlands. De två reduktionerna är så vitt jag kan se okontroversiella, men att AS också tar bort collegestudenter som betalar inkomstskatt (s. 2190) verkar mer diskutabelt: visst är collegestudenter inte något normativt helt hushåll med en heltidsarbetande household head, men de finns ju och tjänar pengar och betalar skatt och har ett eget hushåll, och då ska de väl räknas? Det är absolut så att jämförelsen över tid kompliceras av collegestudenterna -- bara 13 procent av 20-24-åringar var collegestudenter år 1960, mot 40 procent år 2012 -- men jag tycker mer att det säger att man ska vara noggrann när man läser ojämlikhetsstatistik. I vilket fall, Auten-Splinter menar att en minskning i dependent filers skattefria inkomst från $1080 år 1986 till $500 år 1987 (s. 2190) gör att antalet filers ökade kraftigt 1987 och, genom att introducera en massa låginkomsttagare i skattestatistiken, förstås pumpade upp ojämlikhetsmåtten. [2]

Auten-Splinters tredje steg är att beräkna inkomster för nonfilers, alltså de som inte betalar inkomstskatt. Sådan information finns från arbetsgivare, från social security-systemet och från andra håll (s. 2190) -- det är en komplex procedur! Men det är värt det, enligt Auten-Splinter: PS antar att alla non-filers tjänar 20 % av inkomstskatte-tröskeln, men AS menar tvärtom att "some nonfilers have relatively high incomes". (s. 2191) Steg två och tre gör små skillnader till ojämlikhetsestimaten före 1986 men stora skillnader efter 1986, säger Auten-Splinter.

Därpå följer justeringar för skattereformer, att lägga till skattefria ränteinkomster, olika "additions and corrections, och till slut, det sjunde steget, att basera inkomstgrupperna på antalet individer istället för antalet tax units. Här pekar de bland annat på att Larrimore (2014) beräknat att de klass-specifika förändringarna i giftermålstakten förklarar 23 procent av ökningen i hushålls-Ginin från 1979 till 2007. (s. 2192) De storleksanpassar hushåll genom att dela skatte-enhetens inkomst med kvadratroten ur antalet individer i enheten, samma ekvivalensskala som används av amerikanska CBO eller deras Census Bureau när de sätter fattigdomsnormer. De storleksjusterade inkomsterna används bara, betonar Auten och Splinter, för att rangordna skattenheterna och slå fast percentiler etc; percentilernas inkomstandelar bygger på faktisk inkomst. Denna förändring, att bygga inkomstgrupperna på individer istället för tax units, sänker toppercentilens inkomstandel med 1,5 procentenheter år 1960 och 2,9 procentenheter år 2019 -- en rätt betydelsefull minskning. Däremot så innebär rangordningen efter storleksjusterade enhetsinkomster en ökning av toppinkomstandelarna; netto blir resultatet av de två justeringarna en sänkning av toppercentilens andel med 1,6 procentenheter. Här refererar de att också Bricker (Fed), Henriques (också Fed), Krimmel (också Fed) och Sabelhaus (Brookings) (2016, AER P & P) och Larrimore, Mortenson och Splinter (2021, JHR) visat motsvarande resultat.

Måttet (eller inkomstbegreppet) som Auten och Splinter får fram efter dessa sju förändringar av PS kallar de för "improved fiscal income". För att få fram vad de kallar "pretax income" som är förenlig med nationalräkenskapernas nationalinkomst lägger de till ett par saker till, och de laborerar också med en version som är "pretax plus transfers income" som är vad det låter som, "pretax income"-begreppet plus statliga transfereringar. Den sista versionen är "aftertax income", som  drar bort inkomstskatten.

Improved fiscal income-begreppet ger lägre inkomstkoncentration än vad PS metod gör. Den mesta skillnaden beror på rangordningen av skatteenheter/individer.

Från detta går de vidare till mätandet av vad de kallar pretax income. De börjar justeringarna här med att lägga in företagens bibehållna inkomster. Dessa finns med i nationalinkomsten men eftersom de inte delas ut till individer finns de inte med i skattedata som bygger på inkomstskatten. Det blir ju också ett rätt annorlunda inkomstbegrepp när vi börjar räkna in bibehållna inkomster till hushållens inkomster, fast de ju per definition faktiskt inte delats ut till några hushåll. Här finns det också en del rätt teknisk diskussion om olika personers olika ägandeformer av aktier etc. (s. 2195-2198) Här finns också andra relativt obskyra delar av nationalinkomsten som arbetsgivar-betalda förmåner och inkomster på pensionskonton.

Mer uppenbart intressant är diskussionen om "underreporting" av inkomster, alltså skattesmitande och andra kanaler genom vilka en del inkomster undgår att fångas upp i inkomstskattesystemet. Här utgår de från US-amerikanska skatteverkets (IRS) studier av skattesmitande, National Research Program och Taxpayer Compliance Measurement Program, totalt sex studier från 1988 till 2013. (s. 2199-2200) Att lägga in de beräknade skattesmitande inkomsterna sänker toppercentilens inkomstandel med 0,25 procentenheter 1960-2019, säger de.

Det sista måttet är att röra sig från pretax till posttax, via vad de kallar "pretax plus transfers". Posttax-mått är något mycket annorlunda än vad Piketty, Saez och Zucman gjort och vad jag fokuserar på här är debatten med PSZ, så jag skippar denna metod-diskussion. (s. 2200-2203) Figur 4, som jag klistrat in nedan, visar i vilket fall resultatet: posttax-serier jämte de andra inkomstbegreppen, här med inkomstandelen för bottenhalvan av inkomstfördelningen, och samma personers reala inkomsttillväxt. PSZ fick ju med sin DINA-metod fram en kraftig minskning av bottenhalvans inkomstandel sedan 1980-talet, något som redan Galbraith (2018) riktade stark kritik mot, Också Auten och Splinter får fram andra resultat, med sina föredragna mått "pre-tax income" och "after-tax income". Med deras pretax-mått sjönk bottenhalvans inkomstandel från ungefär 20 procent på 1960-talet till 15-16 procent idag, medan PS fiscal income-begrepp ger en minskning från 16 till 9-10 procent. Om man skiftar till fördelningen efter skatter och transfereringar så finns det i sin tur knappt någon trend alls över tid, annat än att 1970-talet hade en större andel för bottenhalvan. [3]



Från denna diskussion går de vidare till en direkt jämförelse med Piketty, Saez och Zucmans beräkningar (PSZ). Figur 6, som jag klistrat in nedan, jämför Auten-Splinters resultat med nationalinkomstbegreppet (inte fiscal income) med PSZ. Skillnaderna är som synes stora: pretax så ökar toppercentilens andel enligt AS från runt 10 procent på 1960-70-talen till runt 14 procent idag, medan ökningen enligt PSZ är från 11-12 procent på 60-70-talen till 18-19 procent idag.



Skillnaderna mellan AS och PSZ, säger Auten och Splinter, handlar framför allt om vad som hänt sedan 1979. År 2014 är toppercentilens andel (pretax) 14,2 procent enligt AS, 6,0 procentenheter lägre än PSZ. De största skillnaderna är hur man beräknat skattesmitandets fördelning (2,0 p.e.), pensionsinkomst (1,0 p.e.), bolagsskatten (0,7 p.e.), och andra skatter (0,7 p.e.). (s. 2209, också Tabell 4) PSZ, säger Auten och Splinter, allokerar oskattade företagsinkomster i enlighet med hur de skattade företagsinkomsterna var fördelade, medan AS menar att underbeskattningen inte minst skedde i skatteenheter som inte rapporterat någon inkomst alls. Så här beskriver de skillnaden:

"In 2014, the PSZ approach implies distributing about 50% of underreported business income to the top 1%. However, audit data suggest that only about 15% should go to the final top 1% after reranking. The PSZ approach effectively removes underreported income found lower in the distribution and allocates it to the top." (s. 2209)
Jag lämnar återigen diskussionen om posttax-måtten därhän. Det är dock intressant att skattesystemet enligt Auten och Splinter omfördelar mer till låg- och medelinkomsttagare idag än vad det gjorde på 1960-talet, det är inte intrycket jag har från diskussionen om Reagan och George W Bushs skattesänkningar, så något nytt för mig. (s. 2214)

I slutdiskussionen pekar Auten och Splinter på att Piketty och Saez (2003), som helt fokuserade på inkomstskattedata, fann att toppercentilens inkomstandel fördubblats sedan 1962. Piketty, Saez och Zucman (2018) förändrade metodologin och breddade inkomstbegreppet, och fick då en mindre drastisk ökning av inkomstkoncentrationen. AS är positiva till PSZ metodologiska förändringar jämfört med PS, men menar att PSZ gör fel i hur de beräknar de oskattade inkomsternas fördelning. (s. 2219)


Piketty, Saez och Zucman har svarat på Auten och Splinter i en kommentar från 16 september som finns att ladda hem t ex från Zucmans hemsida. PSZ svar börjar mycket effektivt: de konstaterar att AS omtestat PSZ resultat:

"Following Piketty, Saez, and Zucman (2018), henceforth PSZ, AS start with income observed in tax returns and make adjustments to account for untaxed income. In contrast to PSZ, AS conclude that the top 1% income share has not increased much since 1980. Because the concentration of taxed income has increased dramatically (a non-controversial fact), AS must assume that untaxed income has become much more equally distributed to obtain their results.Given the importance of the question, clarity is needed in understanding what features of AS’s methodology deliver this result." (s. 1)

PSZ fokuserar i sitt svar på ett par aspekter med AS metod. Den första är hur företagstypen partnerships behandlas; PSZ menar att detta är en vanlig form för att driva företag och att ungefär hälften av inkomsterna i partnerships är skattefria pga generösa avskrivningsregler. AS allokerar, säger PSZ, de oskattade inkomsterna där "not to partnership owners, but to owners of sole proprietorships, who are much less rich." (s. 1) Det handlar alltså om två olika typer av företag som skattas på olika sätt och, enligt PSZ, ägs av olika rika personer. Detta gör en stor skillnad eftersom avskrivningarna i partnerships ökat kraftigt sedan 1970-talet; idag utgör de ungefär 2,5 procent av nationalinkomsten (s. 3). Denna faktor diskuteras i en annan kommentar på Auten och Splinter, av John Iselin och Daniel Reck från universitetet i Maryland.

Den andra är AS övriga behandling och allokering av oskattade inkomster. AS antar, säger PSZ, att oskattade affärsinkomster är rleativt jämnt fördelade, utan trend, medan PSZ menar att dessa inkomster ökat i ojämlikhet, liksom sina skattade motsvarigheter. Här handlar det bland annat om företagstypen S-corporations och att AS enligt PSZ allokerar inkomster från S-corporations till ägare av C-corporations, som inte är lika rika som ägarna till S-corporations. Skillnaderna mellan PSZ och AS här förklarar 40 % av skillnaden i deras perspektiv på toppercentilens inkomstandel, säger PSZ.

Den tredje, som följer på den andra, är behandlingen av pensionsinkomster. Skillnaderna här förklarar 20 % av skillnaden i inkomstkoncentrationsskattningarna mellan PSZ och AS. 

Den fjärde är att AS allokerar delar av nationalinkomsten som inte består av riktiga inkomstflöden på ett väldigt jämlikt sätt. "In AS, public goods expenditures are allocated like a large universal basic income equal to 9% of national income—essentially erasing poverty—and the government deficit is treated like a progressive tax. Other inequality studies (including PSZ) leave these non-cash components out of the picture, i.e., assume they do not affect inequality."


referens

Gerald Auten och David Splinter (2024), "Income inequality in the United States: Using tax data to measure long-term trends", Journal of Political Economy 132 (7).

Thomas Piketty, Emmanuel Saez och Gabriel Zucman (2024) "Income Inequality in the United States: A Comment", opublicerat paper, Paris School of Economics/UC Berkeley, daterat 16 september 2024.

 

fotnoter

[1] Den här "korrigeringen" är väldigt intressant. Ur ett tekniskt perspektiv är den helt rimlig, för att förstå en del av varför 1987 ser så annorlunda ut än, säg, 1971 i USA:s skattedata. Men ur ett substantiellt perspektiv är det inte lika uppenbart att justeringen är rimlig: om skatterna var höga och gjorde att mindre av inkomsterna delades ut till de välbärgade, så är det väl inte fel att säga att inkomsterna till de välbärgade relativt minskade? Jfr AS s. 2186-2187.

[2] Auten och Splinter kallar detta steg för att "correct the sample by removing returns of dependent filers and nonresidents" (s. 2189), men jag känner mig tveksam till att kalla det en "rättelse". Dessa dependent filers finns ju och det är inte fel att ha med dem i sina beräkningar. Däremot så blir jämförelsen över tid snårig, det köper jag. De menar att skattereformen för dependent filers 1987 la till fem miljoner nya skattebetalare (med låga inkomster). De pekar också på att år 2019 så fanns det 6,7 miljoner skattebetalare under 20 år, 4,6 miljoner andra dependent filers (typ collegestudenter och gamla), 1,0 miljoner nonresident filers, och 1,9 miljoner gifta par som lämnade in två deklarationer istället för det vanliga, en gemensam deklaration. (s. 2190)

[3] Här för de också in en diskussion om att man måste komma ihåg att det inte är samma personer som befinner sig i en inkomstgrupp, t ex toppercentilen eller bottenhalvan, år efter år. De menar att en panelstudie (Auten, Gee och Turner 2013) visar att ungefär 40 % av skatteenheterna i toppercentilen befinner sig kvar där efter tre år, och att studier visar att de med låga inkomster har störst följande ökningar, medan också de i toppen har stora fluktuationer. (Auten och Gee 2009, National Tax Journal; Splinter 2021, ROIW). (s. 2206)

Ekonomiska och sociala effekter av folkskolans införande

 
 Södermalmsskolan i Sundsvall, uppförd 1956. Okänd fotograf, fotografi från Sundsvalls museum via Digitalt museum, licens CC-BY.
 

 

detta är inlägg två i serien om nationalekonomiska kausala studier av tidig välfärdspolitik

tidigare inlägg: barnhälsa på 1930-talet

 
--

På 1930-talet var den obligatoriska skolgången bara sex-sju år lång (det varierade per kommun), och bara en femtedel av ungdomarna gick vidare från folkskolan till läroverk eller annan högre utbildning. De andra fyra femtedelarna började förvärvsarbeta vid 13-14 års ålder, och den svenska befolkningen var på 30-talet rejält lågutbildad med dagens mått mätt: bara 1 procent av de vuxna som befann sig i arbetskraften hade en universitetsexamen. [1] Folkskolan var också uppdelad, från en inriktning mellan mer akademisk och mer praktisk inriktning vid 11-13 års ålder, och de som gick vidare i skolan efter 14 års ålder fick också välja mellan det akademiskt inriktade läroverket och den mer praktiska realskolan.

Under 1950- och 1960-talet avskaffades detta uppdelade skolsystem och man införde istället en nioårig obligatorisk folkskola -- som alltså förlängde skolplikten med 1-2 år -- utan segregation mellan akademiska och praktiska linjer före 16 års ålder.

Man kan förvänta sig att detta bidrog till att jämna ut livsvillkoren för svenska ungdomar: att senare dela upp mellan akademiskt inriktade och praktiskt inriktade, och skjuta upp när man fick fatta sitt beslut om vilken inriktning man ville ha, borde försvaga bandet mellan dina föräldrars utbildningsnivå och klasstillhörighet, och vilken bana du själv hamnar på.

Ungefär detta var också vad nationalekonomerna Costas Meghir och Mårten Palme fann i en inflytelserik artikel publicerad i American Economic Review år 2005. Deras utvärdering av reformens effekter bygger på det faktum att reformen inte genomfördes i alla kommuner samtidigt, utan rullades ut efter hand. De har data på föräldrars sociala bakgrund, ens IQ, och ens betyg i sjätte klass för två kohorter, de födda 1948 och de födda 1953. I de flesta kommuner så var det så att de födda 1948 gick i skolan i det gamla systemet och de födda 1953 gick i det nya systemet. I en del kommuner gick dock båda kohorterna i det gamla systemet, och i en del gick båda i det nya systemet. Skillnaderna möjliggör användningen av en differences-in-differences-design. Skolstyrelsen valde inte kommuner som skulle få det nya systemet, utan strategiskt, och kommunfullmäktige fick därefter själva besluta om de ville gå med i det nya systemet. (s. 415) 1961, det första året där Meghir och Palme har skoldata, var 25 procent av kommunerna med i det nya systemet, och 1966, när Meghir och Palme har betygsdata för kohorten född 1953, så var det bara 30 procent av kommunerna som helt och hållet var kvar i det gamla systemet.

Betygsdatat för sjätteklassarna kommer från Göteborgs universitet som 1961 och 1966 genomförde undersökningar som omfattade alla 13-åringar som var födda den 5:e, 15:e eller 25:e i en månad. (s. 416) Trettonåringarna fick göra tre IQ-test och deras betyg i svenska, engelska och matte samlades in. Forskarna samlade också in deras föräldrars utbildningsnivå. Informationen om 13-åringarnas slutgiltiga utbildningsnivå hämtade Meghir och Palme från 1990 års svenska utbildningsregister, och information om inkomster och sysselsättning hämtade de från skatteregister från 1985 till 1996. Det fullständiga datasetet omfattar 10 309 svenskar födda 1948 och 9 007 svenskar födda 1953. I samplet gick 35 procent av 1948 års kohort i det nya systemet, och i 1953 års kohort, 81 procent.

För ungdomar som gick i det nya systemet blev det 2,6 procentenheter vanligare att läsa vidare bortom de obligatoriska åren. Detta drivs helt av ökad skolbenägenhet för de med lågutbildade fäder, definierat som fäder som själva bara gått i obligatorisk (6- eller 7-årig, i deras fall) folkskola. (s. 418) Särskilt gäller detta de som hade hög IQ (enligt testet när de var 13) men lågutbildade fäder. Även för inkomster 1985-1996 var effekterna större för de med lågutbildade fäder: överlag var den positiva effekten på ens inkomst bara 1,42 procent, och strax utanför statistisk signifikans enligt 90 procentskriteriet, men för de med lågutbildade fäder var effekten på inkomst 3,4 procent och starkt signifikant. För de med högutbildade fäder, vilket är 17 procent av samplet, var däremot effekten på inkomster negativ! Meghir och Palme menar att detta beror på att deras tillgång till läroverket inte längre var så självklar som i det tidigare, mer sorterande systemet. (s. 419) I slutsatserna säger de att de asymmetriska effekterna, med mest positiv effekt för de från lågutbildad bakgrund, bör ha ökat den sociala rörligheten. (s. 422)

 

Nationalekonomerna Martin Fischer (Karolinska institutet), Gawain Heckley (Lund), Martin Karlsson (Duisburg-Essen) och Therese Nilsson (Lund) återgick år 2022 i en artikel till frågan om skolreformens effekter. Medan Meghir och Palme använde Göteborgsforskarnas undersökning med 10 procent av kohorterna födda 1948 och 1953, så använder Fischer et al administrativa data för hela dessa kohorter. Med ett sample om 211 582 personer istället för runt 20 000 som i Meghir och Palme så får de väldigt lika resultat, huvudsakligen: en liten positiv effekt på inkomsterna (1,5 procent kontra 1,4 procent hos MP, och statistiskt signifikant med det större samplet) och 0,259 fler år av utbildning, att jämföra med 0,298 år hos MP. Däremot så faller den negativa effekten för folk med högutbildade fäder bort.

Fischer et al pekar på ett problem med utbildningsmåttet som Meghir och Palme, liksom många andra, använt. Det bygger på en uppgift om en persons högsta utbildning -- högstadium, gymnasium, högskola, osv -- och en schablon om hur många år det omfattar -- 9, 12, 15, osv. Fischer et al menar att verkligheten är mer komplex än så, att detta mått missar yrkesutbildning såväl som realskoleutbildning. De föreslår istället ett mått som inte bara kollar på ens högsta utbildningsnivå utan på varje utbildning man gått, och lägger ihop åren för de olika utbildningarna. Med detta mer omfattande mått blir den uppskattade effekten av reformen på folks utbildningsnivå större: 0,464 år överlag, och 0,501 år för de med lågutbildade fäder. (s. 815) Det nya utbildningsmåttet visar att det inte är tillrådligt att, som ett par studier gjort [2], använda den svenska utbildningsreformen som en instrumentvariabel för folks humankapital. (s. 817-818)

Däremot så kvarstår, som sagt, inte den negativa effekten på inkomster för de med högutbildade fäder, och Fischer et al gör en del detektivarbete för att reda ut varför denna differentierade effekt uppträder i Göteborgssurveyn men inte i populationsdata. (s. 815-817)

Vad säger då dessa två studier om folkskolereformen som en del av välfärdsstatens historia? Överlag så skulle jag säga att reformen utifrån dessa studier var väldigt lyckad, sett till vad man ville åstadkomma. Reformen ledde till en mer utbildad befolkning, med högre inkomster (även om den skattade effekten är liten), och dessutom så jämnade den ut livschanserna mellan de med högutbildade och de med lågutbildade föräldrar.



referenser
Martin Fischer, Gawain Heckley, Martin Karlsson och Therese Nilsson (2022) "Revisiting Sweden's comprehensive school reform: Effects on education and earnings", Journal of Applied Econometrics.
Costas Meghir och Mårten Palme (2005) "Educational reform, ability, and family background", American Economic Review.

fotnoter
[1] Om utbildningsnivån år 1930 se SCB (1936) Folkräkningen år 1930.
[2] Black, Devereux och Salvanes (2005, AER) om socialt arv av humankapital, Brunello et al (2013, JLE) om utbildningsnivå och fetma, Lundborg, Nilsson och Rooth (2014, AEJ: Applied) om effekter av ens föräldrars utbildning på ens sociala utfall.

Vad säger den ekonometriska litteraturen om den tidiga välfärdsstatens effekter? Fallet barns hälsa på 1930-talet

Det finns vid det här laget en rad ekonometriska studier av effekterna av olika välfärdsreformer som infördes på 1930-40-50-talen: integrationen av folkskolan, införandet av gratis skollunch, och så vidare. Dessa studier är skrivna i traditionen av "trovärdighetsrevolutionen" i nationalekonomi och syftar i varje enskild studie till att bedöma effekten av intervention x på utfallen y och z, inte till att förklara variationen i y och z i största allmänhet. Jag tänker göra en liten serie blogginlägg om några av dessa studier, med en underliggande frågeställning som är: vad säger egentligen den nya kausala litteraturen om välfärdsstatens historia? Det finns ju en helt separat litteratur som mer använder kvalitativ, historisk metod -- eller kanske lite enklare statistisk metod med ett antal länder i en panel -- och arbetat med att diskutera frågor som: när utvecklades den svenska välfärdsstaten? Och: hur distinkt var den svenska välfärdsstaten från andra länders, t ex Storbritannien, Tyskland eller USA? Var det en socialdemokratisk välfärdsstat? De kausala policyutvärderingarna som nationalekonomer gör relaterar inte till denna välfärdsstatslitteratur, men jag ska försöka dra några slutsatser, i senare inlägg, om vad för slutsatser välfärdshistoriker kan dra av nationalekonomernas studier.
 

--


I oktober 1931 införde den svenska regeringen, oroad över att barnadödligheten slutat falla, ett nytt system för att arbeta med små barns hälsa. Fram till 30 juni 1933 inkluderades de nyfödda i ett system av information, stöd och övervakning, inklusive uppmuntran till amning, ett medvetet hälsoarbete, och en hälsosam kost. Den genomsnittliga bebisen med i projektet besökte en vårdcentral 2,8 gånger och besöktes av sjukvårdspersonal 3,9 gånger. (s. 1140) [1] Allt detta -- jag hade aldrig hört talas om experimentet innan -- hämtar jag från nationalekonomerna Sonia Bhalotra (Warwick), Martin Karlsson (Duisburg-Essen), Therese Nilsson (Lund och Nina Schwarz (Duisburg-Essen) som 2017 och 2022 publicerade två artiklar som kvantitativt utvärderade utfallen av 1931 till 1933 års barnhälsopolitik.
(Jfr SOU, “Kungl. Medicinalstyrelsens Utlåtande och förslag Angående Förebyggande Mödra och Barnavård,” Statens Offentliga Utredningar 1935:19.)

I artikeln från 2017 visar de att barnadödligheten minskade med 24 procent (!) och dessutom minskade de omfattade barnens framtida risker för kroniska sjukdomar. I artikeln från 2022 vidgar de perspektivet från hälsoutfall till utbildning och ekonomiska utfall. Det finns sedan 1960-talet en stor nationalekonomisk och läkarvetenskaplig forskning som visar att de förhållanden som man lever i under ens tidiga år -- och för den delen i mammas mage -- påverkar ens framtida hälsa och intelligens, så det finns skäl att tro att en hälso-intervention som den svenska från 1931-33 kan förbättra bebisarnas framtida ekonomiska ställning. [2]

Deras dataset omfattar 25 000 personer som föddes 1930-1934 i 114 samplade landskommuner och fyra samplade städer. Politikerna skickade inte det nya programmet specifikt till kommuner som hade större problem med barns hälsa, och Bhalotra et al menar att "program variation across birth cohort and birth parish is quasi-experimental" (s. 1142); det är förstås viktigt här att ifall man omfattades av programmet eller inte, inte bara påverkades av vilken kommun man föddes i, utan också precis när man föddes 1930, 1931, 1932 och 1933. I datat finns alltså personer från alla omfattade kommuner av båda typerna: barn som omfattades, och barn som inte omfattades. Bhalotra et al har själva samlat in födelseinformationen och skoldatat, och länkat dessa till administrativa data om senare ekonomiska utfall för dessa individer. Av de 25 000 födslarna lyckades de länka 66 procent till skoldatat, 86 procent till 1970 års folkräkning och 65 procent till skattedata. De kausala slutsatserna bygger på att de jämför de barn som föddes så att de omfattades av programmet 1 oktober 1931-30 juni 1933, med de barn som föddes just därinnan eller därefter.

De omfattade barnen gjorde bättre ifrån sig i skolan: i fjärde klass fick pojkarna 0,1 standardavvikelsers bättre betyg, medan för flickorna effekten bara uppträdde i toppen av distributionen; flickor fick en 12,4 % större chans att hamna i den översta femtedelen av betygsfördelningen. Just att tillhöra den översta femtedelen var särskilt viktigt i Sveriges 1930-tal, säger Bhalotra et al, med tanke på att det var just 20 procent av folkskolebarnen som gick vidare till det vid denna tid mycket prestigefyllda läroverket. För flickor omfattade av programmet blev sannolikheten att gå till läroverket 3,5 procentenheter högre. Flickorna som omfattades var vid 36-40 års ålder 5,3 procentenheter mer benägna att förvärvsarbeta, 7,6 procentenheter mer benägna att ha ett heltidsjobb, och tjänade 19,5 procent mer än de icke omfattade. Detta drevs framför allt av att de omfattade kvinnorna blev mer benägna att ha högprestigejobb till exempel inom bank och administration. [3]

Bhalotra, Karlsson, Nilsson och Schwarz menar att deras resultat är policyrelevanta också idag, och att de visar att relativt billiga, lågteknologiska interventioner i barnhälsa kan ge mycket hög avkastning genom interventionens effekter på folks hälsa och humankapital. (s. 1140)

Ur ett välfärdsstatshistoriskt perspektiv kan man då väl säga att studien visar att 1930-talets socialpolitik kunde ha stora positiva effekter på folkhälsan och samhällsekonomin. Men ur det politisk-historiska perspektivet är det pikant att programmet inleddes hösten 1930: konventionellt börjar mycket av den välfärdsstatshistoriska forskningen hösten 1932, när Socialdemokraterna vinner valet och ingår i allians med Bondeförbundet, den berömda "kohandeln" som började ett långt socialdemokratiskt maktinnehav. Här har vi alltså en lyckad välfärdsstatsreform som startade hösten 1930 istället, under den begabbade folkpartistiska Ekmanregeringen. Bhalotra et al säger inget om vilka politiska krafter som var drivande bakom reformen, och spontant så misstänker jag en professionsförklaring a la Theda Skocpol -- socialmedicinare, framför allt -- snarare än en partipolitisk förklaring. Den relativa vikten för de olika förklaringarna kan jag komma tillbaka till i senare blogginlägg i serien.



referenser
Sonia Bhalotra, Martin Karlsson, Therese Nilsson, and Nina Schwarz (2022) "Infant health, cognitive performance, and earnings: Evidence from inception of the welfare state in Sweden", Review of Economics and Statistics.

fotnoter
[1] Programmet hade också ett antenatalt program, alltså gentemot gravida kvinnor. Bhalotra et al hittar inga effekter av det antenatala programmet, varken på hälsoutfall eller på ekonomiska utfall, se s. 1140.
[2] Så här introducerar Bhalotra et al denna litteratur: "Infancy is a period of rapid neurological development: the brain doubles in size in the first year, and by age three it has reached 80% of its adult volume (Nowakowski, 2006). Brain growth is sensitive to nutrition and infection. It is estimated that 85% of calorie intake in infancy is used to build brains, and severe or repeated infections in infancy may divert nutrients away from brain development (Finch & Crimmins, 2004; Eppig, Fincher, & Thornhill, 2010). Moreover, the release of inflammatory molecules during infections may directly impact the developing brain by changing the expression of genes involved in the development of neurons and the connections between them (Deverman & Patterson, 2009). Thus there are biological mechanisms for causal effects of infant health on cognition.
The biological mechanisms may be reinforced as follows. Individuals carrying an improved cognitive endowment from infancy may make greater investments in education, receive reinforcing investments from parents (Bhalotra & Venkataramani, 2013; Yi et al., 2015; Adhvaryu & Nyshadham, 2016; Almond, Currie, & Duque, 2018), and compete more effectively for state investments in education (which, we will argue, played a role in the context we study). If the interventioneligible cohorts exhibit higher human capital attainment, and, if there is sufficient demand for the acquired skills, we may expect them to have higher earnings." (s. 1138)
[3] Det ligger lite vid sidan av fokuset för det här blogginlägget men de gör en mycket intressant undersökning om bestämningsfaktorerna bakom kvinnornas ökade förvärvsarbete, och ökat förvärvsarbete i prestigejobb specifikt. De använder shift-share-instrument och visar att i kommuner där jobb i sektorer där många kvinnor jobbade, expanderade mer, så ökade kvinnors sysselsättning i prestigejobb mycket mer. Så här beskriver de bidraget på denna punkt i inledningen: "Previous work has discussed changes in the relative demand for female (versus male) labor stemming from recession, war, or technological change (Elsby, Hobijn, & Sahin, 2010; Acemoglu, Autor, & Lyle, 2004; Cortes, Jaimovich, & Siu, 2018; Bhalotra, Fernandez-Sierra, & Venkataramani, 2022). We provide a new perspective, emphasizing that expansion of broad-based public services tends to raise the relative demand for female labor. This is of potential relevance to understanding prospects for women in developing countries that are witnessing large-scale expansion in the provision of schooling, public health services, and preschool centers." (s. 1141)