måndag 4 augusti 2025

Kris, vilken kris?

I förra veckan blev jag uppringd av Affärsvärlden som ville diskutera den nuvarande ekonomiska krisen. Vilken kris? tänkte jag. Jag är ekonomisk-historiker, inte expert på dagens ekonomi per se, och har inte alltid hundra-koll på konjunkturindikatorerna (även om jag ibland skriver om samtida fenomen, som olika skandinaviska inflationsutfall sedan Covid). Därför var jag också tvungen att färska upp min bild av dagens ekonomi, i respons på vår diskussion.

Affärsvärlden-journalisten frågade mig om hur dagens kris -- covidkrisen, inflationskrisen som är relaterad till Rysslands krig i Ukraina, osäkerheten som har att göra med Trumps lynniga ekonomiska politik -- ser ut i ljuset av Sveriges moderna ekonomiska historia. Min huvudsakliga reflektion var nog att vi idag inte lever i en ekonomisk kris av den typ som vi hade i början av 1920-talet, början av 1930-talet eller 1990-talet, när hela ekonomin kraschar på en gång och bönder går i konkurs, banker går i konkurs, och BNP faller med 5, 10, 15 procent på ett år. Snarare så liknar dagens ekonomiska läge det som vi hade i det sena 1970-talet när det inte var så att BNP föll drastiskt varje år, men att ekonomin snarare stagnerade, och att förväntningarna om en återhämtning "nästa år" hela tiden fick skjutas upp, också detta under ett mörkt moln av geopolitisk instabilitet som orsakade stigande energipriser och inflation överlag.

I juni publicerade Konjunkturinstitutet sin senaste Konjunkturläget-rapport och bilden jag får där är väl också en av seghet och osäkerhet mer än en kris pang bom. Enligt KI steg BNP med 1,0 procent förra året och kommer stiga med 0,9 procent i år: det är ingen stark utveckling men ingen krasch heller -- utan något som liknar stagnation. Diagrammet som jämför BNP-utvecklingen före och efter 2020 års Covid-krasch visar att Sverige är ungefär på nivå med Euro-området i återhämtning, men klart sämre än USA.


En sammanfattande kommentar från KI är: "Svensk ekonomi befinner sig i en tydlig och utdragen lågkonjunktur utlöst av hög inflation och åtföljande höga räntor." (s. 17)

Som ekonomisk-historiker fick jag ju gå till de historiska nationalräkenskaperna för att se om min instinkt stämde, att vi idag har en seg återhämtning men en relativt flack "krasch". Och det stämde, som vi kan se i diagrammet nedan. När man jämför 1920-talets svåra (och historiskt underskattade*) kris och 30-talets Depression med 1970-talskrisen, 1990-talskrisen, 2008 års finanskris och dagens situation, så delar kriserna lite granna själva in sig i grupper.

 


Diagrammet visar BNP i fasta priser (ej justerat för befolkning) relativt till år t som jag i varje fall identifierat som den lägsta BNP-nivån under respektive kris. t = 1921, 1932, 1977, 1993, 2009 och 2020. Datat kommer från Rodney Edvinssons BNP-serie (från användningssidan) för 1917-2013 och från SCB Statistikdatabasen för 2016-2023, extrapolerat med 2024 års BNP-tillväxt enligt Konjunkturinstitutet (Konjunkturläget juni 2025).


Det är tydligt att 1920-tals och 30-talskriserna hade kraftiga BNP-fall, och än mer markerat kraftiga återhämtningar: fyra år efter krisens BNP-botten (1921 respektive 1932) så var BNP mer än 20 procent högre än bottennoteringen. Men dagens återhämtning är inte bara långsammare än dessa två, utan långsammast över huvud taget, tillsammans med 70-talskrisen. Detta har också att göra med den speciella profilen före krisen: i dagens "kris" var BNP så sent som 2018 ändå lägre än vad den var 2020. Det är en stor skillnad jämfört med det sena 1980-talets överhettning eller de goda åren 2005, 2006 och 2007. På det hela taget är faktiskt BNP-kurvan 2016-2024 väldigt lik kurvan för 1973-1981, vilket i alla fall på detta ytliga plan stärker min tes om likheten mellan 70-talskrisen och idag.

Vad utmärker då dagens situation enligt Konjunkturinstitutet? Den korta sammanfattningen är i princip att exporten hålls tillbaka av den internationella ekonomiska osäkerheten (relaterad till USA-politiken), och att hushållens konsumtion utvecklas långsamt eftersom hushållen är försiktiga efter år av inflation och höga räntor.  Under 2024 ökade hushållens konsumtion bara med 0,6 procent, den offentliga konsumtionen med 1,3 procent, inte minst genom försvaret, och bruttoinvesteringarna med 0,2 procent. (Konjunkturläget juni, tabell 2.) Exporten växte med 2,0 procent. (Och importen ännu snabbare: 2,2 procent.) KI räknar med att försvarets expansion kommer fortsätta bidra till tillväxten de närmsta åren, medan kommunernas utgifter snarare kommer stagnera. Som jag tolkar det är då de två faktorer som skulle kunna få fart på tillväxten (a) exporterna, om världsläget förbättras, och (b) hushållens konsumtion, som också skulle tillåta byggsektorn att komma igång igen.

 

Den faktor som verkligen talar för att vi befinner oss i en kris, historiskt talat, är den öppna arbetslösheten som under 2024 låg på 8,4 procent och som under 2025 kommer nå 8,8 procent, enligt KI. Men detta är ju inte resultatet av någon plötslig chock, utan tvärtom en konstant hög nivå -- om något, en perma-kris. I diagrammet nedan har jag plottat arbetslöshetens utveckling i de olika kriserna som i BNP-diagrammet ovan, förutom för 20-talskrisen som hade en så häftig utveckling (arbetslösheten steg 20+ procentenheter) att den gör de andra serierna väldigt svårläsliga när man tar med den. Måttet på y-axeln är hur hög arbetslösheten är jämfört med år t. Här är det alltså bra att ha ett negativt värde: då är arbetslösheten lägre än under krisens djup. 1930-talskrisen har den förväntade, arketypiska kris-utvecklingen: arbetslösheten stiger med 12 procentenheter från de goda åren 1928 och 1929 (före svarta oktober!) till år 1932, sedan stiger arbetslösheten lite granna till under 1933, och sedan sätter en snabb återhämtning in och arbetslösheten är 1936 11 procentenheter lägre än vad den var 1932. De andra kriserna har annorlunda mönster.


 
år t i diagrammet är samma som i BNP-diagrammet ovan, och har alltså inte om-identifierats utifrån arbetslöshetens nivåer. t är alltså = 1921, 1932, 1977, 1993, 2009 och 2020. Källorna är Jakob Molinders dataset för 30-talet, 70-talet och 90-talet, och SCB (AKU, åtkommet genom Statistikdatabasen) för 2000-talet och framåt. 20-talskrisens kurva är lik 30-talskrisens fast ännu mer extrem och har uteslutits här eftersom den gör diagrammet svårläsligt.


Vi ser i diagrammet att 1990-talskrisen har ett väntat format före krisen: under de goda åren 1989-90 är arbetslösheten ungefär 8 procentenheter lägre än vad den är 1993, och krisen innebär alltså en stark ökning av arbetslösheten. Men olikt 30-talet sker det inte någon snabb förbättring därefter, utan tvärtom så biter sig arbetslösheten fast och är lika hög 1997 som den var 1993. 1970-talskrisen (centrerad kring 1977), finanskrisen (centrerad 2009) och Covidkrisen står i sin tur för ännu ett nytt mönster: en väldigt flack utveckling utan vare sig stora ökningar av arbetslösheten i krisen (förutom Covidkrisen) eller rejäla återhämningar därefter. Här kan man återigen förfina analysen genom att separera ut 1970-talet när den öppna arbetslösheten ändå varierade extremt lite med vår tids mätt: arbetslösheten var 2,5 procent 1973, 2,0 procent 1977, och 2,8 procent år 1981, inte mycket att tala om! Även om Covidkrisens linje alltså ligger ganska nära 1970-talskrisens, så måste man alltså betona skillnaderna: 2016 till 2024 varierade arbetslösheten mellan 6,5 procent (år 2018) och 8,9 procent (år 2021), och nivåskillnaden är alltså slående jämfört med 1970-talet.

Jämförelserna med de historiska kriserna faller för min del ut så här. Dagens ekonomiska situation liknar inte alls de tre drastiska ekonomiska kriser som Sverige hade under 1900-talet: 20-talskrisen, Depressionen, och 90-talskrisen. Däremot så liknar vår "utdragna lågkonjunktur" (KI) situationen i det sena 1970-talet och 1980-talet på så sätt att ekonomin går långsamt och präglas av stor osäkerhet både inhemskt och, framför allt, på den internationella arenan: geopolitik, råvarupriser, ekonomisk politik. Jag tror därför att det i själva segheten och utlandsberoendet finns en likhet med 70-talskrisen, medan man också måste ta in att den höga arbetslösheten snarare är ett fenomen från 90-talskrisen, som i grunden förändrade svensk ekonomi genom den dualisering och polarisering -- klassmässigt, geografiskt -- som vi sett sedan dess.


noter

* Adam Tooze i The Deluge (2014) om 20-talskrisen: "a truly spectacular economic shock -- the worldwide depression of 1920, perhaps the most underrated event in the history of the twentieth century".

fredag 1 augusti 2025

Agara konflikter i 1930-talets Spanien

Vilken roll spelade den agrara ojämlikheten -- mellan godsägare och lantarbetare, och mellan dessa och olika slags bönder -- för de sociala och politiska konflikterna i Spanien i början av 1930-talet, när landet var på väg mot ett inbördeskrig? I detta inlägg tittar jag på tre artiklar av den Madrid-baserade ekonomisk-historikern Jordi Domènech, tre artiklar som alla belyser dessa frågor på olika sätt.



Artikeln "Land Tenure Inequality, Harvests, and Rural Conflict" från 2015 tar sitt avstamp i en konventionell förståelse av vägen till inbördeskriget 1936-39 som rotad i det tidiga 30-talets sociala konflikter. I Spanien organiserade sig småbönderna 1931-32 i den anarko-syndikalistiska (CNT) eller socialistiska (UGT) fackföreningsrörelsen, och den andra republiken genomförde 1932 en jordreform för att stävja småbrukarnas missnöje. Domenech relaterar detta till klassiska frågor om hur bönders missnöje och protester kan rucka på politiska regimer:

"In European history, rural unrest or open peasant rebellion have been linked to revolution and civil war, especially when peasant mobilization revolves around the issue of landownership (Acemoglu and Robinson 2005; Moore 1967; Skocpol 1979: 112). Hegemonic accounts of political transitions have considered democratic and popular threats to landowning elites as the main cause of authoritarian reaction and democratic breakdown in interwar Europe (Gerschenkron 1966)." (s. 254)
Strejkfrekvensen var mycket hög i Spanien i början av 30-talet, och anarkister begick upplopp 1931, 1932 och 1933, och "episodes of land seizures in 1933 and 1936; and tragic clashes between rebels and the police". Domenech citerar Malefakis (1970) klassiska verk om 1930-talets Spanien: det pågick enligt Malefakis redan under andra republiken ett “latent and spontaneous Civil War in the countryside”. (cit. 254) Dessa narrativ om 1930-talets rurala konflikter har, säger Domenech, fokuserat på de särskilt ojämlika landsdelarna i södra Spanien.

Han reser dock invändningar mot förklaringar som ser ökad exploatering och ojämlikhet som utlösande faktorer bakom den exceptionella konfliktfrekvensen ca 1931-36: den ekonomiska ojämlikheten föll faktiskt under perioden, de dåliga veteskördarna 1931 och 1933 matchades av goda skördar 1932 och 1934, olivodlande områden hade liknande konfliktintensitet som veteodlande områden utan att ha lika stora fluktuationer i ekonomin, säsongsarbetslöshet var inget nytt på 1930-talet, och lantarbetarnas reallöner "held up pretty well in the 1930s" (cit. 255). [1]

 

 
Spaniens 17 comunidad autónoma, av vilka Andalusien är en


Artikelns syfte är att utvärdera (utmana?) det etablerade narrativet om 30-talets agrara konflikter i Spanien. Domenech gör detta genom en studie av Andalusien, med fokus på provinserna Còrdoba, Jaén och Sevilla. Det finns ingen nationell databas över de agrara konflikterna, och han menar att tidigare mikrostudier lidit av selection bias: historiker har valt att studera vissa platser t ex just för att de hade så hög konfliktintensitet. Den regionala studien ger däremot, menar han, "enough variation in the dependent conflict variables and independent explanatory variables to identify the main causal effects." (s. 255) Andalusien överlag hade en hög konfliktnivå, men det fanns variation där inom. (259-260)

Den huvudsakliga slutsatsen är att det inte var ojämlikhet eller fattigdom i sig som drev konflikterna: "The main conclusion of the paper is that the pattern of conflict analyzed here is consistent with “polity process” explanations and not with “grievance-based” explanations: in 1930s Spain, peasant conflict was obviously affected by inequality and poverty, but did not closely correlate with these variables." (s. 255) [2] Som Domenech säger i sin litteraturöversikt, väldigt rimligt: "Inequality, unemployment and underemployment, crises, and exploitation are the norm, not the exception, in most developing countries and in historical societies, yet conflict only erupts in very special historical circumstances." (s. 258)

I sin översikt av den tidigare spanska litteraturen så betonar han att en del historiker har hävdat att lantarbetarnas ökade politiska aktivism inte kan förklaras av ökad nöd, utan av en politisk process: "The story is not one of exploitation and resistance, but of empowerment, changing expectations, and large changes in the social organization of labor and land markets, especially in towns controlled by the Spanish Socialist Party and the UGT (Collier 1987: 15)." (s. 258) En annan viktig diskussion är den om hur stora skillnaderna var mellan de anarkosyndikalistiska och de socialistiska arbetarrörelserna. Domenech fokuserar i sin analys inte på dessa skillnader, utan snarare på deras grundläggande likheter. (s. 259)

En fördel med att studera Andalusien, känd för sin stora ojämlikhet och höga konfliktintensitet på 1930-talet, är att det där finns data på jordägandets fördelning. "Because the government started the
cadastre in provinces with large estates, quantitative evidence on landownership distribution in 1930s Spain only exists for some provinces, including the provinces studied here (Carrión 1975: 77; Pro Ruiz 1992: 308–16)." (s. 260) De tre provinserna har en del drag gemensamt: de fokuserade på att producera vete och oliver, deras arbetare hade problem med säsongsarbetslöshet, och stora gods dominerade. Dessa egenskaper kan man alltså hålla konstant i den empiriska analysen, medan andra variabler varierar. Det finns inga officiella strejkdata och D använder därför tidningar (som Malefakis 1970) och den historiska litteraturen. (260-261) Här för han också en intressant diskussion om ifall man ska använda antalet strejker som mått, eller antalet deltagare som andel av totala arbetskraften i området (som t ex Korpi och Shalev 1980). Domenech menar att deltagandefrekvensen är problematisk eftersom den är svårmätt, och eftersom den är endogen till strejkens framgång; han använder därför antalet incidenter som intensitetsindikator. (s. 261) Han samlar in data om två typer av incidenter: lantarbetarstrejker ("local strikes of peasants or farmers organized by peasant unions"), och hot mot jordägares äganderätter, i form av jordinvasioner eller "trespassing". (s. 262) Databasens struktur är 252 kommuner i 39 månader från april 1931 till juni 1934, så totalt 9828 observationer.

Forskningsdesignen är probit-modeller med en panelstruktur, där utfallsvariabeln är ifall det sker en konflikt eller ej i kommun i i månad t. Han kontrollerar för skördens utfall, för kommunens specialisering på olika grödor, för de helt jordlösa arbetarnas andel av jordproletariatet. Ojämlikheten i jordägandet, eller som D kallar det "insecure property rights", mäts med andelen av jorden i kommunen som upptas av gods med mer än 250 hektar. För att kontrollera för brist på jord så inkluderar han befolkningstäthet år 1930 och befolkningstillväxten 1920-1930. Dessa ska inte tolkas som indikatorer på en malthusiansk kamp för överlevnad, säger han, utan som konkurrens om avkastningen från jorden. (s. 266) Han kontrollerar för tillgång till information och marknader med variabler för avståndet från kommunen och provinshuvudstaden, kommunens höjd över havet, en dummyvariabel för om kommunen hade en tågstation, och en dummy för om kommunen var centralorten i det juridiska distriktet. Han kontrollerar också för kommunens politiska historia med en dummy för om kommunen hade ett lantarbetarfack år 1916. För att kontrollera för säsongsberoende skillnader i arbetarnas förhandlingsstyrka använder han 11 månadsdummies, från februari-december. [3] I en alternativ uppsättning regressioner testar han effekten av Socialistiska borgmästare, med två konkurrerande hypoteser. Den ena är att socialistiskt styre lokalt ledde till sociala reformer som provicerade jordägarna och ökade konfliktnivåerna. Den andra är att de socialistiska borgmästarna blev utsatta för repression efter valförlusten i landet november 1933. Det finns inte valdata från alla kommunerna från kommunvalet i april 1933 så här blir samplet 109 kommuner. (s. 267) Eftersom socialisternas styrka i valet är en endogen faktor i förhållande till en massa andra faktorer som påverkar konfliktintensiteten, provar Domenech också att begränsa samplet till kommuner där socialisterna "knappt" vann eller förlorade valet. Det finns får val där de hade just över eller under 50 procent av rösterna, så han breddar definitionen av "closely contested election" till kommuner där socialisterna antingen hade 30-49 eller 50-70 procent av rösterna.

Resultaten visar att dåliga skördar inte var någon central drivkraft bakom konflikter; den positiva effekten av en bra skörd på land invasions var mycket större än den positiva effekten av en dålig skörd på strejker. (s. 274) Inte heller strejkernas säsongsmönster stödjer en "grievance-based" konfliktteori: arbetarna strejkade mest under skördemånaderna, särskilt juni och november, inte under månaderna med stor säsongsbaserad arbetslöshet. Jordojämlikheten hade inga signifikanta effekter. Kommuner med mer befolkning, med en tågstation, och med en fackförening närvarande 1916, hade fler konflikter. (s. 276-277) [4] Det verkar som att den stora befolkningen i sig spelade roll, att det fanns en särskild politisk dynamik i mer befolkade kommuner.

I slutsatserna betonar Domenech att ojämlikheten och exploateringen var brutal i 1930-talets Andalusien, men att variationer i ojämlikhet inte kan förklara konfliktintensitetens variationer i tid och rum -- för detta var politiska variabler viktigare. (s. 280-281) På större orter med större tradition av politisk aktivism, protesterade lantarbetarna mer, och de protesterade också mer i skördetider när arbetsgivarnas beroende av sina arbetare var större, och arbetarna därför fick en större påverkansmöjlighet. Domenech betonar också det svårförklarade i såna här stora, ickelinjära processer av konflikter, och att mycket återstår att göra för en systematisk förklaring av 30-talets agrara konfliktmönster i Spanien: "To a great extent, the results from this paper suggest a large part of the historical variation in rural conflict in the South of Spain is still unexplained, as it is generally the case in very intense, nonlinear processes of mobilization and organization of collective action. " (s. 281) Det allra sista han säger i artikeln är att perspektivet att det inte var fattigdom, dåliga skördar eller ojämlikhet i sig som drev konflikterna, öppnar för ett perspektiv som "puts Andalusian landless laborers at the forefront of some of the crucial democratic battles of interwar Europe." (s. 282)

 

Två år senare, 2017, kom Domenech tillbaka till den agrara frågan i 1930-talets Spanien, denna gång tillsammans med den Madrid-baserade statsvetaren Francisco Herreros, i en artikel publicerad i Explorations in Economic History. Här är forskningsfrågan som de utgår ifrån ifall omfördelande reformer -- såsom jordreform i en agrar kontext -- kan minska graden av social konflikt, såsom Acemoglu och Robinson (2005) och andra har teoretiserat. Den motsatta hypotesen är att drastisk omfördelning tvärtom ökar konflikten, genom att uppmuntra de fattiga till vidare protester och revolter, och genom att dela upp befolkningen i vinnare och förlorare på reformerna. Tidigare forskning har visat på just konflikt-ökande effekter av reformer i 1800-talets Ryssland (Finkel, Gelbach och Olsen 2015, CPS) och i det tidiga 1900-talets Sydamerika (Alston, Libecap och Mueller 1999 om Brasilien; Albertus och Kaplan 2013 om Colombia).

Bidraget med Domenech och Herreros artikel, säger de, är på det empiriska planet att lägga till en studie av det kanoniska fallet av Spanien till litteraturen om jordreformernas politiska konsekvenser, baserat på ett nytt dataset om två latifundia-dominerade provinser. På det analytiska planet undersöker de mekanismerna genom vilka ofärdiga jordreformer ökar konflikter, skiljer mekanismen jordägarnas organisering från mekanismen lantarbetarnas mobilisering, och utvärderar empiriskt effekten av genomförda jordreformer på småböndernas kollektiva agerande.

1930-talets spanska jordreform följde en fredlig övergång från diktatur till demokrati i april 1931, och att valen i april 1931 "resulted in the weakening of landed elites and the emergence of a dominant coalition favorable to pro-poor policies and large-scale land ownership re-distribution towards tenants and laborers." (s. 83) Det skrevs en ny, demokratisk konstitution som antogs i december 1931, och i denna förklarade artikel 44 att  “national wealth (…) is subordinated to the interests of the national economy (…) Property can be socialized.” Jordreformslagen genomfördes i september 1932, men de flesta faktiska omfördelningarna av jord skedde inte förrän under inbördeskrigets första månader, 1936. Lagen begränsades till 14 provinser i centrala och södra Spanien: Andalusien, Extramadura,  Ciudad Real, Toledo, Albacete och Salamanca. Domenech och Herrero kommenterar dock att lagen utlovade generös ersättning till alla som fick jord konfiskerad och omfördelad; denna betalning "increased gigantically the cost of reform, and most probably also slowed down the pace of reform." Det enda undantaget var jord som tillhörde gamla adelsfamiljer (Grandes de Espana) i vilket fall lagen medgav omfördelning utan kompensation. Detta var dock något av ett slag i luften, eftersom adelsfamiljerna i hög grad redan hade sålt sin jord och diversifierat sina portföljer. Lagens olika svagheter gjorde att jordreformerna gick mycket långsamt framåt: vid slutet av 1934 hade bara 8600 familjer fått jord genom omfördelning. (s. 84) Däremot så användes i den västliga provinsen Extramadura också en tillfällig åtgärd genom vilken 32 570 familjer fick tillgång till 98 355 hektar jord, med uppdraget att intensifiera uppodlingne; detta gav däremot alltså inte permanent äganderätt till jorden. I februari 1936 vann dock en vänsterkoalition valet, och satte sig för att öka takten vad gäller jordreformer: i mars och april approprierades mer än 400 000 hektar, och fler än 94 000 familjer flyttade till denna jord. Från april till juli omfördelades ytterligare 572 000 hektar till 111 000 familjer.


Domenech och Herrero kommenterar att det saknas bra data på jordreformens utveckling i landet som helhet, och de jobbar därför med ett dataset som omfattar två provinser, Córdoba och Jaén, som båda ligger i regionen Andalusien, inte direkt vid kusten men långt söderut i landet. Deras data är på månadsnivå, med 39 månader från april 1931 till och med juni 1934, och en andra period med fyra månader från mars till och med juli 1936. De två utfallsvariablerna är samma som i artikeln från 2015: jordockupationer och andra direkta attacker på privat egendom, och bonde/lantarbetarstrejker. Dessa kan mätas som en binär variabel -- kommunen har en strejk under månaden, eller inte -- eller som en kontinuerlig skala med antal dagar i strejk, eller med ett slags genomslagsfokus där antal omnämnande i tidningarna blir en proxy för strejkernas effekter. De illustrerar dessa utfallsvariabler med tre kartor, varav jag reproducerat en ovan.

Diskussionen av de förklarande variablerna börjar med artikelns huvudhypotes, att "incomplete land reform triggered higher levels of conflict". Här studerar de både reformperioden från april 1933 till juni 1934, när en del omfördelning skedde, och perioden mars-juli 1936, en mer intensiv reformperiod under Folkfrontregeringens tid. De olika förutsättningarna för att reform över huvud taget skulle hända samlar de under rubriken ojämlikhet, och där handlar det om andelen jord i kommunen som möjligtvis skulle kunna omfördelas under reformlagen, och om andelen jordlösa peasants (jag skulle kalla dem lantarbetare) i befolkningen i kommunen. I en uppsättning regressioner skiljer de på två olika treatment effects: förväntad jordreformintensitet i kommunen, och faktisk reformintensitet. (s. 86-87) De kontrollerar för befolkningsstorlek i kommunen, jordkvalitet, och geografiska faktorer som altitud, longitud och latitud.

Resultaten, säger de, indikerar att långsam och t o m misslyckad jordreform ökade konfliktintensiteten -- ökade lantarbetarna och småböndernas tendens att strejka -- medan mer konsekvent genomförd faktiskt minskade konfliktintensiteten. Det senare i linje med Acemoglu och Robinsons teori, antar jag, men det är min läsning, inte vad som står i slutsatserna. (s. 101-102)

 

Den sista Jordi Domènech-artikeln om 1930-talets Spanien som jag ska kolla på här publicerades så sent som förra året, i Explorations in Economic History, och skrevs tillsammans med statsvetaren Ilona Lahdelma, verksam vid Carlos III-universitetet i Madrid, och nationalekonomen Pablo Martinelli Lasheras, också han verksam vid Carlos III. Det är en uppföljare till artikeln från 2017 på så sätt att det också här handlar om sociala och politiska effekter av jordreformerna, men här är inte utfallsvariablerna centrerade på sociala konflikter, utan på stödet för politiska partier. De börjar med en stor fråga: "Can agrarian societies with concentrated landownership have free voting?" Forskning av Alexander Gerschenkron (1966), Daniel Ziblatt (2008), Adrian Montalbo (2023) och andra har uttryckt skepsis om detta, eftersom att starka jordägande eliter har ett så starkt ekonomiskt och socialt övertag mot sina jordlösa grannar, och därför också kan utöva politiska påtryckningar på dem. Valhemlighet är en central reform för att minska lantarbetarnas utsatthet gentemot jordägarna, men också med valhemlighet kan valen manipuleras.


Domenech, Lahdelma och Martinelli studerar detta fenomen i kontexten Spanien på 1930-talet, de tre valen 1931, 1933 och 1936, alla hållna mellan demokratins införande 1931 och inbördeskrigets början 1936. De studerar regionen Extramadura, i sydvästra Spanien på gränsen till Portugal, och jobbar utifrån hypotesen att genomförda jordreformer kommer stärka vänstern i valen, och att delar av högersvängen i valet 1933 därför kan förklaras av att reformerna gick så långsamt. De finner stöd för hypotesen, och särskilt när reformerna var av den permanenta typen. De skattade effekterna är stora: de implicerar att om reformen hade genomförts konsekvent, så hade socialistpartierna fått 70 procent av rösterna i valet 1933.

De stora jordägarna stöttade högern och använde sin makt som arbetsgivare och kreditgivare till att pressa småfolket att rösta på högern, något som påverkade valutfallet 1933. (s. 18) När vänstern lyckades med att genomdriva omfördelning så kunde de dock motverka denna konservativa grundton i de ojämlika områdena, och Domenech, Lahdelma och Martinelli konstaterar också att effekterna kvarstått över tid, i flera decennier. Man kan tänka sig att en permanent omfördelning som omvandlade lantarbetarna till bönder hade gjort dem till centrister politiskt, egendomsägare som de skulle bli, men i det här fallet med Extramadura verkar det framför allt ha gynnat mainstream-Socialistpartiet. De säger i slutsatserna att "The findings in this paper highlight the significant challenges of establishing democracy in agrarian contexts characterized by high inequality and widespread poverty. /.../ the limited state capacity in 1930s Spain hindered the rapid implementation of policies that could have stabilized the nascent agrarian democracy. This limitation ultimately contributed to the outbreak of a traumatic civil war, followed by a 40-year long dictatorship." (s. 19) Det får man säga är historisk forskning av stor samhällelig relevans!



referenser

Jordi Domenech (2015) "Land Tenure Inequality, Harvests, and Rural Conflict: Evidence from Southern Spain during the Second Republic (1931–1934)", Social Science History 39, Summer 2015, pp. 253–286

Jordi Domenech och Francisco Herreros (2017) "Land reform and peasant revolution. Evidence from 1930s Spain", Explorations in Economic History 64 (2017) 82–103

Jordi Domènech, Ilona Lahdelma och Pablo Martinelli (2024) "Land reform and agrarian socialism in interwar Europe: Evidence from 1930s Spain before civil war", Explorations in Economic History 94 (2024) 101618.

 

fotnoter

[1] Domenechs referens om ojämlikheten är Prados de la Escosura. Hans referens om lantarbetarlönerna är hans egen artikel från Economic History Review år 2013, “Rural labour markets and rural conflict in Spain before the civil war (1931–1936).”

[2] Han relaterar till den teoretiska sociologiska litteraturen så här: "My explanation stresses the “political opportunities” window (Goodwin 2001; Goodwin and Jasper 2012; McAdam, Tarrow, and Tilly 2001; Tilly 1964, 1986) in which the focus is in the interplay between different interest groups and social movements, the state and local and national political institutions."

[3] Han har en klassisk metoddiskussion om panel/TSCS-formatet med referenser till Beck och Katz (1995, 1998), Beck (2001) och Plümper, Troeger och Manow (2005). Detta handlar om ifall man ska använda en laggad beroende variabel bland de förklarande variablerna, och ifall man ska ha tids- och enhetsdummies. 

[4] Här hänvisar han också till Hobsbawm och Rudés klassiska studie av Captain Swing-upploppen i England på 1830-talet, där de också hittar att mer befolkade byar var mer benägna att delta.

torsdag 26 juni 2025

Nya perspektiv på Mitterrands U-sväng

 
François Mitterrand och Ronald Reagan, 1984. 
Foto från USA:s militär, i public domain, via Wikipedia.


En av de vanliga berättelserna, en berättelse med en tydlig sensmoral, om den ekonomiska politikens utveckling sedan 1970-talet handlar om den franska socialisten François Mitterrand, president från 1981 till 1995. Mitterrand arbetade i början av sitt presidentskap utifrån ett radikalt reformprogram -- de 110 förslagen, framlagda inför valet 1981 -- och ledde under 1981 sitt parti till en stor valseger i parlamentsvalen och en regeringsbildning som var en koalition mellan socialister och kommunister.

Men 1983, så går den konventionella berättelsen, så gjorde Mitterrand en U-sväng, en sväng till ekonomiskt liberal politik, tvingad därtill av de ekonomiska realiteterna. Sensmoralen: 1970-talets socialistiska politik var praktiskt omöjlig och föll så att säga under sin egen tyngd, och samtidigt som Thatcher i Storbritannien i Reagan förde marknadsliberal politik av övertygelse, så tvingades socialister som Mitterrand till att göra det av nödvändighet.

Historikern Mathieu Fulla, verksam vid Sciences Po i Paris, vill i en artikel publicerad i Contemporary European History problematisera denna historieskrivning om Mitterrands ekonomisk-politiska utveckling. Historieskrivningen är ense om att Mitterrand gjorde en U-sväng 1983, säger han, men det finns några olika versioner av historien: vänsterhistoriker och -debattörer kan framställa det som att Mitterrand förrådde vänsterns projekt, medan mer borgerliga debattörer ser Mitterrands keynesianska politik som ett misslyckande som med nödvändighet ledde till en marknadsliberal politik. [1]

Han diskuterar ifall man kan beskriva den franska ekonomiska politiken efter 1983 som "nyliberal". För att föra den diskussionen så måste man förstås börja med den grundläggande frågan: vad är egentligen nyliberal politik? Fulla refererar historiker som helt dömer ut begreppet, som alltför generaliserande och utsmetande: Daniel Rodgers ("The Uses and Abuses of 'Neoliberalism'", 2018), Pierre Rosanvallon (Notre histoire intellectuelle et politique 1968–2018, 2018), med flera. Han menar dock att under 2010-talet så har en mer seriös forskningslitteratur om nyliberalismen tagit form, som inte använder begreppet som ett skällsord utan ett analytiskt begrepp. Fulla använder begreppet för att beskriva hurpass grundläggande den ekonomiska politiken egentligen förändrades på 1980-talet. Han menar att det inte skedde någon grundläggande sväng 1983, men en långsammare, gradvis omvandling av den ekonomiska politiken från 1981 till 1990-talet. Mitterrands team anammade inte nyliberala eller monetaristiska idéer och såg Västtyskland snarare än Storbritannien som en ekonomisk förebild; och det fanns fortfarande stora inslag av ekonomisk planering och fackligt inflytande i den franska ekonomin på 1980-talet. Så här sammanfattar Fulla sin analys:

"Mitterrand’s choice to maintain France within the EMS officialised the resignation of socialist elites (both politicians and experts) to privilege pro-market recipes in the management of macroeconomic and monetary policies. In the last months of Mauroy’s term as prime minister, his economic advisers as well as their counterparts belonging to the Mitterrand and Delors cabinets increasingly claimed that the choice of austerity was the sole available alternative. But this process of naturalisation of economic issues did not begin in 1983, which was still a time of hesitation and contradictions, even in the wake of the decisions made in March. Moreover, the set of economic measures implemented under the Mauroy government appeared far from the recipes for the United Kingdom promoted by Margaret Thatcher. Monetarism failed to penetrate inside the cabinets and administration, whereas most of Thatcher’s economic advisors belonged to this intellectual strain – albeit different types of monetarists cohabited within her cabinet.23 Nor did a ‘think-tank archipelago’ emerge at this time that strove to disseminate neoliberal ideas within French Socialist Party (PS) circles. Similarly, the economic role of the state via the nationalisation of banks and industries was diametrically opposed to Thatcher’s primitive politics and mass privatisations and deregulation. The growing porosity between public and private actors in France developed later in the 1990s. Finally, until Mauroy’s resignation, socialist elites kept effective links, however complicated, with trade unions and the French Communist Party (PCF), while one of the major neoliberal traits of Thatcher’s policies was clearly its unconditional ‘enthusiasm for combating the unions’. As shown below, the model most admired inside cabinets as well as among top civil servants in the finance ministry was not the UK – relentlessly called an anti-model – but West Germany.27 In sum, rather than a U-turn, the tournant de la rigueur should be seen as a progressive curve, which implies it belongs to a broader chronology that began in late 1981 and ended with the appointment of Laurent Fabius as prime minister in July 1984. The notion of a turn to ‘austerity with a human face’ coined by Eric Hobsbawm is probably the most subtle scholarly expression to attempt to grasp the spirit of these changes." (s. 766)
Artikeln bygger delvis på Fullas föregående bok på franska, Les socialistes français et l’économie: une histoire économique du politique (2016), och i grund och botten på studier av arkivdokument från 1980-talets regeringar såväl som intervjuer och andra skrivna källor. Det har uppstått en klyfta mellan den franskspråkiga och den engelskspråkiga forskningslitteraturen, säger han: i den engelskspråkiga forskningen försvaras idén om en "brutal neoliberal U-turn" medan den franskspråkiga forskningen har en revisionistisk strimma.

Efter en lång introduktion börjar artikeln med en sektion om aktörernas egna historieskrivning. Mitterrand argumenterade i juni 1982, före de första åtstramningsåtgärderna lanserades, för att den internationella konjunkturen, det politiska arvet från den föregående konservativa regeringen, och den internationella ekonomiska ojämvikten tvingade fram en politisk nyriktning, med en utbudsorienterad politik för att öka investeringar och moderniseringen av statliga företag. Statsminister Pierre Mauroy stöttade före sin avgång 1984 samma version av historien. Mauroy tillhörde en fackligt orienterad minoritet inom Socialistpartiet, som var inriktade på att göra praktiska framsteg. För Mauroy var avsteget 1983 en kompromiss men inte någon brytning med 1983 års politik, och detta var analysen också hos partisekreteraren Lionel Jospin som använde metaforen la parenthèse för att beskriva vad som hänt. Över åren 1984 till 1986 förändrades den interna historieskrivningen och Jospin och andra gjorde istället en klar distinktion mellan den första periodens ekonomiska politik och den andra periodens politik: ‘We cannot return to the policy of the first period.’ (Jospin, november 1984, cit. 769)

Den politiska högern var mer konsekvent i sin beskrivning av och historieskrivning om Mitterrands politiska U-sväng: Gaullisterna och liberalerna hävdade från första början att det handlade om en nödvändig justering genomförd av en inkompetent regering. Fulla lägger mer plats på att diskutera skildringen i de politiska journalisterna Pierre Favier och Michel Martin-Rollands bok La Décennie Mitterrand från 1990, en bok som, säger han, djupt präglat senare uppfattningar om det franska 1980-talet; i samband med denna bok diskuterar han också skildringar i memoarer och biografier om 1980-talet.

Från detta övergår Fulla till historikernas behandling, som förstås, när det handlar om samtidshistoria, påverkats av aktörernas egna beskrivningar, i debatterna, i memoarerna och i biografierna. Den amerikanske statsvetaren Peter Hall tilldelas en särskild plats här, i att han är en av de första att definitivt utnämna 1983 års politik till en avgörande brytpunkt: ‘few decisions have had such significance’, menade Hall 1990. I den fransksprpåkiga forskningen gjordes motsvarande analys i det tidiga 1990-talet av Bruno Jobert och Bruno Théret som betecknade 1983 års plan de rigueur som en ‘republican consecration of neoliberalism’, en "radikal omsvängning" från keynesianismen. Jobert och Thérets analys har fått stort genomslag i den franska och internationella forskningen och inte minst genom Rawi Abdelals argument (i boken Capital Rules, 2007) att det var franska policymakers, inte US-amerikanska, som skapade den nya globala finansiella ordningen. [2] Oavsett om man sväljer det radikala argumentet eller ej så har i vilket fall en rad forskare på 1990-talet och 2000-talet, som Mark Vail, Elisabetta Gualmini och Vivien Schmidt insisterat på att Mitterrand 1983 verkligen genomförde en U-sväng. U-svängs-analysen har däremot ifrågasatts av forskare som Matthieu Ansaloni och Andy Smith (2018), Philippe Bezes (2009) och ismail Ferhat (2013, 2018).

Historiker spelade i 1990-talets debatt om 1983 en liten roll: debatten dominerades av statsvetare och sociologer. I översiktsverk som Donald Sassoons One Hundred Years of Socialism (1996) och Geoff Eleys Forging Democracy (2002) fick bilden av en U-sväng i alla fall fullt stöd: Sassoon sammanförde Mitterrand 1983 med James Callaghans tal på Labours konferens i Blackpool 1976 som exempel på vänsterns brytning med keynesianismen, medan Eley till och med hävdade -- utan refererenser, säger Fulla -- att ‘after 1982, Mitterrand’s France and Gonzalez’ Spain rivalled Thatcher’s Britain in neo-liberal economics’. (cit. 774) Efter 1999 öppnades arkiven från 1980-talet upp för historiker och nya analyser kom fram av vad som egentligen hände. Det är till denna nyare historiska litteratur som Fullas egen forskning hör, och från beskrivningen av öppningen av arkiven 1999 går han över till sin egen syntetiska analys av 1980-talets ekonomiska politik.

Fulla börjar med att diskutera den faktiska ekonomiska utvecklingen i det tidiga 1980-talet: hur var det med BNP-tillväxten, med budgetunderskotten, med handelsbalansen, och så vidare. Mitterrand hade vunnit valet med mottot "sysselsättningen först", men lyckades han få fart på sysseslättningen? Fulla menar att Mitterrand 1981 förde en försiktig ekonomisk politik men att det redan hösten 1981 skedde en viss omsvängning från en mer hårdför stimulanspolitik. Han diskuterar regeringens mål om "modernisering" som man argumenterade för samtidigt som man betonade att det inte fanns utrymme för någon stor fiskal expansion. De finansiella avregleringarna kom senare, säger han, men avsteg från någon expansiv keynesianism kom redan 1981. För politiken 1983 för han en intressant diskussion om den ekonomiska politikens karaktär i ett europeiskt perspektiv:

"By opting to deepen austerity in March, the government would have deliberately sacrificed the fight against unemployment. From a short-term perspective, this assertion is correct, but it would be hasty to conclude that this socialist choice was the equivalent of implementing a neoliberal cure to deal with mass unemployment. Although not as great as that of West Germany and the United Kingdom, the French unemployment rate, which had begun rising in the second half of the 1970s, had exacerbated the social security deficit. Faced with this complex issue, the Mauroy and Fabius governments, as well as the Chirac government, decided to increase rather than decrease social benefits in order to ease ‘the harshest social consequences of industrial restructuring and the resulting layoffs’ and prevent victims of the crisis, most of them residents of the deindustrialising East and North of France, from descending into poverty. This ‘welfare without work’ strategy was partly the result of pressure from trade unions, which continued to influence social policy-making." (s. 777-778)

Och:

"Most European socialist elites were reluctant to embrace the austerity turn – with the notable exception of Helmut Schmidt’s social democratic government in West Germany. [3] The early 1980s were a moment of hesitation – and at times resistance – particularly within supra-national organisations such as the Socialist International (SI) and the Confederation of the Socialist Parties of the European Community (CSPEC). Meetings between socialist heads of state held by the PS in 1983 clearly illustrated this atmosphere of mistrust. In January, Felipe Gonzalez, Bruno Kreisky, Pierre Mauroy, Olof Palme, Andreas Papandreou, Kalevi Sorza and Habib Thiam – the respective prime ministers of Spain, Austria, France, Sweden, Greece, Finland and Senegal – insisted on a global relaunch plan to reshape the international monetary order, developing impoverished countries and stabilising raw material costs. Nine months later, the mood around the table had changed dramatically. A few days before the opening of the European Council in Athens, Pierre Mauroy launched the debate by stating, ‘In all my years of activism, no one ever taught me what an austerity policy is.’ Mauroy urged his peers to integrate their leftist principles with austerity measures, which he considered unavoidable. ..." (s. 778-779)

Mauroyregeringen använde i allt detta Thatcherregeringen som ett motexempel, på vad man inte ville göra; såväl poliitikerna som byråkraterna som utformade le tournant var anti-Thatcherismen, säger Fulla. Historiker som Laurent Warlouzet betonar just detta: de franska socialistregeringarna ville inte föra en marknadsliberal politik, utan snarare en politik lik den västtyska som skulle förena globala marknader med bevaraned av existerande institutioner. Den åsyftade konvergensen med BRD var också motiverad av geopolitik: den europeiska integrationen. Den franska politiken, djupt influerad av den tyska, fick också inflytande i Europa:

"Pierre Bérégovoy, the newly appointed finance minister in the Fabius government, developed the politique du franc fort, inspired by the Bundesbank’s monetary policy, which prioritised a balanced budget and decreased inflation over full employment. By late 1982, the Austrian socialist government, under Bruno Kreisky and later, Fred Sinowatz, ‘incrementally adopted an economic policy combining state budget austerity with specific policies for supporting rates of high unemployment’ in the name of the European imperative. The Soares and Gonzalez administrations in Portugal and Spain endorsed similar policies to avert economic crisis, defined by the rampant protectionism championed by Salazarism and Francoism. By 1985, the Palme administration in Sweden [4] had introduced similar austerity budgets that transformed employment ‘from a social citizenship entitlement to a market variable’." (s. 780-781)
Detta var inte någon rent nyliberal politik, säger Fulla, utan en kombination av åtstramningspolitik och allt större marknadsinslag (=liberala inslag) med socialdemokratiska inslag: socialpolitik, välfärdspolitik. "For all the above reasons, this article calls for the deconstruction and desacralisation of the 1983 tournant de la rigueur." (s. 781) Den franska politiken på 1980-talet liknar kanske snarare vad Cornel Ban (Ruling Ideas, 2016) i kontexten av den spanska socialistregeringen ledd av Felipe Gonzalez 1982-1996 kallat "embedded neoliberalism".


referenser

Mathieu Fulla (2024) "The Neoliberal Turn that Never Was: Breaking with the Standard Narrative of Mitterrand’s tournant de la rigueur", Contemporary European History 33: 763-784.

https://www.phenomenalworld.org/analysis/mitterrands-austerity-turn/

fotnoter

[1] Som exempel på vänsterperspektivet refererar Fulla Konrad Jarausch, Out of Ashes: A New History of Europe in the Twentieth Century (Princeton UPs, 2016), och som exempel på det borgerliga perspektivet Ian Kershaw, The Global Age: Europe 1950–2017 (Viking, 2018).

 [2] Fulla refererar att Abdelals argument har fått en del genomslag i den franska politiska debatten, men han verkar skeptisk till analysen, som han menar baserades på engelskspråkiga källor och på intervjuer, intervjuer som ledde honom till "the dramatised account conveyed by Jacques Delors and Michel Rocard." (s. 772)

[3] Referenserna om Schmidtregeringen är: Julian Germann, ‘German “Grand Strategy” and the Rise of Neoliberalism’, International Studies Quarterly, 58 (2014), och Tim Schanetzky, Wirtschaftspolitik, Expertise und Gesellschaft in der Bundesrepublik 1966 bis 1982 (Berlin: Akademie Verlag, 2007). Germann betonar det liberala i Schmidts politik, Schanetzky tvärtom kontinuiteten med 1960-talet.

[4] Referenserna för det svenska fallet är Magnus Ryner i Comparative European Politics 2004, och Jenny Andersson och Kjell Östberg i en antologi redigerad av Fulla och Marc Lazar, European Socialists and the State in the Twentieth and Twenty-First Centuries (Palgrave Macmillan, 2020).

Nyliberalismen i idéhistoria och i ekonomisk historia


"Nyliberalism" är ett brett och svårt begrepp, som kan betyda lite olika saker beroende på. Så jag blir nyfiken på rubriken på Cornell-historikern Nicholas Mulders trippelrecension: "The Neoliberal Transition in Intellectual and Economic History". Den nyliberala övergången i idéhistorisk och ekonomisk-historisk forskning -- lovande. Mulder recenserar alltså tre böcker: Julian Germanns Unwitting Architect: German Primacy and the Origins of Neoliberalism (2019), Amy C. Offners Sorting Out the Mixed Economy: The Rise and Fall of Welfare and Developmental States in the Americas (2019), och Isabella Webers How China Escaped Shock Therapy: The Market Reform Debate (2021). I sin introduktion säger Mulder just att begreppet är mångfasetterat:

"The term “neoliberalism” has been understood in a variety of ways: as a package of policy prescriptions; a design philosophy for state-market relations; the spirit of leading institutions of global economic governance; a form of politics focused on private property owner ship and consumption as civic participation; a form of political and social subjectivity; and a distinct epoch in the history of modern capitalism beginning in the late 1970s and early 1980s." (s. 559-560)

Mulder börjar egentligen karakteriseringen på ett historiserande sätt, genom att säga att alla analyser av vad nyliberalismen är, också bygger på antaganden eller analyser av vad som föregick nyliberalismen:

"Before we can ask how neoliberalism arrived, we must ask what it displaced. Each understanding of neo-liberalism implies its own characterization of the essence of the preceding period." (s. 560)  

Han ger en mycket elegant och effektiv översikt över olika periodiseringar som folk använt för perioden "före nyliberalismen". En del, säger han med referens till Nancy Fraser (2013) och Jonathan Levy (2021), talar om en period av state-managed capitalism eller "age of control" som går tillbaka på 1930-talets stora Depression; andra talar om en period av kollektivistisk planering sedan första världskriget (Foucault 1979); andra om ett system av "inbäddad liberalism" sedan Bretton Woods-konferensen 1944 (Ruggie 1982) eller en fordistisk ackumulationsregim sedan 1920-talet (Aglietta 1979, Link 2020), eller "keynesianism" (Hay 2001). Det är en stor bredd i konceptualisering, men i vilket fall så är forskarna ense om att den nyliberala fortsättningen formades mellan det sena 1960-talet och det tidiga 1990-talet. [1]

De tre böcker som Mulder recenserar -- Germanns, Offners och Webers -- börjar, äger han, kanske en ny fas i forskningen om nyliberalismen. Var och en av de tre böckerna ger ett svar på när nyliberalismen egentligen började, och var och en tar ett globalt perspektiv och undersöker hur idéer rör sig mellan olika kontexter och blir olika lyckosamma på olika platser. Men, säger han och det här är väldigt intressant, de är inte "bara" idéhistoriska:

"But these books are not intellectual histories interested in genealogy and exposition only. Instead, they are best described as sensitive causal histories of ideas in action. They offer a wide array of methodological approaches: from the history of economic thought to thick histories of economic life and institutions, and from the history of development experts and man agers to the clash of politics and vested interests within policymaking elites." (s. 564)

Från detta går han vidare till att diskutera Germanns bok. Germann är statsvetare vid universitetet i Sussex och disputerade vid York University i Kanada. Hans bok handlar om Tysklands roll i formeringen av den nyliberala globaliseringen. Helmut Schmidts regering (1974-82) ville upprätthålla efterkrigstidens klasskompromiss, men gjorde det genom en politik för stabila priser, en politik som spred låginflationstrycket genom den rika världen. Gentemot den idéhistoriska forskningen som betonar gamla nyliberalers -- Friedman, Hayek m fl -- inflytande, och i det tyska fallet de s.k. ordoliberalernas inflytande, så menar Germann att ordoliberalerna faktiskt inte hade särskilt mycket inflytande i de centrala institutionerna: Bundesbank, finansdepartementet, och dess Foreign Economic Advisory Council. Så här refererar Mulder Germanns analys av den ekonomiska politik som fördes:

"Their growth strategy, Germann points out, drew on older notions of national purpose as a globally oriented “trading state” (Handelsstaat), which encouraged wage restraint by unions that exercised powers of codetermination in highly concentrated industries enjoying strong state support, superintended by an  independent central bank, with all parties striving for export surpluses. Whatever this model was—some have described it as “monetary mercantilism”—it was not the parsimonious ordoliberal design of a strictly rule-bound state without discretionary interventionist powers acting as a referee in a perfectly competitive space of monadic firms." (s. 566)

Germann avfärdar förklaringsmodeller som är centrerade på stater, idéer eller klass, och förespråkar istället en modell som utgår från Trotskijs idé om ojämn och förenad utveckling (!). En central idé i denna tradition är att politik i nationalstater förs inte bara utifrån inhemska förhållanden utan också utifrån de internationella relationerna. De politiska eliterna -- Germann använder begreppet "state managers" -- medierar press från olika inhemska intressegrupper såväl som idéer och den internationella politiken. Korsningen av utrikespolitik och inrikespolitik spelar roll till exempel i Germanns analys av hur västtyskarna hanterade USA:s övergivande av den fasta växelkursregimen 1971. Så här sammanfattar Mulder de tyska policymakers reaktion:

"With intergovernmental monetary certainties out the window, the Federal Republic’s elites had to devise a new formula to manage discordant domestic actors and preserve their national economic position vis-à-vis other advanced economies, especially the G7 states (United States, Japan, the United Kingdom,
France, Italy, and Canada). In Germann’s view, “The reason they singled out price stability was that it offered export opportunities that could help secure social peace.” Running enormous export surpluses, at the cost of depressing wages, would provide the material buffer needed to smooth domestic class tensions." (s. 567)

Den tyska regeringen släppte deutschmarkens kurs fri 1973 och fokuserade på handelsöverskottet. När internationella policymakers förespråkade keynesiansk stimulanspolitik, så opponerade tyskarna sig. Deras politik var inte Thatchersk eller Reagansk, men stram. Deras konsekventa linje spelade roll t ex när US-dollarn föll i värde 1978-79 och Feds nya chef Paul Volcker 1979 skulle agera på sitt mandat att stärka dollarn. Volcker bad Schmidt att låta Bundesbank stödköpa dollars; Schmidt sa nej eftersom det skulle kunna sätta fart på inflationen i Tyskland; och  Fed valde istället Volcker-chock-modellen med en räntechock som fick enorma konsekvenser inom och utanför USA, med en recessionseffekt inhemskt och en skuldkris i tredje världen. Man kan knappast säga att det var tysk politik som bestämde detta val, men Mulder säger att Germanns tyska perspektiv åtminstone kompletterar den vanliga USA-centriska berättelsen om nyliberalismen i allmänhet och Volcker-chocken i synnerhet. (s. 569) Däremot så saknas en diskussion om vad Japan -- den andra stora exportsuccén på 1970-80-talen, jämte BRD -- egentligen spelade för roll här. Germann tar inte heller riktigt in Tysklands roll inom EG och det kommande EU.

Penn-historikern Amy Offners bok är ännu bredare och tar ett ännu längre perspektiv, på västvärlden sedan 1945, genom att studera USA och Colombia parallellt. [2] Hennes fokus är på hur policy-experter rör sig mellan det rika USA och det fattiga Colombia, i stora projekt finansierade med statliga eller privata pengar. Chicago-skolans nationalekonomi spelar en roll, liksom managementgurun Peter Drucker, men idéerna är djupt inbäddade i de praktiska programmen och projekten. Så här sammanfattar Mulder den tredje och sista empiriska delen i Offners rika bok:

"She illuminates the fact that Lyndon Johnson’s Great Society, especially its flagship initiative, the War on Poverty, contained a significant business wing that outsourced social policy initiatives to entrepreneurs and investors. The practice of using private capital to sustain public institutions was nothing new, as the US state had been built in the nineteenth century through for-profit contracting. But such an approach had rarely been employed to expand the US welfare state and craft major poverty reduction programs. Firms quickly used the  Great Society institutions to win public contracts for job training programs, light industrial manufacturing, and education testing. David Lilienthal, as head of the Development and Resources Corporation—an engineering firm that fulfilled development assistance contracts from Antarctica to the Mekong Delta— championed this pursuit of public policy through private profit, coining the term “social entrepreneurship” to legitimize its spirit.
Although she makes it clear that her book is not a history of neoliberalism in a straightforward sense, Offner nonetheless contributes substantially to understanding how the path for its ascent was cleared, by a different cast than the usual suspects studied by its historians. While recognizing that programmatic neoliberal ideas did important ideological work, her study sees them as a symptom, not a cause, of the transition to the neoliberal order. Offner cautions against “looking for the influence of the Chicago School, the Mont Pelerin Society, or any particular band of intellectuals to explain the unraveling of the midcentury state.” The latter process, she suggests, was the outcome of a slow, inadvertent process
driven by people in a variety of domains, from fiscal administrators and self-help housing advocates to for-profit education companies and international businessmen.
However we choose to characterize it, it is clear that the order that preceded neoliberalism contained tensions and contradictions. But Offner’s focus on inter-American models and influences drives home just how ambiguous its politics were. ..." (s. 572-573)
Offners jämförelse mellan globala Syd och Nord visar såklart också den enorma skillnaden mellan hur 1950- och 1960-talens politiska ekonomi -- den givna jämförelsepunkten för "nyliberalismen", oavsett vad vi lägger mer precist i det begreppet -- såg ut i ett land som Colombia jämfört med ett land som USA. En sådan jämförande insikt är också, säger Mulder, ett bra vaccin mot en överdriven nostalgi för efterkrigstidens ordning -- "The embedded liberal order had a limited geographical range even in its heyday." (s. 574)

Från denna insikt går Mulder över till trippelrecensionens tredje bok, Isabella M Webers bok om Kinas utveckling sedan 1980-talet. Till skillnad från Colombia är Kina så klart ett land vars uppgång präglat hela epoken sedan 1980, och Webers bok handlar mycket om att förklara hur detta gått till. [3] Weber menar att Kinas ekonomiskt lyckade, unika policymix inte springer ur kinesisk kultur eller en djupare historia, utan var en fråga om en intensiv debatt på 1980-talet. På den ena sidan av debatten fanns en grupp "package reformers" som ville ha ett snabbt och omfattande reformprogram, inspirerat av utländska ekonomer som Milton Friedman, James Buchanan och János Kornai; på den andra sidan fanns en blandad grupp byråkrater som ville ha en pragmatisk, gradvis approach där centrala varor som livsmedel och råvaror skulle ha priser satta av staten medan konsumentvaror skulle prissättas av marknaden. Det var inte någon enkel dikotomi mellan marknadsivrare och statssocialister, men mer komplicerat än så; det verkar utifrån detta att dra några policyslutsatser för andra länder från den kinesiska modellen. Den mer pragmatiska sidan definieras snarare så här: "Full market liberalization merely inverted the Mao-era full planning model, but never broke with its deeper intellectual assumption: that the economy as such was a rationally perfectible whole. The originality of the dual-track approach lay precisely in its rejection of this abstract theoretical mindset." (s. 576) 

Mulder visar att Weber också relaterar den nyanserade prispolitiken i Kina från 1980-talet till liknande traditioner längre tillbaka i kinesisk historia. Hon diskuterar också internationella influenser: t ex kinesiska nationalekonomers studieresa till Jugoslavien och Ungern 1986 för att studera dessa länders erfarenheter av liberaliseringar av ekonomin, och diskussioner med tyska och schweiziska ekonomer om vad det egentligen var som Ludwig Erhard hade genomfört för reformer efter 1945 som hade gynnat det västtyska ekonomiska undret. Mulder förklarar inte det, men det verkar som att Webers bok är väldigt fokuserad på priser och prisbildning. Och det är klart att prisbildningen är en väldigt central del av ekonomin, men åtminstone i Mulders diskussion försvinner andra aspekter av ekonomisk reform/införandet av kapitalism i Kina, aspekter som jag tänker mig bör ha varit viktigt: finansmarknaderna och kreditregleringar, arbetsmarknaden och utbildningssystemet, och så vidare. I sin sammanfattning av Webers bok så säger Mulder att boken visar att världens politiska system och ekonomier inte har homogeniserats sedan 1980-talet, som man kan få för sig, utan att det kvarstår stora variationer; "The variety of possible paths, methods, and goals of market reform explains why its global proliferation did not produce an end to history. " (s. 579)

När han övergår till att sammanfatta och jämföra de tre böckerna så pekar han på att alla tre författare, Germann, Offner och Weber, visar på det oförutsägbara och det oväntade i de politisk-ekonomiska processer som sammanfattas under rubriken "nyliberalism":

"All three books reviewed here are excellent chronicles of unintended consequences. Their narratives share a sense of historical irony, exposing how developmental experiences acquired in Latin America paved the way for the dismantling of Johnson’s Great Society; how a social- democratic chancellor pushed the US into the Volcker Shock; and how China’s most liberal economists were dismissed by the CCP leadership because their economic worldview was too reminiscent of the totalizing approach of collectivist planning. At the heart of their analyses, Germann, Offner, and Weber all make a similar point about how the history of neoliberalism relates to the present: the transition from the mid-century interventionist order to the neoliberal order did not take place as the result of a simple struggle between opposed economic theories, between powerful and weak states, or between dominant and subordinate classes. While such contestations played a role, their studies depict the transition as a more inadvertent and step-by-step process." (s. 579)
Mulder jämför de tre recenserade böckernas analys på denna punkt med två andra nyare böcker av historiker: Aled Davies om finansmarknaderna i London sedan 1960-talet, och Kim Phillips-Fein om USA. Liksom Germann, Offner och Weber så visar Davies och Phillips-Fein på komplexiteten i de politiska motsättningarna kring 1970-80-talens liberaliseringar: "Davies argues that there was no coherent neoliberal party behind the dismantling of economic controls in Britain, but rather an anti– social democratic coalition of businesses, banks, middle-class functionaries, pensioners, insurers, and speculators. Phillips-Fein’s account of the New York City fiscal crisis comes to the similar conclusion that “the people who brought austerity to New York City were not free-market zealots or right-wing political leaders.”" (s. 580)

Det var inte så, säger Mulder kanske med en implicit kritik av Road from Mont Pelerin-typen av nyliberalismhistoria, att de relevanta politiska aktörerna på 1960-70-80-talen i Germann, Offner och Webers böcker hade en varsin koherent vision om den nyliberala framtid som de ville uppnå. Olika initiativ för att öka den privata sektorns betydelse och marknadsmekanismernas inflytande i samhället motiverades av mer dagliga orosmoment om den samhälleliga ordningen och om ekonomisk utveckling, konkurrenskraft, fattigdomsbekämpning osv. (s. 580) "The decline of welfarist institutions and the rise of neoliberal policies therefore had much to do with the balance of social forces and the unforeseen outcomes of political disputation. " (s. 581) Om idéerna egentligen inte var så viktiga för "nyliberalismens" genomslag, varför har då historiker fäst så stor vikt vid idéer och teorier?

Mulders förklaring börjar med hur praktikerna själva förstod historisk förändring. Keynes hävdade i ett berömt citat att döda ekonomers idéer i hög grad formar praktikers politiska agerande, och även i den nyliberala eran har viktiga praktiker hävdat idéernas betydelse. Mulder vill dock relativisera detta: "Keynesianism expressed rather than created the political-economic consensus bearing its name. It did not initiate the interventionist economic order in which it nested so comfortably. " (s. 582) Mulder utvecklar inte riktigt förklaringen här men jag tolkar honom som att han menar att historiker lite okritiskt har svalt praktikers självbeskrivning på denna punkt: om praktikerna säger att idéerna var väldigt viktiga för dem, så har historiker tänkt att okej, då får vi studera idéerna. Mulder säger dock definitivt att det inte var idéerna -- åtminstone inte som något slags omfattande visioner om ett helt annat samhälle än det som praktikerna levde i på 1960-70-80-talen -- som drev förändringen. Han avslutar sin essä med ett par rekommendationer för vidare forskning om nyliberalism, rekommendationer som snarare följer lite andra trådar i texten.


 

referens

Nicholas Mulder (2023) "The Neoliberal Transition in Intellectual and Economic History", Journal of the History of Ideas, Volume 84, Number 3, July 2023, pp. 559-583

fotnoter

[1] Han ger också en översikt över hur forskningen utvecklats över tid. I det sena 1980-talet fokuserade forskarna på den ekonomiska liberaliseringen och globala ekonomin. På 1990-talet sysslade en stor forskning med de internationella relationerna inom ekonomin, till exempel med Amsterdamskolans forskning -- Kees van der Pijl (1998), Bastiaan van Apeldoorn (2002) och andra. Under 00-talet, "a growing interest in international institutions and economic globalization prompted historians and historically minded social scientists to focus on neoliberalism as a program based on capital, finance, and institutional design": här refererar han till Duménil och Lévy (2000), Monica Prasad (Politics of Free Markets, 2006), Rawi Abdelal (Capital Rules, 2007), David Harvey (2007), Alasdair Roberts (The Logic of Discipline, 2009), och Judith Stein (Pivotal Decade, 2009). Med den stora finanskrisen 2008-10 började en ny epok av forskning, säger han, och menar att fokus sedan dess varit på idéhistoria: Mirowski och Plehwes Roads from Mont Pèlerin (2009), Bockmans Markets in the Name of Socialism (2011), Angus Burgins The Great Persuasion (2012), Daniel Stedman Jones Masters of the Universe (2012), Mark Blyths Austerity (2013), Nancy Macleans Democracy in Chains (2017), Quinn Slobodians Globalists (2018), och Ola Innsets Reinventing Liberalism (2020).

[2] "Although she does not use the term, Offner’s parallel hemispheric history of welfare and developmental states
provides a good illustration of the potential of what Michael Werner and Bénédicte Zimmermann have described as an histoire croisée approach, in which schematic comparison and simple mechanisms of transfer are replaced by a focus on how actors inhabiting distinct but connected contexts shape their projects based on reflexive knowledge of their own situatedness." (s. 570)

[3] I en fotnot så kommenterar Mulder att: "Another analysis with which Weber’s book shares both a frame and much of its substantive concern about the interaction of state and market is the important study by Yuen Yuen Ang, How China Escaped the Poverty Trap (Ithaca, NY: Cornell University Press, 2016)."

fredag 6 juni 2025

Toppinkomster, ojämlikhet och metod

 

Nationalekonomen Stephen P Jenkins, professor vid LSE, börjar en artikel från 2017 på ett tydligt sätt: forskningen om inkomstojämlikheten och dess utveckling är, säger han, tudelad. Å ena sidan har vi forskning och debatt som bygger på hushållssurveys och rapporterar fördelningen för ojämlikheten i hushållsinkomster för befolkningen som helhet, med mått som Gini-koefficienter och andra mått som just ska fånga hela distributionen. Å andra sidan har vi toppinkomstlitteraturen som uttryckligen handlar om den ekonomiska eliten, om toppinkomsttagarna och deras andel av den totala inkomsten. Denna litteratur bygger på skattedata, inte på hushållssurveys. 

De två litteraturerna skiljer sig alltså åt både i material och i metod, och når också olika slutsatser, säger Jenkins: toppinkomstlitteraturen visar en kraftig ökning i inkomstojämlikheten (egentligen: koncentrationen) de senaste decennierna i USA och Storbritannien, medan den survey-baserade litteraturen visar mycket mindre ökningar. För Storbritannien ökade toppercentilens andel med 29 procent mellan 1996 och 2007, medan Gini-koefficienten ökade med 7 procent; för USA ökade toppercentilens andel samma period 30 procent och Gini-koefficienten bara 2 procent.


Syftet med Jenkins artikel är att triangulera de två metoderna. Han kombinerar skattedata -- för de rika, som är underrapporterade i surveys -- och hushållsdata för alla andra för att ge en sammantagen bild, och för att kunna diskutera skillnader i vad olika mått ger för bild av ojämlikheten. Det finns två skäl till att surveydata inge ger någon bra bild av toppinkomster, säger han. Det första är att höginkomsttagare tenderar att inte svara på surveys, och att de som kodar ibland toppkodar inkomster (dvs sätter alla inkomster över en viss gräns på gränsnivån). Det andra är att ett slumpmässigt sample per se inte kommer ge någon precis bild av den högra svansen på fördelningen, där variationen är väldigt hög. [1]

Det finns tre sätt att korrigera för dessa problem när man ska beräkna ojämlikhet, säger Jenkins. De sammanfattas i diagram 1 som jag klistrat in ovan. Approach A använder bara surveydata men beräknar den rikaste percentilens eller så andel genom att passa en Pareto Typ I-distribution till observationerna från surveyn. Man kan sedan beräkna (a) ojämlikheten i toppgruppen, (b) ojämlikheten i icke-toppgruppen, och (c) ojämlikheten mellan de två grupperna. Cowell och Flachaire (2007) ger en utförlig diskussion av denna approach, medan Ruiz och Woloszko (2015) och Burkhauser et al (2012) använder approachen uttryckligen för att komma över problemet med underrapportering av toppinkomster i surveys, i Burkhauser et als fall US-amerikanska Current Population Survey. Jenkins är dock skeptisk till hur framgångsrik approach A är; han menar att både Atkinston et al (2011) och Burkhauser et al (2012) visar att Pareto typ I-distributionen kommer underskatta toppinkomsttagarnas inkomster.

Av detta skäl finns det anledning att vända sig till skattedata för att få fram faktiska toppinkomster som kan komplettera surveydata. Det gör man i approach B och C. Approach B "replaces the highest incomes in the survey with cell-mean imputations based on the corresponding observations in the tax return data." Denna metod används t ex av Burkhauser et al (2016), som använder World Top Incomes Database (numera WID.world) toppinkomstandelar som benchmark.

Approach C är det angreppssätt som Jenkins följer i artikeln, och den kombinerar estimat från både A och B: "It is thus identical to Approach A except that it uses both survey and tax data rather than only the former; it is this feature that addresses the under-coverage problem." Denna approach utvecklades av Atkinson (2007) som också i en artikel från 2011 applicerade den på USA, varpå Alvaredo (2011) applicerade den både på USA och Argentina, medan  Lakner och Milanovic (2016) använde den på global inkomstfördelning.

Jenkins säger att hans artikel gör fyra bidrag till litteraturen. Ett, substantiellt så är det viktigt att beskriva utvecklingen i den ekonomiska ojämlikheten i Storbritannien sedan 1990-talet på ett korrekt sätt. Två, hans metodologiska jämförelse kan undersöka ifall approach B och C ger samma resultat när man använder dem på samma källor. Tre, han ger nya empiriska belägg i frågan om hur grov under-representationen av toppinkomsttagare är i brittiska surveydata. Fyra, resultaten talar till litteraturen om hur effektivt det är att använda en Pareto-distribution för att skatta toppdelen av inkomstfördelningen. [2] De flesta ojämlikhetsforskare har använt en Pareto typ I och utgått från att det funkar väl, vilket också Atkinson, Piketty och Saez (2011) argumenterat för, men Jenkins jämför systematiskt (med goodness of fit) Pareto typ I med Pareto typ II ("generalized Pareto") och visar att de senare passar bättre i princip alla fall. Jenkins bidrar i den här metodfrågan också med en utforskande diskussion om var gränsen i inkomstfördelningen egentligen går, över vilken det är rimligt att applicera en Pareto-modell; olika toppinkomststudier har t ex använt topp 10 %, topp 5 % eller topp 1 %. Jenkins diskuterar olika föreslagna kriterier för var man ska börja applicera en Paretofördelning (t ex från Coles 2001 och Clauset et al 2009) och argumenterar för att man också måste undersöka var i fördelningen som surveydatat börjar tappa i representation. I Storbritannien på 1990-talet finner han att det händer för toppercentilen, medan det på 2000-talet sker från den 95:e percentilen och uppåt.

Skattedatat som Jenkins använder är Survey of Personal Incomes för varje år från 1995 till 2010 förutom 2008. Detta är samma data som Atkinson (2005) använt tillsammans med tidigare tabuleringar av SPI och några skatteserier för att beräkna toppinkomstandelar tillbaka till 1908. SPI ger information på individnivå. (s. 265-266) För att göra beräkningarna jämförbara med toppinkomstlitteraturen begränsar Jenkins sitt sample till britter som är 15 år gamla eller äldre. Surveydatat han använder är Family Resources Survey för samma år som SPI-datat. Detta är en tvärsnittsurvey med ungefär 20 000 hushåll per år. FRS fokuserar på inkomster efter skatter och socialförsäkringar, men utifrån Burkhauser et al (2016) beräknar Jenkins istället förskatteinkomster på individnivå, för att göra survey-beräkningarna jämförbara med skattedata-beräkningarna.

Den första empiriska sektionen handlar om hur stor underrapporteringen av toppinkomster är i surveydatat. På 1990-talet ger surveydatat en bra bild av inkomsterna upp till ungefär den 95:e percentilen; på 2000-talet missar detta dataset helt den stora ökning av toppinkomsterna som man ser i skattedatat. Täckningen av toppinkomster blir sämre över tid vilket kan innebära att det är olämpligt att använda samma cut-off för att börja korrigera med skattedata hela tiden.


Jenkins går vidare med att diskutera hur man applicerar Pareto-modeller till toppinkomsterna. För en Pareto I-modell visar överlevnadsfunktionen S(x) andelen av befolkningen som har en inkomst som är över x, det vill säga 1- den kumulativa distributionsfunktionen F(x): 

S (x) = 1 - F (x) = (x/x_m)^-α 

där x > x_m > 0 och x_m > 0 är inkomsternas lägre gräns. Parametern α är "the shape parameter (‘tail index’) describing the heaviness of the right tail of the distribution, with smaller values corresponding to greater tail heaviness." (s. 271) För en Pareto II-modell är överlevnadsfunktionen:

S (x) = [1 +  ξ ((x - λ) / σ)]^1/ξ , ξ > 0

där x > λ är en location parameter, σ > 0 är en scale parameter och ξ är the shape parameter, alltså motsvarande alfa i Pareto I-modellen. Om ξ är = 1/alfa, λ = x_m, och σ = x_m/alfa, så är Pareto I och II-modellerna ekvivalenta.

Pareto II-modellen är mer komplex och kanske mer realistisk för att imputera toppinkomster, men förbättringen i goodness of fit kan vara liten och kanske inte motiverar den ökade komplexiteten jämfört med Pareto I, säger Jenkins. (s. 272) Han testar båda två på inkomstdata. Man behöver sätta en gräns (x_m respektive lambda) över vilken man vill beräkna fördelningen; han provar med 95:e och 99:e percentilen. I Pareto I kan man beräkna α på två sätt: först en OLS-regression där den logaritmerade överlevnadsfunktionen regressers på logaritmerad inkomst och en konstant, och idealiskt ska man då få en Zipf plot ("a plot of the log of the survivor function against logarithms of income (for incomes in ascending order and greater than x_m") som har en lutning som är -α. Atkinston (2016) redovisar också andra metoder för att beräkna α; Jenkins finner att Zipf-metoden fungerar bäst, och redovisar därför bara de resultaten i pappret, och de andra i Appendix. [3] För att beräkna Pareto II-mdodellen använder han ML-regressioner utifrån Roodman (2016).

För att utifrån dessa metoder beräkna ifall toppinkomsterna verkligen är Pareto-fördelade, börjar Jenkins med Zipf plots. Detta "eye test" är dock inte tillräckligt (Cirillo 2013) och han använder också mean excess plots som visar medelinkomsten ovanför olika tröskelvärden. "For Pareto distributions, the graph is a positively-sloped straight line above some minimum income; deviations from linearity are evidence of non-Paretianity." (s. 273)  Zengakurvor är dock ännu bättre belägg, en omvandling av en Lorenzkurva L(u) enligt formeln: Z(u) = (u - L(u)) / (u[1-L(u)], 0 < u < 1. "For Pareto distributions, the Zenga curve is positively-sloped and rises as u --> 1, and the higher the curve, the more heavy-tailed the distribution." (s. 274) Sammantaget så säger dessa plots att inkomstskattedatat är Pareto-fördelat, möjligtvis med undantag för år 1995, och att tröskelvärdet över vilket Paretofördelningen träder in, kan variera över tid.

Graferna räcker inte för att räkna ut ifall Pareto I eller Pareto II funkar bäst. För att avgöra detta använder Jenkins två metoder. Den första är "a straightforward likelihood ratio test." Den andra är "comparisons of probability plots, specifically ‘PP’ plots graphing values of p = F(x) predicted from each model against the values of p in the data, with a different plot for each threshold. Plots that lie wholly along the 45° line from the origin indicate perfect goodness of fit." (s. 275) Se diagrammen längst upp i inlägget för den första metoden, där de streckade linjerna betecknar signifikansnivåerna 0.05, 0.01 och 0.001. Med detta sannolikhetskriterium borde vi välja Pareto I över Pareto II bara när tröskelvärdet för Pareto-fördelningen är extremt högt. (s. 276) PP-plottarna visar att både Pareto I och Pareto II gör bra ifrån sig men att Pareto II är bättre när lägre tröskelvärden applicerats.

Eftersom båda goodness of fit-testerna säger att valet mellan Pareto I och Pareto II beror på vilket tröskelvärde man använder, så går Jenkins vidare med att diskutera just denna fråga. Frågan har tidigare utvärderats av Coles (2001) och Clauset et al (2009) som gått igenom Zipfplottar, plottar av parametrar mot tröskelvärden (för Pareto I α mot tröskel t, för Pareto II ξ och σ* = σξ - t mot t), men i Clauset et als fall istället rekommendderat ett mer "objektivt" och ur principer härlett mått på avståndet mellan power law-modellen, Paretomodellen, och ens empiriska data. Clauset et al förespråkar i denna anda Kolmogorov-Smirnov-testet som mäter avståndet mellan två kumulativa fördelningsfunktioner, datats funktion och Pareto-modellens function. Det avstånd som KS-testet ger, och som kallas D, är alltså, säger Jenkins, en sammanfattning i en siffra av den information som grafiskt visats i en PP-plot. Figur 7 visar hur estimaten av shape-parametern (α för Pareto I, ξ för Pareto II) blir med tre olika beräkningsmetoder och med olika tröskelvärden. Jenkins påpekar att de två översta bilderna, för Pareto I, visar att estimaten av α kan svaja rätt rejäkt beroende på vilket tröskelvärde man sätter och vilken beräkningsmetod man använder; för 1996-datat varierar skattad α mellan 2.5 och 2 beroende på om tröskelvärdet sätts till P95 eller P99.5, vilket ger stort utslag i beräknad Gini-koefficient. För Pareto II är de skattade shape-parametrarna mer stabila.

Följande diagram, Figur 8, visar vilka tröskelvärden som är bäst enligt KS-testet. För Pareto I är det runt percentil 99.5, alltså den övre halvan av den översta percentilen; för Pareto II är den runt P99. Slutsatsen som Jenkins drar av dessa olika tester och diagnostiska grafer är att Pareto I-estimat är känsliga för vilket tröskelvärde man väljer. (s. 279)

Till slut så kommer Jenkins till själva ojämlikhetsberäkningarna. Han börjar med en mycket enkel dekomponering där total inkomstojämlikhet är = ojämlikhet inom toppinkomstgruppen + ojämlikhet inom resten + ojämlikhet mellan de två grupperna, vilket definieras som den ojämlikhet som skulle vara om varje person hade medelinkomsten i sin grupp. Ojämlikhetsmått som kan dekomponeras på detta sätt är till exempel mean logarithmic deviation (L), och Theil-indexet (T). Eftersom de två grupperna här inte kan ha överlappande inkomster, så kan också Gini-koefficienten dekomponeras i detta sammanhang. För Ginin använder han en formel från Atkinson (2007) och Alvaredo (2011), också diskuterad av Cowell (2013):

Gini, G = P_R * S_R * G_R + P_N * S_N * G_N + G_B

där P är andelen av befolkningen som tillhör gruppen (P_R = andelen "rika", P_N = "non-rich"), S är inkomstandelen för gruppen, och G_B är ojämlikheten mellan grupper, G_B = S_R - P_R. S_R är = P_R * μ_R/μ, där μ_R är medelinkomsten för gruppen rika, och μ är medelinkomsten överlag, som kan beräknas som P_R * μ_R + P_N * μ_N.

Pareto I och Pareto II kommer ge olika resultat för ojämlikheten, G här eftersom de ger olika bild av parametrarna G_R och μ_R. Om μ_R är högre så kommer S_R och G_B bli större och därmed också G, ifall inte den högre μ_R övertrumfas av en mycket lägre G_R. Som Jenkins diskuterat utförligt med valet av tröskelvärden, är det upp till forskaren att definiera P_R. Han laborerar med tre alternativ: P90, P95 och P99, alla beräknade från surveydatat. Han beräknar Gini och MLD utifrån surveydatat, och jämför i ett Appendix också med Pareto-parametrarna μ_R, G_R, L_R och T_R från skattedatat som ju har mycket bättre täckning av de rika. Figur 9, inklistrad nedan, visar resultaten för μ_R, S_R, G_R och den totala Ginin, med olika tröskelvärden för när Pareto-imputeringen ska sättas in. Oavsett metodval så ser man att Gini-koefficienten ökade mellan 1996 och 2007, och sedan minskade igen. Att använda ett högre tröskelvärde ger högre estimat för μ_R, S_R och G_R. För den resulterande totala G är Pareto II-estimaten mindre känsliga än Pareto I; för Pareto II varierar estimaten för ett givet år bara med ungefär +- en procentenhet, medan för Pareto I är variationen +-2,5 procentenheter.


I diagram 10 jämför Jenkins sina beräkningar av Gini, MLD och Theil med tidigare beräkningar med andra data. Beräkningarna av nivåer varierar en hel del, medan trenderna ser ut ungefär samma. Figur 10 visar också problemen med surveydatat: både om han bara använder botten 95 procent av surveydatat, eller det hela, så får han fram att ojämlikheten föll mellan 1995 och 2007, trots att den enligt beräkningarna i Figur 9 steg. Theil-indexet, som är starkt styrt av vad som händer i toppen av fördelningen, är allra mest missvisande här. [4] Jämförelsen visar att det är bättre att använda Pareto-imputeringar i toppen, än att använda surveydata och inte veta att man missar toppen. (s. 285)

I sina slutsatser gör Jenkins en tydlig varning för att använda surveydata utan toppjustering, och säger att så länge man inte gör det misstaget, så får man en ganska entydig bild av hur inkomstojämlikheten utvecklades i Storbritannien från mitten av 90-talet till mitten av 00-talet. Jenkins rekommenderar att man använder Pareto II-fördelningen för att skatta toppinkomsterna. Han slår också ett slag för omfattande ojämlikhetsmått -- som Ginin -- som ger någon vikt till alla delar av inkomstfördelningen, olikt ett koncentrationsmått som toppercentilandelen som inte säger någonting om de lägsta 99 procenten. 


Diskussionen om användning av Pareto-modeller för att fånga ojämlikhet i inkomster och förmögenhet  har minst sagt fortsatt sedan dess. Nationalekonomen Emmanuel Flachaire, verksam vid Aix-Marseille Université, har skrivit flera artiklar i ämnet, den första av vilka som jag kollat på tillsammans med Arthur Charpentier, verksam vid Université du Québec à Montréal, publicerad i Journal of Economic Inequality 2022, med den enkla och tydliga titeln "Pareto models for top incomes and wealth". De börjar med en effektiv introduktion:

"Income and wealth distributions are skewed to the right, with thick upper tails. Thus, microdata samples often exhibit outliers, from which sample inequality indices can be severly distorted, even in large sample (Cowell and Victoria-Feser 1996). The upper tail of income distribution is then often modelled with a parametric distribution, such as the Pareto distribution.
In his initial work on income and wealth distributions, Vilfredo Pareto suggested several parametric models (Pareto 1895, 1896). The term “Pareto distribution” refers to both Pareto I and Generalized Pareto distributions. Rytgaard (1990) wrote that the Pareto I distribution is the commonly used definition of the Pareto distribution in Europe, and the Generalized Pareto distribution in America. To some extent, this distinction could also be made between economists and statisticians." (s. 1-2)
Nationalekonomer som sysslar med ojämlikhet har huvudsakligen använt Pareto I-fördelningen, säger Charpentier och Flachaire. Detta har folk gjort både i studier av mikrodata (Davidson och Flachaire 2007, J of Econometrics; Cowell och Flachaire 2007, J of Econometrics; Burkhauser et al 2011, Restat; Alfons et al 2013, J of the Royal Statistical Society C; Hlasny och Verne 2016, World Bank Econ Review; Vermeulen 2018, ROIW; Higgins et al 2018; Lustig 2018, WP-version) och studier av tabulerade data (Atkinson et al 2011, J of Econ Lit; Lakner och Milanovic 2015, World Bank Econ Rev; Atkinson 2017, Economica). Den breda användnigen reflekterar att Pareto-fördelningen är enkel och praktisk att använda, säger Charpentier och Flachaire: "The density, the cumulative distribution function and the quantile function are simple power functions, with a single parameter to estimate, which can be related to theoretical models that can explain the generation of his thick upper tail (Gabaix 2009, Annual Rev of Econ; Jones 2015, J Econ Persp; Benhabib and Bisin 2018, J Econ Lit)."

Stephen Jenkins publicerade nyligen en artikel, säger Charpentier och Flachaire, där han ställde frågan vilken Pareto-modell som bäst passar för studier av toppinkomster. Jenkins empiriska test på Storbritanniens inkomstfördelning från 1995 till 2011 visade att Generalized Pareto Distribution (GPD) passade bäst; Charpentier och Flachaire ger i sin artikel en teoretisk grundval för detta resultat, och går vidare med diskussionen. Deras argument och bidrag är:

"We first show that the Pareto I distribution is very sensitive to the choice of the threshold. In particular, a threshold too low can lead to over-estimate the heaviness of the distribution and, thus, to over-estimate inequality. This bias comes from a misspecification, it does not disappear as the sample size increases. Next, we show that the GPD is less sensitive to the threshold, but its estimation is less accurate. We also show that the Pareto I behaves like the GPD only at (much) higher threshold. Then, we introduce the Extended Pareto distribution (EPD), which is even less sensitive to the threshold and which provides more reliable results. Finally, we discuss different types of bias that could lead to under- or over-estimate inequality in practice, and we illustrate our findings through two applications, on income distribution in South-Africa in 2012 and on wealth distribution in the U.S. in 2013." (s. 2)

Diskussionen om vilket tröskelvärde man ska välja har hållt på länge, och C och F menar att två huvudsakliga approacher har använts för att lösa problemet. Den ena är att leta och testa efter den mest precisa modellen; Fedoteknov (2018) går i en översiktsartikel igenom fler än 100 Pareto-modelleringar av toppen av en fördelning. Den andra är att utveckla en mer flexibel modell, "an easy way to reduce bias, but it comes at the cost of higher variance". Charpentier och Flachaire väljer denna väg. 

Det är en teknisk artikel men i introduktionen har de en intressant substantiell motivering till varför artikeln är viktig för ojämlikhetsforskningen och dess läsare:

"An important implication of our results, discussed in the conclusion, is to reconsider two common beliefs in empirical studies of income inequality. Indeed, it is widely believed that inequality measures are: (1) under-estimated from surveys, because these data are subject to topcoding, censoring and underreporting of the rich; (2) more reliable from tax data, because there is no topcoding or censoring and these data are much less sensitive to misreporting. Our results show that inequality can be strongly over-estimated from surveys and from tax data, if the selected threshold is too low." (s. 2)

Efter introduktionen börjar själva undersökningen med att definiera Pareto I-fördelningen. Den har medelvärde u > 0 och dess tail parameter är α. Då är dess probability density function, PDF lika med:

f (x) = (α * u^α) / (x^α+1) 

och dess cumulative density function CDF är:

F (x) = 1 - (x / u)^-α när x > u.

Pareto I har använts flitigt för att estimera de översta delarna av inkomst- och förmögenhetsfördelningarna; P I-fördelningen har en attraktiv egenskap i att medelvärdet över tröskeln är proportionerligt till tröskeln och att det inte beror på skal-parametern u.

E (X | X > u') =  αu' / (α -1), α > 1 

när u' är >= u. Charpentier och Flachaire förklarar med ett exempel från Piketty (2007) och Atkinson et al (2011): om den inverterade Pareto-koefficienten α/(α-1) är 2, så är medelinkomsten för alla individer som tjänar mer än $100 000 lika med $200 000, och medelinkomsten för personerna med inkomst över $1 miljon är = $2 miljoner. Minst sagt praktiskt! Dessutom kan, visar Jones (2015), enkla ekonomisk-teoretiska modeller förklara mekanismer som ger upphov till Pareto-fördelningar.

För den Generaliserade Paretofördelningen GPD, som Jenkins kallar Pareto II, med tail parameter α > 0 definerar de CDF:en så här:

F (x) = 1 - [1 + (x-u/σ)]^-α där x > u.

Skala-parametern σ är positiv och u är lower-bound.  Om Pareto I modellerar relativa överskotten X/u givet X > u, så modellerar GPD absoluta överskott X-u givet X > u. Anledningen till att Charpentier och Flachaire kallar fördelningen som Jenkins kallar Pareto II gör den generaliserade Paretofördelningen är eftersom man kan se Pareto I som ett specialfall av Pareto II, där σ = u: 

GPD (u, u, α) = P_1 (u, α)

Med GPD låter man modellen bestämma om den högra svansen av fördelningen ska modelleras som en power law av relativa överskott (α = u) eller av absoluta överskott (α är inte lika med u). I GPD beror medelinkomsten över tröskeln, u' >= u, på alla parametrarna:

E (X | X > u') =   (σ - u) / (α - 1) + (α / α-1) u'.

Statistiker som arbtar med extremt skeva fördelningar tenderar att använda GPD eftersom dess excess distribution function fungerar väl med mycket höga u.

Liksom Jenkins så konstaterar Charpentier och Flachaire att det är väldigt svårt att välja tröskelvärdet u, vilket är problematiskt eftersom ens resultat är starkt beroende av vilket tröskelvärde man väljer. Observationerna över u är de k största värdena i fördelningen och dessa k värden antas vara Pareto-fördelade, med tail index α. När man ska bestämma u möter man en trade-off mellan bias och varians: om man sätter tröskelvärdet för högt är k litet och beräkningarna kan bli volatila; sätter man tröskelvärdet för lågt blir variabiliteten lägre men bias större. Deras diagram 1 illustrerar hur estimaten av α fluktuerar med valet av u för Pareto I (vänster) och GPD (höger), för fiktiva samples med 1000 observationer skapade enligt en GP-fördelning. Diagrammet visar att medelvärdet inte varierar för GPD-estimaten, vilket betyder att de inte har bias utifrån vilket u man valt, men att deras varians däremot är väldigt mycket större än vad variansen för Pareto I-estimaten är.

De går vidare med att presentera Extended Pareto Distribution, EPD. Detta motiveras med att Pareto I presterar dåligt om man inte sätter tröskelvärdet väldigt högt. EPD: plockar de upp från Beirlant et al (2009) och de definierar den så här:

F (x) = 1 -[(x/u) (1 + δ - δ(x/u)^τ)]^-α där x > u, τ =< 0 och δ > max(-1, 1/τ).

Pareto är ett specialfall där δ = 0 och GPD är ett specialfall där τ = - 1. För EPD finns det inte någon enkel approximering av medelvärdet över tröskelvärdet och man behöver själv beräkna det. Efter att ha introducerat EPD går de vidare med att jämföra dess precision och bias i att beräkna tail parameter α, med hur Pareto I och GPD presterar. Beräkningarna i Fig 2 bygger på 1000 simulerade samples med 50 000 observationer var, Singh-Maddala-fördelningar som liknar 2013 års US-amerikanska inkomstfördelning. Fig 2 visar, säger de, att Pareto I-modellen konsekvent underskattar α, vilket innebär att den kommer överskatta inkomstojämlikheten. GPD tenderar tvärtom till att överskatta α. EPD har, som vi ser, mycket mindre bias: med lägre tröskelvärde hamnar den beräknade α under det faktiska värdet, men inte med alls så stort fel som GPD eller, framför allt, Pareto I. I Figur 3 (inte visad här) visar de att även om samplet är mycket stort (1 miljon observationer) så återstår bias för Pareto I och GPD.



De fortsätter med simuleringar med olika tail parameters, mer och mer olika en ren Pareto-fördelning med konstant α oavsett vad man sätter tröskelvärdet. Atkinson et al (2011) säger att i praktiken så varierar α mest mellan 1,5 och 3; de beräknar ^α i fördelningar som har det faktiska värdet α = 3, och fördelningar som avviker från Pareto i att istället ha stigande ρ genom fördelningen. Också här underskattar Pareto I-modeller α vilket överskattar ojämlikheten; GPD har mindre bias men mer varians; och EPD presterar bättre än både Pareto I och GPD. Också när det faktiska värdet är α = 1.5 strular Pareto I-till det.

I empiriska studier beräknas den övre svansen ofta från diagram, säger Charpentier och Flachaie. Man kan också beräkna, för en Pareto I-fördelning: log (1 - F(x)) = c - α log x där c = α log u. Utifrån detta kan man göra en plot med logaritmerade inkomster på x-axeln och den logaritmerade överlevnadsfunktionen på y-axeln: log x, log (1 - F(x))). Detta är en Zipf plot, som visar andelen av befolkningen med inkomst > x gentemot x självt. Om fördelningen är strikt Pareto, så ska plotten visa en linjär funktion med en lutningskoefficient som motsvarar α. 

Det finns dock tre orsaker till att bias uppstår när man ska beräkna α, säger de: misspecification bias, estimation bias, och sampling bias. Jag lämnar deras detaljerade diskussioner om dessa tre problem därhän, men noterar bara att i sampling bias-diskussionen utgår de från den klassiska ojämlikhetsdiskussionen om de rikas underrepresentation i surveydata, och de påpekar att de utvecklat program i R ("TopIncomes") för att korrigera för detta problem.

Efter diskussionerna om de tre källorna till bias, kommer de till sina illustrerande exempel: en analys av inkomstfördelningen i Sydafrika år 2012, och en analys av förmögenhetsfördelningen i USA år 2013. Inkomstdatat för Sydafrika är ett sample med 7990 hushåll, inkluderad i Luxembourg Income Study. De börjar med en graf (Figur 8, nedan) som visar vad för α som beräknas för fördelningen i Sydafrika utifrån olika tröskelvärden (k) och med Pareto I, GPD eller EPD. Detta följs av Figur 9 som visar resulterande estimat av toppercentilens andel av inkomster., för olika tröskelvärden. Diagrammet visar att med Pareto I-modellen så ökar den estimerade inkomstkoncentrationen när k växer, vilket hänger ihop med att beräknade α ju faller med stigande k och Pareto I, vilket vi sett i Figur 8. Med beräkningar baserade på GPD och EPD blir estimaten av toppercentilandelen mycket stabilare.


 

Charpentier och Flachaire visar med nästa diagram (Fig 10) som är ett Paretodiagram, hur överskattningen av ojämlikheten uppstår med Pareto I-modellen: med för låga k underskattas α och därmed överskattas inkomsterna i the upper tail

Efter Sydafrikas inkomstfördelning modellerar Charpentier och Flachaire förmögenhetsfördelningen i USA år 2013 med olika Pareto-modeller. Också här utgår de från hushållssurveydata från Luxembourg Wealth Study. Också här har Pareto I-modellen stora problem.

I slutsatserna börjar Charpentier och Flachaire också just med att varna för att Pareto I-modellen, som är så flitigt använd i ojämlikhetsstudier, ger orimliga resultat när man använder för låga tröskelvärden; då underskattas tail index och därmed överskattas ojämlikheten. GPD presterar bättre, och EPD presterar ännu bättre. De citerar Atkinson, Piketty och Saez välkända översiktsartikel ur toppinkomstlitteraturen där APZ estimatar tail-parametern som ration från topp 5 procentens inkomstandel till toppdecilens inkomstandel, och säger att toppinkomstandelar är underskattade i surveystudier pga bortfall i toppen av fördelningen. Charpentier och Flachaire säger att det visserligen är sant om fördelningen är strikt Pareto över 90:e percentilen och man inte har stora outliers, men de pekar på att om dess antaganden inte håller, så kan man underskatta α och därmed överskatta ojämlikheten med APZ metod. De avslutar med att peka på att Jenkins (2017) arbetat med skattedata, som inte har problemen med bortfall som surveydata har, och att han ändå fann att Pareto I:s optimala tröskelvärde var vid den 99,5:e percentilen -- mycket högre än vad folk typiskt använder som tröskelvärden. Charpentier och Flachaire avslutar lakoniskt: "This suggests that fitting Pareto models to tax data should be done with more caution than has been done so far." (s. 23)


Bara ett år senare publicerade Flachaire ännu en artikel i ämnet, denna gången med nationalekonomerna Nora Lustig (Tulane University) och Andrea Vigorito (Universidad de la República i Uruguay, numera anställd vid UNDP). I denna artikel är utgångspunkten de välkända problemen med att surveydata ofta missar de rika: eftersom att rika människor inte vill svara på surveys om sina inkomster, eftersom samplen är för små, eller på grund av mätfel, t ex att de rika uppger mindre inkomster än vad de faktiskt har. [5] Därför har under 2010-talet en rad metoder utvecklats för att överkomma problemet med bias i surveydata: att komplettera surveys med nationalräkenskaper (Piketty, Saez och Zucman 2018), skattedata eller socialförsäkringsdata (Burkhauser et al 2016; Jenkins 2017; Piketty et al 2019), med fler surveys (Fisher et al 2022), eller med s k rich lists (Brzezinski 2014).

Flachaire, Lustig och Vigoritos artikel fokuserar på att utforska korrigeringsmetoder för underrapportering av inkomst i toppen av inkomstfördelningen. Framför allt två metoder används i litteraturen; Hlasny och Verme (2018) etiketterar dessa som "replacing" och "reweighting". Dock så bygger båda metoderna, säger FLV, på antaganden som i sig inte går att testa empiriskt, framför allt om vilket tröskelvärde man ska välja för var surveys börjar underrapportera inkomster. "The biggest challenge in applying correction methods is that the true income distribution is unknown; therefore, one does not know the threshold above which underreporting occurs." (s. 1034) FLV använder simuleringsmetoder för att testa hur känsliga korrigeringsmetoderna är för vilka tröskelvärden som väljs. Dels så simulerar de en hypotetisk faktisk fördelning, dels en hypotetisk fördelning som lider av underrapportering i övre svansen. En fördel med simuleringar här är att de kan isolera problemet med underreporting och bortse från det i faktiska dataset parallellt förekommande problemet med sampling error. Deras simulerade datas fördelning baserar de på ett unikt dataset från Uruguay där ett subset av landets officiella inkomstsurvey har länkats till samma personers skattedeklarationer. Figur 2 visar att survey-underrapporteringen av inkomst är störst bland höginkomsttagare, som förväntat: toppercentilen i skattedatat rapporterar bara 60 procent av sina beskattade inkomster i hushållssurveyn. Mer oväntat är kanske att folk längst ner i inkomstfördelningen faktiskt uppger högre inkomster än vad de har enligt skattedatat. [6]


Deras simuleringstester börjar med en simularad Singh-Maddala-fördelning där a och q är shape parameters, b är en skala-parameter och y > 0. De sätter dess parametrar utifrån Uruguays inkomstfördelning, som de beräknat baserat både på hushållssurveyn och på skattedatat. De förklarar i detalj hur de utifrån denna "korrekta" simulerade fördelning sedan skapar en biased simulerad fördelning utifrån de parametrar för underrapportering som de beräknat utifrån jämförelsen mellan survey och skattedata. De sätter underrapporteringen under fördelningens median till 0, medan de för hushållen mellan medianen och 90:e percentilen sätter r(p) som 0,25 + 1,5p där p är andelen underrapportering i det faktiska datat, p = F_y (y) och F_y (y) är CDF:n för den faktiska fördelningen. För den översta decilen sätter de underrapporteringen som -7,85 + 10,5p. Den "biased" simulerade inkomsten x ges då genom att dela den sanna inkomsten y med r(p) e, vars emedelvärde är r(p). Parametern σ anger heterogeniteten i hur mycket personer med samma inkomst underrapporterar sina inkomster; de sätter σ till 0,15. Deras plot med r(p) över inkomstfördelningen ser ut som den motsvarande plotten för Uruguays faktiska data, Figur 2 ovan, vilket är som det ska. 

Därefter visar de i Figur 4 den sanna simulerade fördelningens density function, jämfört med den biased simulerade fördelningens dito. Den biased fördelningen får en mycket högre peak i mitten av fördelningen, och en mycket tunnare svans till höger. Detta betyder att den biased fördelningen är mycket mera jämlik, vilket de också visar med en uppsättning konventionella ojämlikhetsmått: Gini-koefficienten, MLD, Theil, och så inkomstandelarna för toppdecilen, topp 5 procenten, och toppercentilen. Ginin faller t ex från 0,436 till 0,299 i den biased fördelningen, och toppdecilens andel från 33,9 procent till 22,6 procent. Väldigt stora effekter!

Från detta går de vidare med att diskutera de två olika approacherna för att kombinera skattedata och surveydata: replacing och reweighting. Replacing-approachen går ut på att ersätta vad man anser vara felrapporterade inkomster över ett visst tröskelvärde k, med kvantilerna från vad man anser vara den sanna fördelningen. Den nya fördelningen z som man gör sina beräkningar på kommer alltså bestå av 100-k procent från surveyfördelningen, och k procent från den kompletterande fördelningen. Baserat på z kan man enkelt beräkna ojämlikhetsmått som går att dekomponera, säger FLV: den totala ojämlikheten är (a) ojämlikheten inom 100-k-gruppen, (b) ojämlikheten inom k-gruppen, och (c) ojämlikheten mellan de två grupperna. Detta kan dekomponeras för Gini och andra mått med formler från Alvaredo (2011, Economics Letters) eller Cowell (2011, Measuring Inequality, 3e utg.). (s. 1042-1044) Topprocentandelar för v procent ovanför t definieras:

TS_r(v) = (v/100)𝔼 (y >= Q_y (1-v/100)) / μ_r = 

 (μ_y / μ_r ) * TS_y (v), om v =< k

μ_r är medelvärdet i den nya fördelningen och om v =< k så är toppandelarna i den nya fördelningen samma som toppandelarna i den sanna fördelningen, omskalat med medel-ration. Figur 5 illustrerar de tre fördelningarna -- den biased fördelningen, den "sanna" fördelningen med toppandelar, och den nyskapade fördelningen z, när man använder olika tröskelvärden för när man ska sätta in korrigeringen: 90:e percentilen, 67:e percentilen, medianen, 40:e percentilen eller 30:e percentilen. I en tabell visar de hur beräknade ojämlikhetsmått blir med replacing-approachen och de fem olika tröskelvärdena. Det förvånar mig att ojämlikhetsberäkningarna faktiskt hamnar närmst den faktiska fördelningen (faktiskt helt rätt) med låga tröskelvärden, säg att man korrigerar redan från den 40:e percentilen! Jag har aldrig tänkt att man skulle ersätta lägre än den 90:e percentilen så detta var förvånande för mig.


Den andra korrigerings-approachen är reweighting, att omvikta observationer i den biased källan för att ändå få blick på inkomsterna i toppen av fördelningen. Vikterna är då (ekvation 9):

w (x) = [ 𝜆, om x =< t

             [f_y (x) / f_x (x), om x > t

Och dem korrierade, omviktade fördelningen ges då av w(x) f_x(x), det vill säga:

f_w (x) = [ 𝜆 f_x(x), om x =< t

                [ f_y (x), om x > t

Den omviktade fördelningen är då den "sanna" fördelningen över t, och under t den biased fördelningen, omskalad med faktorn 𝜆. I teorin bör reweighting-strategin ge samma resultat som replacing-strategin, eftersom de båda bygger på att kombinera biased data under tröskeln med "sanna" data över tröskeln. Men, säger FLV, att beräkna datats densitet är komplicerat för höga inkomster som är skevt fördelade, och vikterna som definierats ovan kan därför vara opålitliga, och estimaten kan skilja sig rejält åt mellan replacing och reweighting. (s. 1047-1048) 

Blanchet, Flores och Morgan har i ett WID.World-working paper, "The weight of the rich", beskrivit den korrigeringsmetod som de använder i WID. Denna metod har ett första steg där survey-inkomsterna viktas enligt ekvation 9 ovan. I det andra steget dupliceras inkomsterna över tröskelvärdet och ersätts med observationer med motsvarande rank och vikt från skattefördelningen. Denna metod motsvarar i princip den reweighting-metod som beskrivits ovan, där vikterna från ekvation 9 används och appliceras i en ekvation 11 som jag inte återgett här. Också med denna metod kan man, som jag återgett för replacing ovan, beräkna den totala ojämlikheten som en summa av tre beståndsdelar: ojämlikheten i surveydatat under tröskelvärdet, ojämlikheten i skattedatat över tröskelvärdet och ojämlikheten mellan de två grupperna. Topprocentandelarna för de översta v procenten över tröskelvärdet beräknas:

TS_w(v) =  (v/100)𝔼 (y >= Q_y (1-s/100)) / μ_w =  (μ_y / μ_w ) * TS_y (v), om v =< 1

Detta är toppandelarna från skattedatat, omskalat av ration av medelvärden. När medelvärdet i den omviktade fördelningen är mindre (större) än medelvärdet i den sanna fördelningen, blir topp v procentandelen med v =< 1 biased uppåt (neråt). Liksom för replacing-strategin så visar de diagram med fördelningarna för surveydatat, skattedatat och det nyskapade, korrigerade hybriddatat, med olika tröskelvärden för korrigeringen, från 30:e till 90:e percentilen. Och i en tabell visar de resulterande ojämlikhetsmåtten med de olika beräkningarna: också här hamnar estimaten närmst den sanna ojämlikheten när låga tröskelvärden använts, säg 30:e eller 40:e percentilen, precis som i fallet med replacing-metoden. Reweighting-metoden är dock inte lika effektiv: medan replacing-estimaten närmar sig den sanna ojämlikheten snabbt när man minskar tröskelvärdet, så måste man med reweighting använda ganska låga tröskelvärden för att få precisa estimat. Detta bror på att replacing-fördelningen avviker från den sanna fördelningen bara lokalt (mellan den optimala tröskeln och den faktiska tröskeln) medan reweighting-fördelningen avviker från den sanna fördelningen mera globalt, överallt under tröskelvärdet.

Vi ser återigen att valet av tröskelvärde är väldigt viktigt, och nästa sektion i FLV:s artikel ägnas åt just detta val. De introducerar problemet som att man får stora problem med sina estimat om det finns underrapportering under ens tröskelvärde. Den metod som jag känner till för att sätta tröskelvärdet är nog den intuitiva eller tumregelsval: man säger helt enkelt att ovanför den 90:e percentilen eller så, så tänker man sig att det fins underrapportering. FLV refererar här till Burkhauser et al (2016, NBER WP), Chancel och Piketty (Indienpaper i ROIW, 2019), och Piketty, Yang och Zucman (Kinapaper i AER, 2019). Ett mer systematiskt sätt att välja tröskelvärde är att använda en kvantil-ratio-funktion:

t = max (Q_x(p)) så att Q_y(p) / Q_x(p) = 1

Det vill säga en funktion som identifierar den högsta percentilen i fördelningen där fördelningen i surveydatat, Q_x, ger samma värde som fördelningen i skattedatat, Q_y. Figur 3 visar kvantilratios från FLV:s simulerade data, och här ser man att kvantilratios börjar avvika från 1 redan före medianen! Baserat på figuren skulle man då börja korrigera redan från den 40:e percentilen.


En annan regel för att välja tröskelvärde föreslås av Blanchet, Flores och Morgan i "The weight of the rich: Improving surveys using tax data" (JOEI, 2022). Regeln är att välja:

t = max (z) så att F_x(z) / F_y(z) = f_x(z) / f_y(z) (ekvation 17)

FLV kommenterar denna metod så här: "This method is defined to ensure the continuity of the reweighting distribution in the upper tail. However, it is not designed to identify when the true and distorted distributions start to differ, and it often selects a threshold that is too high." (s. 1051) De pekar på att de två fördelningar som man jobbar med, surveydatat och skattedatat, kan korsas på flera ställen och att det är svårt att beräkna density ratios precist i mindre samples. Därför, säger FLV, får Blanchet, Flores och Morgan också mycket olika resultat för vad för tröskelvärden de ska använda när de utforskar högkvalitativa skattedata från Norge och Frankrike på 2000-talet: tröskelvärdena varierar mellan 60:e och 99:e percentilen. FLV beräknar tröskelvärden utifrån ekvation 17 baserat på sina simulerade "uruguayanska" data och visar att tröskelvärdet som man väljer utifrån Blanchet-Flores-Morgans metod är bra mycket högre än de tröskelvärden som de själva kommit fram till: 67:e percentilen snarare än runt 40:e percentilen. Den beräknade Gini-koefficienten blir med BFM:s metod och 67:e percentilen 0,416 att jämföra den faktiska Ginin som är 0,436, och för toppdecilens andel blir BFM-beräkningen 33,0 procent att jämföra med det faktiska värdet 33,9 procent. (Tabell 2.) Egentligen inte så dålig precision, blir min reflektion, även om FLV verkar kritiska.

I följande sektion, "What should we do in practice?", upprepar de att valet av tröskelvärde är komplicerat. De säger att metoden med kvantilratios inte är helt pålitlig och att skattedatat också har problemet med skattesmitande. FLV rekommenderar att man kan använda kvantilratio-metoden för att sätta tröskelvärdet till att börja med, och  sedan visa resultaten man får med flera olika tröskelvärden, för att visa hurpass robusta resultaten är. I praktiken kommer man också, till skillnad från i simuleringarna som FLV hittills jobbat med, behöva ta hänsyn till samplingsfel, inte bara underrapportering i toppen av fördelningen. (s. 1054-1055)

De illustrerar praktiken med sina survey- och skattedata från Uruguay. Kvantilratio-plotten visar att redan vid medianen så avviker kvantilratios, vilket säger att de finns underrapportering av inkomster redan ovanför 50:e percentilen. Detta medan Blanchet-Flores-Morgans metod för att beräkna tröskelvärdet säger att det räcker med korrigering ovanför 72,5:e percentilen. Om man sätter tröskelvärdet vid 50:e percentilen så ger replacing, reweighting och BFM (som använder en generaliserad Pareto-fördelning i toppen) i princip samma resultat vad gäller ojämlikhetsestimat. Överlag är de empiriska resultaten för Uruguay liknande som simuleringsresultaten; inte minst så ger replacing-metoden mycket stabila resultat, inte så känsliga för val av tröskelvärden. (s. 1056-1057) I slutsatserna säger de också att replacing-metoden kan vara att föredra just eftersom den är mindre känslig för det svåra problemet med att välja rätt tröskelvärde. Man kan dock inte säga detta för alla problem; sampling error har ju inte diskuterats på samma sätt här som problemet med underrapportering i toppen, så i andra situationer kanske replacing inte är lika tydligt överlägsen reweighting. (s. 1057-58)


Den sista metodartikeln om toppinkomster som jag ska kolla på här är också skriven av Emmanuel Flachaire, fast nu i samarbete med LSE-ekonomen Frank Cowell: "Inequality Measurement and The Rich: Why Inequality Increased More Than We Thought", publicerad i Review of Income and Wealth 2024. Cowell och Flachaire börjar sin artikel med att konstatera att många idag funderar på om inkomstojämlikheten stiger eller faller, men att vanliga mått som Gini och Theil kan ge olika besked. Det beror, säger de, också på att både Gini och Theil är beräknade med ett spridningsmått i täljaren och en medelinkomst i nämnaren; att inkludera medelinkomsten är bra för att göra beräkningarna icke känsliga för skala, men påverkar också estimaten, förstås.

Flachaire och Cowell använder ett enkelt exempel för att visa att Gini och Theil har ett problem i att de inte följer vad de kallar "principle of monotonicity in distance", som de definierar så här: "if two distributions differ only in respect of one individual’s income, then the distribution that registers greater distance from equality for this individual’s income is the distribution that exhibits greater inequality." (s. 255) För att illustrera detta presenterar de två inkomstfördelningar, x och x':

x = {1, 2, 3, 4, 5, 9, 10}. x′ = {1, 2, 3, 4, 7, 9, 10}.

Medelvärdet i x är 4.857 och medelvärdet i x' är 5.143, så den femte personens inkomstökning från 5 till 7 är en ökning av ojämlikheten -- personen rör sig bort från medelvärdet, säger de. Men Ginin säger att med denna förändring så rör vi oss från 0.361 till 0.357, alltså lite lägre ojämlikhet, och Theil likaså: från 0.216 till 0.214. Alltså följer inte Gini- och Theil-måtten principen om monotonicity in distance -- trots en ökad inkomstspridning från x till x' så anger Gini och Theil att ojämlikheten minskat. Roligt nog så lyfter de istället fram det mer obskyra ojämlikhetsmåttet mean logarithmic deviation, MLD ("or second Theil index") som de säger har de attraktiva egenskaperna att både respektera "principle of transfers", och principen om monotonicity in distance. MLD för x och x' blir till exempel 0.254 och 0.263. Flachaire och Cowell menar att detta inte bara är ett tanke-experiment, utan att det har bäring på hur vi tolkar utvecklingen i Storbritannien och USA idag: om vi tittar på Gini-koefficienten, så underskattar vi hur ojämlikheten ökat i dessa länder.

Efter introduktionen så börjar deras diskussion med att diskutera principer för ojämlikhetsmått -- här refererar de också sitt bokkapitel "Inequality measurement: Methods and data" från 2021. De säger att varje ojämlikhetsmått för en population behöver en referenspunkt: det kan vara till exempel medelvärdet (tjänar personen mer eller mindre än medelinkomsten i befolkningen) eller medianvärdet. Utifrån referenspunkten kan man diskutera principen om monotonicity in distance som är den första av tre principer som de lägger fram för ojämlikhetsmått. Denna princip har förklarats ovan. Den andra principen är independence, som de förklarar så här:

"Suppose there is some particular i for which the value of x_i is the same in both distribution x and distribution x′. Identical small variations in this common value should leave the inequality ranking of distributions x and x′ unchanged. This principle provides the basis for decomposing inequality by subgroup of the population as discussed in Section 4 later." (s. 257)

Den tredje principen är scale invariance, som de förklarar med två punkter: den ena är att om man skalar om alla värden i x och x' enligt samma skala, så ska jämförelserna av ojämlikhet i x och x' förbli oförändrade. Den andra är att om alla observationerna i fördelningarna x och x' växer proportionerligt, medan referenspunkterna förblir desamma, så ska inte ojämlikhetsjämförelsen påverkas. Nivån av uppmätt ojämlikhet kan förändras, men inte rankingen av x kontra x'

Utifrån dessa tre principer så lägger de fram en klass av ojämlikhetsmått. Om n är antalet personer i samhället och r är referenspunkten, så tar ojämlikhetsmåttet antagligen "absolut" form:

G (x) : = 1/2n^2 nΣi=1 nΣj=1 | x_i - x_j |        (formel 1)

eller en relativ form:

I_𝛼 (x; r) := 1/𝛼[𝛼-1] * [1/n nΣi=1 x^𝛼_i - r^𝛼]    (formel 2)

där 𝛼 är en sensitivity parameter. För att de två formlerna ska jobbas om till användbara ojämlikhetsmått, säger Cowell och Flachaire, så behöver man göra två saker. För det första, definiera referenspunkten r i den andra formeln: det kan till exempel vara medelvärdet. I den första formeln har r implicit redan satts som medianen, m; man kan skriva om den formeln som 

G (x) =  nΣi=1 * k_i * x_i

där x_i är värdet för den i:de komponenten av x sorterad i stigande ordning, och k_i är = 2/n^2 [i - (n+1)/2]. Detta innebär att en förändring i x_i ger en effekt på ojämlikhetsmåttet, positiv eller negativ, i enlighet med i-(n+1)/2. Detta innebär att måttet respekterar monotonitetskriteriet. Det andra som man behöver göra för att formel 2 ska bli ett användbart ojämlikhetmått är att normalisera så att om alla inkomster ökar proportionerligt, så förvrids inte jämförelser. Man kan normalisera mot medelvärdet μ som i den konventionella Ginin, men Cowell och Flachaire föredrar att normalisera mot medianen m. [7] De demonstrerar med simulationsanalyser med lognormala fördelningar med 5000 observationer hur den medelvärdesnormaliserade och medianvärdesnormaliserade Ginin reagerar på en rörelse längre bort från medel/medianen för en observation. Den medianvärdesnormaliserade Ginin är rimligare här, är summan av kardemumman. (s. 259-264)

Nästa utredning rör principle of transfers, att en överföring från en fattigare person till en rikare person alltid ska innebära en ökning av ojämlikhetsmåttet. Både den "absoluta" och den vanliga Ginin klarar detta test; den mediannormaliserade Ginin klarar principen så länge överföringarna sker mellan personer som är antningen under eller över medianen, om överföringen korsar medianen så kan det bli problem. Cowell och Flachaire reder ut hur formel 2-måttet ovan klarar överföringsprincipen, beroende på om man använder en mediannormering eller en medelnormering.

Följande sektion arbetar med att jämföra hur olika medlemmar av de två "familjerna" av ojämlikhetsmått -- den medelnormerade och den mediannormerade -- presterar på olika sätt. Formel 2-måttet mediannormerat har känslighetsparametern 𝛼 och när 𝛼 > 1 så fästs mer vikt vid höga värden av x, medan om 𝛼 < -1 fästs mer vikt vid låga värden av x. Om 𝛼 befinner sig mellan -1 och 0 så blir observationerna nära till och över medianen särskilt viktiga; om 𝛼 är mellan 0 och 1 blir det extra vikt på värden runt och under medianen. (s. 266) De går tillbaka till ekvation 10 som de presenterat ovan (se fotnot 7 här):

I_0 (x/μ; μ) = 1/n * nΣi=1 * log(x_i/μ)

och skriver om den så här:

I_0 (x/m; μ) = log (μ/g)

där g är fördelningens geometriska medelvärde. "Therefore, the MLD index is the log difference between the arithmetic mean and the geometric mean, and it is clear that in computing arithmetic and geometric means, every value of x has the same weight." (s. 266) [8]

De går över till att diskutera Gini-familjen. Den mediannormaliserade Ginin är besläktat med det mediannormerade generalized entropy-måttet som diskuteras i det utklippta resonemanget i fotnot 7 nedan. Jag återger det senare måttet också här:

I_𝛼 (x/m; μ) = 1/𝛼[𝛼-1] * [1/n nΣi=1 (x_i/m)^𝛼 - (μ-m)^𝛼], (ekvation 12)

= (μ/m)^𝛼 I_𝛼 (x/μ;μ), for all 𝛼 ∈ R. (ekvation 13)

I Gini-diskussionen så säger de att det mediannormaliserade måttet i ekvation 12 med 𝛼 = 2 är lika med:

I_2 (x/m; μ) =  (𝜎^2)/(2m^2) = E([x -_x]^2)/(2m^2) = E x, x' ([x-x']^2)/(4m^2) (ekvation 26)

Med detta, säger Flachaire och Cowell, ser vi att Gini (x; m) och [I_2 (x/m; μ)]^(1/2) är two very similar measures; both are ratios of a dispersion measure on twice the median. For the Gini, the dispersion measure is based on Manhattan L1-distance, while for the generalized-entropy measure it is based on Euclidean L2-distance. As a consequence, I2(x∕m; 𝜇) puts more weight on high values of x, compared with the Gini. It is also true for mean-normalized inequality measures G(x; 𝜇) and [I2(x∕𝜇; 𝜇)]1∕2, because both
are ratios of a dispersion measure on twice the mean." (s. 266) Gini och MLD har då gemensamt, säger de, att alla delar av fördelningen är lika viktiga för resultatet.

Följande sektion handlar om dekomponeringar av de olika måtten, i den mediannormaliserade och medelnormaliserade familjen av mått. De delar in befolkningen i K antal grupper, där andelen av befolkningen som tillhör grupp k skrivs p_k och medianinkomsten och medelinkomsten i grupp k skrivs m_k och μ_k. Vi vill dekomponera inkomstojämlikheten per K och det kan göras på två sätt, säger Cowell och Flachaire: det ena är non-overlapping dekomponering där vi sätter villkoret att grupperna är strikt rangordnade efter inkomst så att den rikaste personen i grupp k alltid har lägre inkomst än den fattigaste personen i grupp k+1, eller en generell dekomponering som inte har några sådana antaganden. Om vi arbetar med antagandet om ingen överlappning mellan k och k+1 så blir dekomponeringen av Gini-familjen som följer:

För MLD behövs ingen grouping-begränsning för dekomponeringen. Den kan dekomponeras så här:

I_0 (x/m; μ) = I_0 (x/μ; μ) = KΣk=1 * p_k * I_0 (x_k/μ_k; μ_k) - KΣk=1 * p_k * log (μ_k/μ) 

De två sista elementen visar att vi tar den gruppstorleksviktade spridningen av varje persons inkomst i grupp k relaterat till medelinkomsten i grupp k (inom-grupp ojämlikhet) och subtraherar gruppviktad, logaritmerad skillnad mellan gruppens medelinkomst och populationens medelinkomst (mellan-grupp ojämlikhet). Om vi t ex vill dekomponera inkomstskillnaden mellan män och kvinnor så kan den totala ojämlikheten skrivas:

I_𝛼 = w^F I^F_𝛼 + w^M I^M_𝛼 + I^btw

där w^F och w^M är vikterna för kvinnor och män, och I^btw är medelvärdet för grupp F och medelvärdet för grupp M relativt till hela medelvärdet; "comparing I^F_𝛼 and I^M_𝛼 enables one to say precisely where changes in inequalityhave taken place." (s. 268)

I den sista undersökningsdelen (före slutsatssektionen) applicerar Cowell och Flachaire de olika måtten: MLD som är densamma vare sig man normaliserar efter medel eller median och som klarar både monotonitetsprincipen och överföringsprncipen, och Gini normaliserad efter medel eller median som varierar med detta och där den medelnormaliserade Ginin inte klarar monotonitetsprincipen. I diagram 5, som jag klistrat in nedan, ser vi tre serier: de röda trianglarna är MLD, de blå cirklarna är Ginin, och de gröna cirklarna är den mediannormerade Ginin. Vi ser att alla tre serier egentligen har väldigt lika utveckling över tid: en viss minskning mellan mitten av 1960-talet och slutet av 1970-talet; därefter en kraftig ökning till det tidiga 1990-talet, följt av relativ stabilitet på 90-talet med viss ökande tendens fram till finanskrisen 2008. Ökningen blir dock kraftigare med den mediannormerade Ginin än med den medelnormerade dito och eftersom MLD mäts på en annan skala så kan diagrammet nedan dölja något som de visar i ett annat diagram, inte visat här, nämligen att den procentuella variationen år-till-år ofta är häftigare i MLD än i Gini.


De går över till att visa utvecklingen i USA från 1967 till 2016.Här skiljer sig bilden man får av de olika måtten mer åt. Alla tre mått visar förstås att inkomstspridningen ökat kraftigt sedan 1970-talet, men med olika takt. För perioden 1994-2016 ökade MLD med 1.292 procent om året och median-Ginin med 0.517 procent om året, medan den vanliga Ginin "bara" ökade med 0.264 procent om året. [9]


För att vidare utreda vad som händer med de olika måtten gör de en slags simulering light -- de kallar det en "parabel" -- där de använder de fem kvintilerna av USA: s inkomstfördelningar 1994 och 2016 och presenterar Gini och MLD utifrån förändringen för varje kvintil 1994-2016. Tabell 1 visar medelinkomsten för de fem kvintilerna 1994 och 2016. Den andra gruppen kolumner "Base Year 1994" visar överst between-group-ojämlikheten 1994 (Gini 0.4222; MLD 0.3523) och där nedan kontrafaktiska scenarier: hur hade Gini och MLD utvecklats 1994-2016 om bara medelinkomsten för en kvintil hade förändrats? Vi förväntar oss här förstås att ojämlikheten ska öka om inkomsterna ökar för kvintiler 4 och 5, som har inkomster över medel, och minska om inkomsterna ökar (isolerat, kontrafaktiskt) för kvintilerna 1 och 2, som har inkomster under medel. Men vad kolumnerna "Base Year 1994" visar är att medan MLD ger konsekventa utfall, så gör inte Ginin det: där minskar ojämlikheten när inkomsterna för kvintil 4 ökas. Samma resultat blir utfallet om man gör det omvända experimentet: utgår från 2016 års inkomst och sedan minskar inkomsterna för en kvintil i taget till 1994 års nivåer.


I en vidare tabell (inte visad här) demonstrerar Cowell och Flachaire att Gini och MLD har lite olika känslighet till vad som försiggår i olika delar av fördelningen: att öka toppkvintilens inkomster från 1994 års till 2016 års nivå ger dubbelt så stor (procentuell) effekt på MLD som på Gini, men att öka den lägsta kvintilens inkomster har 4,53 gånger så stor effekt på MLD som på Gini. MLD är alltså mer känslig till utvecklingen i fördelningens ytterligheter, säger de. (s. 273)

En sista övning är att de jämför utvecklingen i ojämlikhet mellan USA och Storbritannien sedan 1970-talet, med MLD och med Gini. Med Gini får man bilden att utvecklingen i de båda länderna varit väldigt likartad sedan 1994 (kraftig ökning), medan med MLD får man en mer blandad bild med mer stabilitet i Storbritannien och kraftig ökning i USA. Cowell och Flachaires kommentar till detta är att det i sig inte är ett problem om två ojämlikhetsmått ger olika bilder, om de t ex ger olika vikt till olika delar av fördelningen, men att det är ett problem här eftersom de är grundade på olika principer -- överföringsprincipen och eller monotonitetsprincipen. (s. 276) Något som det alltså är viktigt att vara medveten om, tänker jag.

I slutsatserna så säger de att Gini-koefficienten är den mest populära ojämlikhetsindikatorn i policyvärlden och att Gini förvisso har goda egenskaper: ett enkel viktningsschema, att den respekterar överföringsprincipen, att den klarar omskalning av inkomster, och att den är dekomponerbar i alla fall för icke-överlappande grupperingar. Men Ginin respekterar inte monotonitetsprincipen vilket ger en del konstiga utfall, säger de: "By contrast the MLD index has all of the attractive properties of the Gini coefficient and more: it also respects the principle of monotonicity in distance and is decomposable for arbitrary partitions with the path-independence property." (s. 276) Och så avslutar de med en praktisk bedömning och rekommendation:

"Indeed, the Gini coefficient and other indices may understate variations in inequality and, as a consequence, may be poor indicators of the effectiveness of redistribution policies. Our application suggests that the increase in inequality in the United States over recent years is significantly understated by the Gini index. By contrast, the MLD index has more desirable properties, estimates variations in inequality more accurately, and should be preferred in practice." (s. 276)


 

referenser

Arthur Charpentier och ·Emmanuel Flachaire (2022) "Pareto models for top incomes and wealth", The Journal of Economic Inequality (2022) 20:1–25

Emmanuel Flachaire, Nora Lustig och Andrea Vigorito (2023) "Underreporting of top incomes and inequality: A comparison of correction methods using simulations and linked survey and tax data", Review of Income and Wealth 69:4. 

Frank A Cowell och Emmanuel Flachaire (2024) "Inequality measurement and the rich: Why inequality increased more than we thought", Review of Income and Wealth 70: 2.

Stephen P Jenkins (2017) "Pareto Models, Top Incomes and Recent Trends in UK Income Inequality", Economica 84: 261-289.

 

fotnoter

[1] "A by-product of sparse coverage of the top income ranges is that the high-income observations present in the survey data have the characteristics of outliers (even if they are genuine rather than an error), and have substantial influence on the conventional non-parametric estimate of an inequality measure for a given year; see Cowell and Victoria-Feser (1996, 2007) and Cowell and Flachaire (2007). This sensitivity can also introduce spurious volatility in a time series of inequality estimates." Jenkins, s. 262.

[2] Mer detaljerat så förklarar Jenkins det så här: "Fourth, I provide new analysis of issues that arise when fitting a Pareto model to the upper tail of the income distribution, and hence of direct relevance to researchers applying the semiparametric Approaches A and C. My findings are relevant to analysis of other heavy-tailed distributions such as wealth (Shorrocks et al. 2015; Vermeulen
2014), and city and firm size (Eeckhout 2004; Gabaix 2009, 2016). I use unit record tax return data rather than grouped (bracketed) data and so have flexibility to explore a number of econometric issues. (On estimation issues that arise with grouped tax return
data—the only source available for deriving very long historical series—see Atkinson (2005, 2007) and references therein.) For instance, for the Pareto Type I model, I compare the performance of ordinary least squares, maximum likelihood and maximum
likelihood-robust estimators." (s. 264) 

[3] Jenkins diskuterar problemet att OLS ger får låga standardfel här eftersom de rangordnade inkomsterna är autokorrelerade. Han använder ML-estimatorer för att få korrektare standardfel. 

[4] "This is particularly acute for the Theil index, which is unsurprising because it is the most top-sensitive of the three indices. Thus Figure 10 illustrates well the sensitivity problems analysed by Cowell and Flachaire (2007), and also their conclusion that in terms of performance in finite samples, there is little to choose between the Gini coefficient and the mean logarithmic deviation (L)." (s. 284) Cowell och Flachaire-artikeln som han hänvisar till är "Income distribution and inequality measurement: the problem of extreme values", publicerad i Journal of Econometrics 2007.

  [5] Här refererar Flachaire, Lustig och Vigorito till en artikel som ser intressant ut av Meyer och Mittag, publicerad i AEJ:AE, 2019: “Using Linked Survey and Administrative Data to Better Measure Income: Implications for Poverty, Program Effectiveness, and Holes in the Safety Net”. 

[6] Flachaire, Lustig och Vigorito säger dock (s. 1040) att: "the survey reporting pattern we obtain (overreporting in the lower tail and underreporting at the top) is in line with previous findings from the survey earnings validation literature (Adriaans et al 2020)."

[7] Det är rätt tekniskt men så här förklarar de skillnaden:


 [8] Shorrocks (1980) förespråkade MLD som det “most satisfactory of the decomposable measures” eftersom det rent delar den totala ojämlikheten i ojämlikhet inom grupper och mellan grupper, vad Foster och Shneyerov (2000) kallar path independent decomposability. Se s. 268-269 i Cowell och Flachaires artikel. 

[9] I en fotnot här har de en intressant teknisk diskussion om hur man ska jämföra ökningstakten i ojämlikhetsmått som mäts på helt olika skalor: "Clearly growth/change comparisons of inequality depend on the cardinalization of the inequality indices. In principle any cardinalization could be used, but it makes sense in practice to confine attention to those that are used in practice. There are no alternative cardinalizations of the Gini coefficient that are used in the literature. However, in the case of the MLD, there is an alternative cardinalization in current use: the Atkinson inequality index with parameter 1 is given by A_1 (x) = 1− g/𝜇, where g is the geometric mean. Using [ekvation 9], it is clear that A_1 (x) = 1− exp (−I_0), and so growth (A_1) = 𝜆growth (I_0),where 𝜆 = I_0 [1− A_1] ∕A_1 = I_0∕ [exp(I_0) − 1] = 1∕ [(1/2!) I_0 + (1/3!) I^2_0 + ...]< 1. Therefore, the proportional changes in A_1 will be less than those of I_0. However, for our data, this change in growth rate attributable to the change in cardinalization is relatively modest, as 𝜆 ranges from 0.71 to 0.89. In no case is the conclusion that the Gini understates the changes in inequality reversed." (s. 271-272)