fredag 6 juni 2025

Toppinkomster, ojämlikhet och metod

 

Nationalekonomen Stephen P Jenkins, professor vid LSE, börjar en artikel från 2017 på ett tydligt sätt: forskningen om inkomstojämlikheten och dess utveckling är, säger han, tudelad. Å ena sidan har vi forskning och debatt som bygger på hushållssurveys och rapporterar fördelningen för ojämlikheten i hushållsinkomster för befolkningen som helhet, med mått som Gini-koefficienter och andra mått som just ska fånga hela distributionen. Å andra sidan har vi toppinkomstlitteraturen som uttryckligen handlar om den ekonomiska eliten, om toppinkomsttagarna och deras andel av den totala inkomsten. Denna litteratur bygger på skattedata, inte på hushållssurveys. 

De två litteraturerna skiljer sig alltså åt både i material och i metod, och når också olika slutsatser, säger Jenkins: toppinkomstlitteraturen visar en kraftig ökning i inkomstojämlikheten (egentligen: koncentrationen) de senaste decennierna i USA och Storbritannien, medan den survey-baserade litteraturen visar mycket mindre ökningar. För Storbritannien ökade toppercentilens andel med 29 procent mellan 1996 och 2007, medan Gini-koefficienten ökade med 7 procent; för USA ökade toppercentilens andel samma period 30 procent och Gini-koefficienten bara 2 procent.


Syftet med Jenkins artikel är att triangulera de två metoderna. Han kombinerar skattedata -- för de rika, som är underrapporterade i surveys -- och hushållsdata för alla andra för att ge en sammantagen bild, och för att kunna diskutera skillnader i vad olika mått ger för bild av ojämlikheten. Det finns två skäl till att surveydata inge ger någon bra bild av toppinkomster, säger han. Det första är att höginkomsttagare tenderar att inte svara på surveys, och att de som kodar ibland toppkodar inkomster (dvs sätter alla inkomster över en viss gräns på gränsnivån). Det andra är att ett slumpmässigt sample per se inte kommer ge någon precis bild av den högra svansen på fördelningen, där variationen är väldigt hög. [1]

Det finns tre sätt att korrigera för dessa problem när man ska beräkna ojämlikhet, säger Jenkins. De sammanfattas i diagram 1 som jag klistrat in ovan. Approach A använder bara surveydata men beräknar den rikaste percentilens eller så andel genom att passa en Pareto Typ I-distribution till observationerna från surveyn. Man kan sedan beräkna (a) ojämlikheten i toppgruppen, (b) ojämlikheten i icke-toppgruppen, och (c) ojämlikheten mellan de två grupperna. Cowell och Flachaire (2007) ger en utförlig diskussion av denna approach, medan Ruiz och Woloszko (2015) och Burkhauser et al (2012) använder approachen uttryckligen för att komma över problemet med underrapportering av toppinkomster i surveys, i Burkhauser et als fall US-amerikanska Current Population Survey. Jenkins är dock skeptisk till hur framgångsrik approach A är; han menar att både Atkinston et al (2011) och Burkhauser et al (2012) visar att Pareto typ I-distributionen kommer underskatta toppinkomsttagarnas inkomster.

Av detta skäl finns det anledning att vända sig till skattedata för att få fram faktiska toppinkomster som kan komplettera surveydata. Det gör man i approach B och C. Approach B "replaces the highest incomes in the survey with cell-mean imputations based on the corresponding observations in the tax return data." Denna metod används t ex av Burkhauser et al (2016), som använder World Top Incomes Database (numera WID.world) toppinkomstandelar som benchmark.

Approach C är det angreppssätt som Jenkins följer i artikeln, och den kombinerar estimat från både A och B: "It is thus identical to Approach A except that it uses both survey and tax data rather than only the former; it is this feature that addresses the under-coverage problem." Denna approach utvecklades av Atkinson (2007) som också i en artikel från 2011 applicerade den på USA, varpå Alvaredo (2011) applicerade den både på USA och Argentina, medan  Lakner och Milanovic (2016) använde den på global inkomstfördelning.

Jenkins säger att hans artikel gör fyra bidrag till litteraturen. Ett, substantiellt så är det viktigt att beskriva utvecklingen i den ekonomiska ojämlikheten i Storbritannien sedan 1990-talet på ett korrekt sätt. Två, hans metodologiska jämförelse kan undersöka ifall approach B och C ger samma resultat när man använder dem på samma källor. Tre, han ger nya empiriska belägg i frågan om hur grov under-representationen av toppinkomsttagare är i brittiska surveydata. Fyra, resultaten talar till litteraturen om hur effektivt det är att använda en Pareto-distribution för att skatta toppdelen av inkomstfördelningen. [2] De flesta ojämlikhetsforskare har använt en Pareto typ I och utgått från att det funkar väl, vilket också Atkinson, Piketty och Saez (2011) argumenterat för, men Jenkins jämför systematiskt (med goodness of fit) Pareto typ I med Pareto typ II ("generalized Pareto") och visar att de senare passar bättre i princip alla fall. Jenkins bidrar i den här metodfrågan också med en utforskande diskussion om var gränsen i inkomstfördelningen egentligen går, över vilken det är rimligt att applicera en Pareto-modell; olika toppinkomststudier har t ex använt topp 10 %, topp 5 % eller topp 1 %. Jenkins diskuterar olika föreslagna kriterier för var man ska börja applicera en Paretofördelning (t ex från Coles 2001 och Clauset et al 2009) och argumenterar för att man också måste undersöka var i fördelningen som surveydatat börjar tappa i representation. I Storbritannien på 1990-talet finner han att det händer för toppercentilen, medan det på 2000-talet sker från den 95:e percentilen och uppåt.

Skattedatat som Jenkins använder är Survey of Personal Incomes för varje år från 1995 till 2010 förutom 2008. Detta är samma data som Atkinson (2005) använt tillsammans med tidigare tabuleringar av SPI och några skatteserier för att beräkna toppinkomstandelar tillbaka till 1908. SPI ger information på individnivå. (s. 265-266) För att göra beräkningarna jämförbara med toppinkomstlitteraturen begränsar Jenkins sitt sample till britter som är 15 år gamla eller äldre. Surveydatat han använder är Family Resources Survey för samma år som SPI-datat. Detta är en tvärsnittsurvey med ungefär 20 000 hushåll per år. FRS fokuserar på inkomster efter skatter och socialförsäkringar, men utifrån Burkhauser et al (2016) beräknar Jenkins istället förskatteinkomster på individnivå, för att göra survey-beräkningarna jämförbara med skattedata-beräkningarna.

Den första empiriska sektionen handlar om hur stor underrapporteringen av toppinkomster är i surveydatat. På 1990-talet ger surveydatat en bra bild av inkomsterna upp till ungefär den 95:e percentilen; på 2000-talet missar detta dataset helt den stora ökning av toppinkomsterna som man ser i skattedatat. Täckningen av toppinkomster blir sämre över tid vilket kan innebära att det är olämpligt att använda samma cut-off för att börja korrigera med skattedata hela tiden.


Jenkins går vidare med att diskutera hur man applicerar Pareto-modeller till toppinkomsterna. För en Pareto I-modell visar överlevnadsfunktionen S(x) andelen av befolkningen som har en inkomst som är över x, det vill säga 1- den kumulativa distributionsfunktionen F(x): 

S (x) = 1 - F (x) = (x/x_m)^-α 

där x > x_m > 0 och x_m > 0 är inkomsternas lägre gräns. Parametern α är "the shape parameter (‘tail index’) describing the heaviness of the right tail of the distribution, with smaller values corresponding to greater tail heaviness." (s. 271) För en Pareto II-modell är överlevnadsfunktionen:

S (x) = [1 +  ξ ((x - λ) / σ)]^1/ξ , ξ > 0

där x > λ är en location parameter, σ > 0 är en scale parameter och ξ är the shape parameter, alltså motsvarande alfa i Pareto I-modellen. Om ξ är = 1/alfa, λ = x_m, och σ = x_m/alfa, så är Pareto I och II-modellerna ekvivalenta.

Pareto II-modellen är mer komplex och kanske mer realistisk för att imputera toppinkomster, men förbättringen i goodness of fit kan vara liten och kanske inte motiverar den ökade komplexiteten jämfört med Pareto I, säger Jenkins. (s. 272) Han testar båda två på inkomstdata. Man behöver sätta en gräns (x_m respektive lambda) över vilken man vill beräkna fördelningen; han provar med 95:e och 99:e percentilen. I Pareto I kan man beräkna α på två sätt: först en OLS-regression där den logaritmerade överlevnadsfunktionen regressers på logaritmerad inkomst och en konstant, och idealiskt ska man då få en Zipf plot ("a plot of the log of the survivor function against logarithms of income (for incomes in ascending order and greater than x_m") som har en lutning som är -α. Atkinston (2016) redovisar också andra metoder för att beräkna α; Jenkins finner att Zipf-metoden fungerar bäst, och redovisar därför bara de resultaten i pappret, och de andra i Appendix. [3] För att beräkna Pareto II-mdodellen använder han ML-regressioner utifrån Roodman (2016).

För att utifrån dessa metoder beräkna ifall toppinkomsterna verkligen är Pareto-fördelade, börjar Jenkins med Zipf plots. Detta "eye test" är dock inte tillräckligt (Cirillo 2013) och han använder också mean excess plots som visar medelinkomsten ovanför olika tröskelvärden. "For Pareto distributions, the graph is a positively-sloped straight line above some minimum income; deviations from linearity are evidence of non-Paretianity." (s. 273)  Zengakurvor är dock ännu bättre belägg, en omvandling av en Lorenzkurva L(u) enligt formeln: Z(u) = (u - L(u)) / (u[1-L(u)], 0 < u < 1. "For Pareto distributions, the Zenga curve is positively-sloped and rises as u --> 1, and the higher the curve, the more heavy-tailed the distribution." (s. 274) Sammantaget så säger dessa plots att inkomstskattedatat är Pareto-fördelat, möjligtvis med undantag för år 1995, och att tröskelvärdet över vilket Paretofördelningen träder in, kan variera över tid.

Graferna räcker inte för att räkna ut ifall Pareto I eller Pareto II funkar bäst. För att avgöra detta använder Jenkins två metoder. Den första är "a straightforward likelihood ratio test." Den andra är "comparisons of probability plots, specifically ‘PP’ plots graphing values of p = F(x) predicted from each model against the values of p in the data, with a different plot for each threshold. Plots that lie wholly along the 45° line from the origin indicate perfect goodness of fit." (s. 275) Se diagrammen längst upp i inlägget för den första metoden, där de streckade linjerna betecknar signifikansnivåerna 0.05, 0.01 och 0.001. Med detta sannolikhetskriterium borde vi välja Pareto I över Pareto II bara när tröskelvärdet för Pareto-fördelningen är extremt högt. (s. 276) PP-plottarna visar att både Pareto I och Pareto II gör bra ifrån sig men att Pareto II är bättre när lägre tröskelvärden applicerats.

Eftersom båda goodness of fit-testerna säger att valet mellan Pareto I och Pareto II beror på vilket tröskelvärde man använder, så går Jenkins vidare med att diskutera just denna fråga. Frågan har tidigare utvärderats av Coles (2001) och Clauset et al (2009) som gått igenom Zipfplottar, plottar av parametrar mot tröskelvärden (för Pareto I α mot tröskel t, för Pareto II ξ och σ* = σξ - t mot t), men i Clauset et als fall istället rekommendderat ett mer "objektivt" och ur principer härlett mått på avståndet mellan power law-modellen, Paretomodellen, och ens empiriska data. Clauset et al förespråkar i denna anda Kolmogorov-Smirnov-testet som mäter avståndet mellan två kumulativa fördelningsfunktioner, datats funktion och Pareto-modellens function. Det avstånd som KS-testet ger, och som kallas D, är alltså, säger Jenkins, en sammanfattning i en siffra av den information som grafiskt visats i en PP-plot. Figur 7 visar hur estimaten av shape-parametern (α för Pareto I, ξ för Pareto II) blir med tre olika beräkningsmetoder och med olika tröskelvärden. Jenkins påpekar att de två översta bilderna, för Pareto I, visar att estimaten av α kan svaja rätt rejäkt beroende på vilket tröskelvärde man sätter och vilken beräkningsmetod man använder; för 1996-datat varierar skattad α mellan 2.5 och 2 beroende på om tröskelvärdet sätts till P95 eller P99.5, vilket ger stort utslag i beräknad Gini-koefficient. För Pareto II är de skattade shape-parametrarna mer stabila.

Följande diagram, Figur 8, visar vilka tröskelvärden som är bäst enligt KS-testet. För Pareto I är det runt percentil 99.5, alltså den övre halvan av den översta percentilen; för Pareto II är den runt P99. Slutsatsen som Jenkins drar av dessa olika tester och diagnostiska grafer är att Pareto I-estimat är känsliga för vilket tröskelvärde man väljer. (s. 279)

Till slut så kommer Jenkins till själva ojämlikhetsberäkningarna. Han börjar med en mycket enkel dekomponering där total inkomstojämlikhet är = ojämlikhet inom toppinkomstgruppen + ojämlikhet inom resten + ojämlikhet mellan de två grupperna, vilket definieras som den ojämlikhet som skulle vara om varje person hade medelinkomsten i sin grupp. Ojämlikhetsmått som kan dekomponeras på detta sätt är till exempel mean logarithmic deviation (L), och Theil-indexet (T). Eftersom de två grupperna här inte kan ha överlappande inkomster, så kan också Gini-koefficienten dekomponeras i detta sammanhang. För Ginin använder han en formel från Atkinson (2007) och Alvaredo (2011), också diskuterad av Cowell (2013):

Gini, G = P_R * S_R * G_R + P_N * S_N * G_N + G_B

där P är andelen av befolkningen som tillhör gruppen (P_R = andelen "rika", P_N = "non-rich"), S är inkomstandelen för gruppen, och G_B är ojämlikheten mellan grupper, G_B = S_R - P_R. S_R är = P_R * μ_R/μ, där μ_R är medelinkomsten för gruppen rika, och μ är medelinkomsten överlag, som kan beräknas som P_R * μ_R + P_N * μ_N.

Pareto I och Pareto II kommer ge olika resultat för ojämlikheten, G här eftersom de ger olika bild av parametrarna G_R och μ_R. Om μ_R är högre så kommer S_R och G_B bli större och därmed också G, ifall inte den högre μ_R övertrumfas av en mycket lägre G_R. Som Jenkins diskuterat utförligt med valet av tröskelvärden, är det upp till forskaren att definiera P_R. Han laborerar med tre alternativ: P90, P95 och P99, alla beräknade från surveydatat. Han beräknar Gini och MLD utifrån surveydatat, och jämför i ett Appendix också med Pareto-parametrarna μ_R, G_R, L_R och T_R från skattedatat som ju har mycket bättre täckning av de rika. Figur 9, inklistrad nedan, visar resultaten för μ_R, S_R, G_R och den totala Ginin, med olika tröskelvärden för när Pareto-imputeringen ska sättas in. Oavsett metodval så ser man att Gini-koefficienten ökade mellan 1996 och 2007, och sedan minskade igen. Att använda ett högre tröskelvärde ger högre estimat för μ_R, S_R och G_R. För den resulterande totala G är Pareto II-estimaten mindre känsliga än Pareto I; för Pareto II varierar estimaten för ett givet år bara med ungefär +- en procentenhet, medan för Pareto I är variationen +-2,5 procentenheter.


I diagram 10 jämför Jenkins sina beräkningar av Gini, MLD och Theil med tidigare beräkningar med andra data. Beräkningarna av nivåer varierar en hel del, medan trenderna ser ut ungefär samma. Figur 10 visar också problemen med surveydatat: både om han bara använder botten 95 procent av surveydatat, eller det hela, så får han fram att ojämlikheten föll mellan 1995 och 2007, trots att den enligt beräkningarna i Figur 9 steg. Theil-indexet, som är starkt styrt av vad som händer i toppen av fördelningen, är allra mest missvisande här. [4] Jämförelsen visar att det är bättre att använda Pareto-imputeringar i toppen, än att använda surveydata och inte veta att man missar toppen. (s. 285)

I sina slutsatser gör Jenkins en tydlig varning för att använda surveydata utan toppjustering, och säger att så länge man inte gör det misstaget, så får man en ganska entydig bild av hur inkomstojämlikheten utvecklades i Storbritannien från mitten av 90-talet till mitten av 00-talet. Jenkins rekommenderar att man använder Pareto II-fördelningen för att skatta toppinkomsterna. Han slår också ett slag för omfattande ojämlikhetsmått -- som Ginin -- som ger någon vikt till alla delar av inkomstfördelningen, olikt ett koncentrationsmått som toppercentilandelen som inte säger någonting om de lägsta 99 procenten. 


Diskussionen om användning av Pareto-modeller för att fånga ojämlikhet i inkomster och förmögenhet  har minst sagt fortsatt sedan dess. Nationalekonomen Emmanuel Flachaire, verksam vid Aix-Marseille Université, har skrivit flera artiklar i ämnet, den första av vilka som jag kollat på tillsammans med Arthur Charpentier, verksam vid Université du Québec à Montréal, publicerad i Journal of Economic Inequality 2022, med den enkla och tydliga titeln "Pareto models for top incomes and wealth". De börjar med en effektiv introduktion:

"Income and wealth distributions are skewed to the right, with thick upper tails. Thus, microdata samples often exhibit outliers, from which sample inequality indices can be severly distorted, even in large sample (Cowell and Victoria-Feser 1996). The upper tail of income distribution is then often modelled with a parametric distribution, such as the Pareto distribution.
In his initial work on income and wealth distributions, Vilfredo Pareto suggested several parametric models (Pareto 1895, 1896). The term “Pareto distribution” refers to both Pareto I and Generalized Pareto distributions. Rytgaard (1990) wrote that the Pareto I distribution is the commonly used definition of the Pareto distribution in Europe, and the Generalized Pareto distribution in America. To some extent, this distinction could also be made between economists and statisticians." (s. 1-2)
Nationalekonomer som sysslar med ojämlikhet har huvudsakligen använt Pareto I-fördelningen, säger Charpentier och Flachaire. Detta har folk gjort både i studier av mikrodata (Davidson och Flachaire 2007, J of Econometrics; Cowell och Flachaire 2007, J of Econometrics; Burkhauser et al 2011, Restat; Alfons et al 2013, J of the Royal Statistical Society C; Hlasny och Verne 2016, World Bank Econ Review; Vermeulen 2018, ROIW; Higgins et al 2018; Lustig 2018, WP-version) och studier av tabulerade data (Atkinson et al 2011, J of Econ Lit; Lakner och Milanovic 2015, World Bank Econ Rev; Atkinson 2017, Economica). Den breda användnigen reflekterar att Pareto-fördelningen är enkel och praktisk att använda, säger Charpentier och Flachaire: "The density, the cumulative distribution function and the quantile function are simple power functions, with a single parameter to estimate, which can be related to theoretical models that can explain the generation of his thick upper tail (Gabaix 2009, Annual Rev of Econ; Jones 2015, J Econ Persp; Benhabib and Bisin 2018, J Econ Lit)."

Stephen Jenkins publicerade nyligen en artikel, säger Charpentier och Flachaire, där han ställde frågan vilken Pareto-modell som bäst passar för studier av toppinkomster. Jenkins empiriska test på Storbritanniens inkomstfördelning från 1995 till 2011 visade att Generalized Pareto Distribution (GPD) passade bäst; Charpentier och Flachaire ger i sin artikel en teoretisk grundval för detta resultat, och går vidare med diskussionen. Deras argument och bidrag är:

"We first show that the Pareto I distribution is very sensitive to the choice of the threshold. In particular, a threshold too low can lead to over-estimate the heaviness of the distribution and, thus, to over-estimate inequality. This bias comes from a misspecification, it does not disappear as the sample size increases. Next, we show that the GPD is less sensitive to the threshold, but its estimation is less accurate. We also show that the Pareto I behaves like the GPD only at (much) higher threshold. Then, we introduce the Extended Pareto distribution (EPD), which is even less sensitive to the threshold and which provides more reliable results. Finally, we discuss different types of bias that could lead to under- or over-estimate inequality in practice, and we illustrate our findings through two applications, on income distribution in South-Africa in 2012 and on wealth distribution in the U.S. in 2013." (s. 2)

Diskussionen om vilket tröskelvärde man ska välja har hållt på länge, och C och F menar att två huvudsakliga approacher har använts för att lösa problemet. Den ena är att leta och testa efter den mest precisa modellen; Fedoteknov (2018) går i en översiktsartikel igenom fler än 100 Pareto-modelleringar av toppen av en fördelning. Den andra är att utveckla en mer flexibel modell, "an easy way to reduce bias, but it comes at the cost of higher variance". Charpentier och Flachaire väljer denna väg. 

Det är en teknisk artikel men i introduktionen har de en intressant substantiell motivering till varför artikeln är viktig för ojämlikhetsforskningen och dess läsare:

"An important implication of our results, discussed in the conclusion, is to reconsider two common beliefs in empirical studies of income inequality. Indeed, it is widely believed that inequality measures are: (1) under-estimated from surveys, because these data are subject to topcoding, censoring and underreporting of the rich; (2) more reliable from tax data, because there is no topcoding or censoring and these data are much less sensitive to misreporting. Our results show that inequality can be strongly over-estimated from surveys and from tax data, if the selected threshold is too low." (s. 2)

Efter introduktionen börjar själva undersökningen med att definiera Pareto I-fördelningen. Den har medelvärde u > 0 och dess tail parameter är α. Då är dess probability density function, PDF lika med:

f (x) = (α * u^α) / (x^α+1) 

och dess cumulative density function CDF är:

F (x) = 1 - (x / u)^-α när x > u.

Pareto I har använts flitigt för att estimera de översta delarna av inkomst- och förmögenhetsfördelningarna; P I-fördelningen har en attraktiv egenskap i att medelvärdet över tröskeln är proportionerligt till tröskeln och att det inte beror på skal-parametern u.

E (X | X > u') =  αu' / (α -1), α > 1 

när u' är >= u. Charpentier och Flachaire förklarar med ett exempel från Piketty (2007) och Atkinson et al (2011): om den inverterade Pareto-koefficienten α/(α-1) är 2, så är medelinkomsten för alla individer som tjänar mer än $100 000 lika med $200 000, och medelinkomsten för personerna med inkomst över $1 miljon är = $2 miljoner. Minst sagt praktiskt! Dessutom kan, visar Jones (2015), enkla ekonomisk-teoretiska modeller förklara mekanismer som ger upphov till Pareto-fördelningar.

För den Generaliserade Paretofördelningen GPD, som Jenkins kallar Pareto II, med tail parameter α > 0 definerar de CDF:en så här:

F (x) = 1 - [1 + (x-u/σ)]^-α där x > u.

Skala-parametern σ är positiv och u är lower-bound.  Om Pareto I modellerar relativa överskotten X/u givet X > u, så modellerar GPD absoluta överskott X-u givet X > u. Anledningen till att Charpentier och Flachaire kallar fördelningen som Jenkins kallar Pareto II gör den generaliserade Paretofördelningen är eftersom man kan se Pareto I som ett specialfall av Pareto II, där σ = u: 

GPD (u, u, α) = P_1 (u, α)

Med GPD låter man modellen bestämma om den högra svansen av fördelningen ska modelleras som en power law av relativa överskott (α = u) eller av absoluta överskott (α är inte lika med u). I GPD beror medelinkomsten över tröskeln, u' >= u, på alla parametrarna:

E (X | X > u') =   (σ - u) / (α - 1) + (α / α-1) u'.

Statistiker som arbtar med extremt skeva fördelningar tenderar att använda GPD eftersom dess excess distribution function fungerar väl med mycket höga u.

Liksom Jenkins så konstaterar Charpentier och Flachaire att det är väldigt svårt att välja tröskelvärdet u, vilket är problematiskt eftersom ens resultat är starkt beroende av vilket tröskelvärde man väljer. Observationerna över u är de k största värdena i fördelningen och dessa k värden antas vara Pareto-fördelade, med tail index α. När man ska bestämma u möter man en trade-off mellan bias och varians: om man sätter tröskelvärdet för högt är k litet och beräkningarna kan bli volatila; sätter man tröskelvärdet för lågt blir variabiliteten lägre men bias större. Deras diagram 1 illustrerar hur estimaten av α fluktuerar med valet av u för Pareto I (vänster) och GPD (höger), för fiktiva samples med 1000 observationer skapade enligt en GP-fördelning. Diagrammet visar att medelvärdet inte varierar för GPD-estimaten, vilket betyder att de inte har bias utifrån vilket u man valt, men att deras varians däremot är väldigt mycket större än vad variansen för Pareto I-estimaten är.

De går vidare med att presentera Extended Pareto Distribution, EPD. Detta motiveras med att Pareto I presterar dåligt om man inte sätter tröskelvärdet väldigt högt. EPD: plockar de upp från Beirlant et al (2009) och de definierar den så här:

F (x) = 1 -[(x/u) (1 + δ - δ(x/u)^τ)]^-α där x > u, τ =< 0 och δ > max(-1, 1/τ).

Pareto är ett specialfall där δ = 0 och GPD är ett specialfall där τ = - 1. För EPD finns det inte någon enkel approximering av medelvärdet över tröskelvärdet och man behöver själv beräkna det. Efter att ha introducerat EPD går de vidare med att jämföra dess precision och bias i att beräkna tail parameter α, med hur Pareto I och GPD presterar. Beräkningarna i Fig 2 bygger på 1000 simulerade samples med 50 000 observationer var, Singh-Maddala-fördelningar som liknar 2013 års US-amerikanska inkomstfördelning. Fig 2 visar, säger de, att Pareto I-modellen konsekvent underskattar α, vilket innebär att den kommer överskatta inkomstojämlikheten. GPD tenderar tvärtom till att överskatta α. EPD har, som vi ser, mycket mindre bias: med lägre tröskelvärde hamnar den beräknade α under det faktiska värdet, men inte med alls så stort fel som GPD eller, framför allt, Pareto I. I Figur 3 (inte visad här) visar de att även om samplet är mycket stort (1 miljon observationer) så återstår bias för Pareto I och GPD.



De fortsätter med simuleringar med olika tail parameters, mer och mer olika en ren Pareto-fördelning med konstant α oavsett vad man sätter tröskelvärdet. Atkinson et al (2011) säger att i praktiken så varierar α mest mellan 1,5 och 3; de beräknar ^α i fördelningar som har det faktiska värdet α = 3, och fördelningar som avviker från Pareto i att istället ha stigande ρ genom fördelningen. Också här underskattar Pareto I-modeller α vilket överskattar ojämlikheten; GPD har mindre bias men mer varians; och EPD presterar bättre än både Pareto I och GPD. Också när det faktiska värdet är α = 1.5 strular Pareto I-till det.

I empiriska studier beräknas den övre svansen ofta från diagram, säger Charpentier och Flachaie. Man kan också beräkna, för en Pareto I-fördelning: log (1 - F(x)) = c - α log x där c = α log u. Utifrån detta kan man göra en plot med logaritmerade inkomster på x-axeln och den logaritmerade överlevnadsfunktionen på y-axeln: log x, log (1 - F(x))). Detta är en Zipf plot, som visar andelen av befolkningen med inkomst > x gentemot x självt. Om fördelningen är strikt Pareto, så ska plotten visa en linjär funktion med en lutningskoefficient som motsvarar α. 

Det finns dock tre orsaker till att bias uppstår när man ska beräkna α, säger de: misspecification bias, estimation bias, och sampling bias. Jag lämnar deras detaljerade diskussioner om dessa tre problem därhän, men noterar bara att i sampling bias-diskussionen utgår de från den klassiska ojämlikhetsdiskussionen om de rikas underrepresentation i surveydata, och de påpekar att de utvecklat program i R ("TopIncomes") för att korrigera för detta problem.

Efter diskussionerna om de tre källorna till bias, kommer de till sina illustrerande exempel: en analys av inkomstfördelningen i Sydafrika år 2012, och en analys av förmögenhetsfördelningen i USA år 2013. Inkomstdatat för Sydafrika är ett sample med 7990 hushåll, inkluderad i Luxembourg Income Study. De börjar med en graf (Figur 8, nedan) som visar vad för α som beräknas för fördelningen i Sydafrika utifrån olika tröskelvärden (k) och med Pareto I, GPD eller EPD. Detta följs av Figur 9 som visar resulterande estimat av toppercentilens andel av inkomster., för olika tröskelvärden. Diagrammet visar att med Pareto I-modellen så ökar den estimerade inkomstkoncentrationen när k växer, vilket hänger ihop med att beräknade α ju faller med stigande k och Pareto I, vilket vi sett i Figur 8. Med beräkningar baserade på GPD och EPD blir estimaten av toppercentilandelen mycket stabilare.


 

Charpentier och Flachaire visar med nästa diagram (Fig 10) som är ett Paretodiagram, hur överskattningen av ojämlikheten uppstår med Pareto I-modellen: med för låga k underskattas α och därmed överskattas inkomsterna i the upper tail

Efter Sydafrikas inkomstfördelning modellerar Charpentier och Flachaire förmögenhetsfördelningen i USA år 2013 med olika Pareto-modeller. Också här utgår de från hushållssurveydata från Luxembourg Wealth Study. Också här har Pareto I-modellen stora problem.

I slutsatserna börjar Charpentier och Flachaire också just med att varna för att Pareto I-modellen, som är så flitigt använd i ojämlikhetsstudier, ger orimliga resultat när man använder för låga tröskelvärden; då underskattas tail index och därmed överskattas ojämlikheten. GPD presterar bättre, och EPD presterar ännu bättre. De citerar Atkinson, Piketty och Saez välkända översiktsartikel ur toppinkomstlitteraturen där APZ estimatar tail-parametern som ration från topp 5 procentens inkomstandel till toppdecilens inkomstandel, och säger att toppinkomstandelar är underskattade i surveystudier pga bortfall i toppen av fördelningen. Charpentier och Flachaire säger att det visserligen är sant om fördelningen är strikt Pareto över 90:e percentilen och man inte har stora outliers, men de pekar på att om dess antaganden inte håller, så kan man underskatta α och därmed överskatta ojämlikheten med APZ metod. De avslutar med att peka på att Jenkins (2017) arbetat med skattedata, som inte har problemen med bortfall som surveydata har, och att han ändå fann att Pareto I:s optimala tröskelvärde var vid den 99,5:e percentilen -- mycket högre än vad folk typiskt använder som tröskelvärden. Charpentier och Flachaire avslutar lakoniskt: "This suggests that fitting Pareto models to tax data should be done with more caution than has been done so far." (s. 23)


Bara ett år senare publicerade Flachaire ännu en artikel i ämnet, denna gången med nationalekonomerna Nora Lustig (Tulane University) och Andrea Vigorito (Universidad de la República i Uruguay, numera anställd vid UNDP). I denna artikel är utgångspunkten de välkända problemen med att surveydata ofta missar de rika: eftersom att rika människor inte vill svara på surveys om sina inkomster, eftersom samplen är för små, eller på grund av mätfel, t ex att de rika uppger mindre inkomster än vad de faktiskt har. [5] Därför har under 2010-talet en rad metoder utvecklats för att överkomma problemet med bias i surveydata: att komplettera surveys med nationalräkenskaper (Piketty, Saez och Zucman 2018), skattedata eller socialförsäkringsdata (Burkhauser et al 2016; Jenkins 2017; Piketty et al 2019), med fler surveys (Fisher et al 2022), eller med s k rich lists (Brzezinski 2014).

Flachaire, Lustig och Vigoritos artikel fokuserar på att utforska korrigeringsmetoder för underrapportering av inkomst i toppen av inkomstfördelningen. Framför allt två metoder används i litteraturen; Hlasny och Verme (2018) etiketterar dessa som "replacing" och "reweighting". Dock så bygger båda metoderna, säger FLV, på antaganden som i sig inte går att testa empiriskt, framför allt om vilket tröskelvärde man ska välja för var surveys börjar underrapportera inkomster. "The biggest challenge in applying correction methods is that the true income distribution is unknown; therefore, one does not know the threshold above which underreporting occurs." (s. 1034) FLV använder simuleringsmetoder för att testa hur känsliga korrigeringsmetoderna är för vilka tröskelvärden som väljs. Dels så simulerar de en hypotetisk faktisk fördelning, dels en hypotetisk fördelning som lider av underrapportering i övre svansen. En fördel med simuleringar här är att de kan isolera problemet med underreporting och bortse från det i faktiska dataset parallellt förekommande problemet med sampling error. Deras simulerade datas fördelning baserar de på ett unikt dataset från Uruguay där ett subset av landets officiella inkomstsurvey har länkats till samma personers skattedeklarationer. Figur 2 visar att survey-underrapporteringen av inkomst är störst bland höginkomsttagare, som förväntat: toppercentilen i skattedatat rapporterar bara 60 procent av sina beskattade inkomster i hushållssurveyn. Mer oväntat är kanske att folk längst ner i inkomstfördelningen faktiskt uppger högre inkomster än vad de har enligt skattedatat. [6]


Deras simuleringstester börjar med en simularad Singh-Maddala-fördelning där a och q är shape parameters, b är en skala-parameter och y > 0. De sätter dess parametrar utifrån Uruguays inkomstfördelning, som de beräknat baserat både på hushållssurveyn och på skattedatat. De förklarar i detalj hur de utifrån denna "korrekta" simulerade fördelning sedan skapar en biased simulerad fördelning utifrån de parametrar för underrapportering som de beräknat utifrån jämförelsen mellan survey och skattedata. De sätter underrapporteringen under fördelningens median till 0, medan de för hushållen mellan medianen och 90:e percentilen sätter r(p) som 0,25 + 1,5p där p är andelen underrapportering i det faktiska datat, p = F_y (y) och F_y (y) är CDF:n för den faktiska fördelningen. För den översta decilen sätter de underrapporteringen som -7,85 + 10,5p. Den "biased" simulerade inkomsten x ges då genom att dela den sanna inkomsten y med r(p) e, vars emedelvärde är r(p). Parametern σ anger heterogeniteten i hur mycket personer med samma inkomst underrapporterar sina inkomster; de sätter σ till 0,15. Deras plot med r(p) över inkomstfördelningen ser ut som den motsvarande plotten för Uruguays faktiska data, Figur 2 ovan, vilket är som det ska. 

Därefter visar de i Figur 4 den sanna simulerade fördelningens density function, jämfört med den biased simulerade fördelningens dito. Den biased fördelningen får en mycket högre peak i mitten av fördelningen, och en mycket tunnare svans till höger. Detta betyder att den biased fördelningen är mycket mera jämlik, vilket de också visar med en uppsättning konventionella ojämlikhetsmått: Gini-koefficienten, MLD, Theil, och så inkomstandelarna för toppdecilen, topp 5 procenten, och toppercentilen. Ginin faller t ex från 0,436 till 0,299 i den biased fördelningen, och toppdecilens andel från 33,9 procent till 22,6 procent. Väldigt stora effekter!

Från detta går de vidare med att diskutera de två olika approacherna för att kombinera skattedata och surveydata: replacing och reweighting. Replacing-approachen går ut på att ersätta vad man anser vara felrapporterade inkomster över ett visst tröskelvärde k, med kvantilerna från vad man anser vara den sanna fördelningen. Den nya fördelningen z som man gör sina beräkningar på kommer alltså bestå av 100-k procent från surveyfördelningen, och k procent från den kompletterande fördelningen. Baserat på z kan man enkelt beräkna ojämlikhetsmått som går att dekomponera, säger FLV: den totala ojämlikheten är (a) ojämlikheten inom 100-k-gruppen, (b) ojämlikheten inom k-gruppen, och (c) ojämlikheten mellan de två grupperna. Detta kan dekomponeras för Gini och andra mått med formler från Alvaredo (2011, Economics Letters) eller Cowell (2011, Measuring Inequality, 3e utg.). (s. 1042-1044) Topprocentandelar för v procent ovanför t definieras:

TS_r(v) = (v/100)𝔼 (y >= Q_y (1-v/100)) / μ_r = 

 (μ_y / μ_r ) * TS_y (v), om v =< k

μ_r är medelvärdet i den nya fördelningen och om v =< k så är toppandelarna i den nya fördelningen samma som toppandelarna i den sanna fördelningen, omskalat med medel-ration. Figur 5 illustrerar de tre fördelningarna -- den biased fördelningen, den "sanna" fördelningen med toppandelar, och den nyskapade fördelningen z, när man använder olika tröskelvärden för när man ska sätta in korrigeringen: 90:e percentilen, 67:e percentilen, medianen, 40:e percentilen eller 30:e percentilen. I en tabell visar de hur beräknade ojämlikhetsmått blir med replacing-approachen och de fem olika tröskelvärdena. Det förvånar mig att ojämlikhetsberäkningarna faktiskt hamnar närmst den faktiska fördelningen (faktiskt helt rätt) med låga tröskelvärden, säg att man korrigerar redan från den 40:e percentilen! Jag har aldrig tänkt att man skulle ersätta lägre än den 90:e percentilen så detta var förvånande för mig.


Den andra korrigerings-approachen är reweighting, att omvikta observationer i den biased källan för att ändå få blick på inkomsterna i toppen av fördelningen. Vikterna är då (ekvation 9):

w (x) = [ 𝜆, om x =< t

             [f_y (x) / f_x (x), om x > t

Och dem korrierade, omviktade fördelningen ges då av w(x) f_x(x), det vill säga:

f_w (x) = [ 𝜆 f_x(x), om x =< t

                [ f_y (x), om x > t

Den omviktade fördelningen är då den "sanna" fördelningen över t, och under t den biased fördelningen, omskalad med faktorn 𝜆. I teorin bör reweighting-strategin ge samma resultat som replacing-strategin, eftersom de båda bygger på att kombinera biased data under tröskeln med "sanna" data över tröskeln. Men, säger FLV, att beräkna datats densitet är komplicerat för höga inkomster som är skevt fördelade, och vikterna som definierats ovan kan därför vara opålitliga, och estimaten kan skilja sig rejält åt mellan replacing och reweighting. (s. 1047-1048) 

Blanchet, Flores och Morgan har i ett WID.World-working paper, "The weight of the rich", beskrivit den korrigeringsmetod som de använder i WID. Denna metod har ett första steg där survey-inkomsterna viktas enligt ekvation 9 ovan. I det andra steget dupliceras inkomsterna över tröskelvärdet och ersätts med observationer med motsvarande rank och vikt från skattefördelningen. Denna metod motsvarar i princip den reweighting-metod som beskrivits ovan, där vikterna från ekvation 9 används och appliceras i en ekvation 11 som jag inte återgett här. Också med denna metod kan man, som jag återgett för replacing ovan, beräkna den totala ojämlikheten som en summa av tre beståndsdelar: ojämlikheten i surveydatat under tröskelvärdet, ojämlikheten i skattedatat över tröskelvärdet och ojämlikheten mellan de två grupperna. Topprocentandelarna för de översta v procenten över tröskelvärdet beräknas:

TS_w(v) =  (v/100)𝔼 (y >= Q_y (1-s/100)) / μ_w =  (μ_y / μ_w ) * TS_y (v), om v =< 1

Detta är toppandelarna från skattedatat, omskalat av ration av medelvärden. När medelvärdet i den omviktade fördelningen är mindre (större) än medelvärdet i den sanna fördelningen, blir topp v procentandelen med v =< 1 biased uppåt (neråt). Liksom för replacing-strategin så visar de diagram med fördelningarna för surveydatat, skattedatat och det nyskapade, korrigerade hybriddatat, med olika tröskelvärden för korrigeringen, från 30:e till 90:e percentilen. Och i en tabell visar de resulterande ojämlikhetsmåtten med de olika beräkningarna: också här hamnar estimaten närmst den sanna ojämlikheten när låga tröskelvärden använts, säg 30:e eller 40:e percentilen, precis som i fallet med replacing-metoden. Reweighting-metoden är dock inte lika effektiv: medan replacing-estimaten närmar sig den sanna ojämlikheten snabbt när man minskar tröskelvärdet, så måste man med reweighting använda ganska låga tröskelvärden för att få precisa estimat. Detta bror på att replacing-fördelningen avviker från den sanna fördelningen bara lokalt (mellan den optimala tröskeln och den faktiska tröskeln) medan reweighting-fördelningen avviker från den sanna fördelningen mera globalt, överallt under tröskelvärdet.

Vi ser återigen att valet av tröskelvärde är väldigt viktigt, och nästa sektion i FLV:s artikel ägnas åt just detta val. De introducerar problemet som att man får stora problem med sina estimat om det finns underrapportering under ens tröskelvärde. Den metod som jag känner till för att sätta tröskelvärdet är nog den intuitiva eller tumregelsval: man säger helt enkelt att ovanför den 90:e percentilen eller så, så tänker man sig att det fins underrapportering. FLV refererar här till Burkhauser et al (2016, NBER WP), Chancel och Piketty (Indienpaper i ROIW, 2019), och Piketty, Yang och Zucman (Kinapaper i AER, 2019). Ett mer systematiskt sätt att välja tröskelvärde är att använda en kvantil-ratio-funktion:

t = max (Q_x(p)) så att Q_y(p) / Q_x(p) = 1

Det vill säga en funktion som identifierar den högsta percentilen i fördelningen där fördelningen i surveydatat, Q_x, ger samma värde som fördelningen i skattedatat, Q_y. Figur 3 visar kvantilratios från FLV:s simulerade data, och här ser man att kvantilratios börjar avvika från 1 redan före medianen! Baserat på figuren skulle man då börja korrigera redan från den 40:e percentilen.


En annan regel för att välja tröskelvärde föreslås av Blanchet, Flores och Morgan i "The weight of the rich: Improving surveys using tax data" (JOEI, 2022). Regeln är att välja:

t = max (z) så att F_x(z) / F_y(z) = f_x(z) / f_y(z) (ekvation 17)

FLV kommenterar denna metod så här: "This method is defined to ensure the continuity of the reweighting distribution in the upper tail. However, it is not designed to identify when the true and distorted distributions start to differ, and it often selects a threshold that is too high." (s. 1051) De pekar på att de två fördelningar som man jobbar med, surveydatat och skattedatat, kan korsas på flera ställen och att det är svårt att beräkna density ratios precist i mindre samples. Därför, säger FLV, får Blanchet, Flores och Morgan också mycket olika resultat för vad för tröskelvärden de ska använda när de utforskar högkvalitativa skattedata från Norge och Frankrike på 2000-talet: tröskelvärdena varierar mellan 60:e och 99:e percentilen. FLV beräknar tröskelvärden utifrån ekvation 17 baserat på sina simulerade "uruguayanska" data och visar att tröskelvärdet som man väljer utifrån Blanchet-Flores-Morgans metod är bra mycket högre än de tröskelvärden som de själva kommit fram till: 67:e percentilen snarare än runt 40:e percentilen. Den beräknade Gini-koefficienten blir med BFM:s metod och 67:e percentilen 0,416 att jämföra den faktiska Ginin som är 0,436, och för toppdecilens andel blir BFM-beräkningen 33,0 procent att jämföra med det faktiska värdet 33,9 procent. (Tabell 2.) Egentligen inte så dålig precision, blir min reflektion, även om FLV verkar kritiska.

I följande sektion, "What should we do in practice?", upprepar de att valet av tröskelvärde är komplicerat. De säger att metoden med kvantilratios inte är helt pålitlig och att skattedatat också har problemet med skattesmitande. FLV rekommenderar att man kan använda kvantilratio-metoden för att sätta tröskelvärdet till att börja med, och  sedan visa resultaten man får med flera olika tröskelvärden, för att visa hurpass robusta resultaten är. I praktiken kommer man också, till skillnad från i simuleringarna som FLV hittills jobbat med, behöva ta hänsyn till samplingsfel, inte bara underrapportering i toppen av fördelningen. (s. 1054-1055)

De illustrerar praktiken med sina survey- och skattedata från Uruguay. Kvantilratio-plotten visar att redan vid medianen så avviker kvantilratios, vilket säger att de finns underrapportering av inkomster redan ovanför 50:e percentilen. Detta medan Blanchet-Flores-Morgans metod för att beräkna tröskelvärdet säger att det räcker med korrigering ovanför 72,5:e percentilen. Om man sätter tröskelvärdet vid 50:e percentilen så ger replacing, reweighting och BFM (som använder en generaliserad Pareto-fördelning i toppen) i princip samma resultat vad gäller ojämlikhetsestimat. Överlag är de empiriska resultaten för Uruguay liknande som simuleringsresultaten; inte minst så ger replacing-metoden mycket stabila resultat, inte så känsliga för val av tröskelvärden. (s. 1056-1057) I slutsatserna säger de också att replacing-metoden kan vara att föredra just eftersom den är mindre känslig för det svåra problemet med att välja rätt tröskelvärde. Man kan dock inte säga detta för alla problem; sampling error har ju inte diskuterats på samma sätt här som problemet med underrapportering i toppen, så i andra situationer kanske replacing inte är lika tydligt överlägsen reweighting. (s. 1057-58)


Den sista metodartikeln om toppinkomster som jag ska kolla på här är också skriven av Emmanuel Flachaire, fast nu i samarbete med LSE-ekonomen Frank Cowell: "Inequality Measurement and The Rich: Why Inequality Increased More Than We Thought", publicerad i Review of Income and Wealth 2024. Cowell och Flachaire börjar sin artikel med att konstatera att många idag funderar på om inkomstojämlikheten stiger eller faller, men att vanliga mått som Gini och Theil kan ge olika besked. Det beror, säger de, också på att både Gini och Theil är beräknade med ett spridningsmått i täljaren och en medelinkomst i nämnaren; att inkludera medelinkomsten är bra för att göra beräkningarna icke känsliga för skala, men påverkar också estimaten, förstås.

Flachaire och Cowell använder ett enkelt exempel för att visa att Gini och Theil har ett problem i att de inte följer vad de kallar "principle of monotonicity in distance", som de definierar så här: "if two distributions differ only in respect of one individual’s income, then the distribution that registers greater distance from equality for this individual’s income is the distribution that exhibits greater inequality." (s. 255) För att illustrera detta presenterar de två inkomstfördelningar, x och x':

x = {1, 2, 3, 4, 5, 9, 10}. x′ = {1, 2, 3, 4, 7, 9, 10}.

Medelvärdet i x är 4.857 och medelvärdet i x' är 5.143, så den femte personens inkomstökning från 5 till 7 är en ökning av ojämlikheten -- personen rör sig bort från medelvärdet, säger de. Men Ginin säger att med denna förändring så rör vi oss från 0.361 till 0.357, alltså lite lägre ojämlikhet, och Theil likaså: från 0.216 till 0.214. Alltså följer inte Gini- och Theil-måtten principen om monotonicity in distance -- trots en ökad inkomstspridning från x till x' så anger Gini och Theil att ojämlikheten minskat. Roligt nog så lyfter de istället fram det mer obskyra ojämlikhetsmåttet mean logarithmic deviation, MLD ("or second Theil index") som de säger har de attraktiva egenskaperna att både respektera "principle of transfers", och principen om monotonicity in distance. MLD för x och x' blir till exempel 0.254 och 0.263. Flachaire och Cowell menar att detta inte bara är ett tanke-experiment, utan att det har bäring på hur vi tolkar utvecklingen i Storbritannien och USA idag: om vi tittar på Gini-koefficienten, så underskattar vi hur ojämlikheten ökat i dessa länder.

Efter introduktionen så börjar deras diskussion med att diskutera principer för ojämlikhetsmått -- här refererar de också sitt bokkapitel "Inequality measurement: Methods and data" från 2021. De säger att varje ojämlikhetsmått för en population behöver en referenspunkt: det kan vara till exempel medelvärdet (tjänar personen mer eller mindre än medelinkomsten i befolkningen) eller medianvärdet. Utifrån referenspunkten kan man diskutera principen om monotonicity in distance som är den första av tre principer som de lägger fram för ojämlikhetsmått. Denna princip har förklarats ovan. Den andra principen är independence, som de förklarar så här:

"Suppose there is some particular i for which the value of x_i is the same in both distribution x and distribution x′. Identical small variations in this common value should leave the inequality ranking of distributions x and x′ unchanged. This principle provides the basis for decomposing inequality by subgroup of the population as discussed in Section 4 later." (s. 257)

Den tredje principen är scale invariance, som de förklarar med två punkter: den ena är att om man skalar om alla värden i x och x' enligt samma skala, så ska jämförelserna av ojämlikhet i x och x' förbli oförändrade. Den andra är att om alla observationerna i fördelningarna x och x' växer proportionerligt, medan referenspunkterna förblir desamma, så ska inte ojämlikhetsjämförelsen påverkas. Nivån av uppmätt ojämlikhet kan förändras, men inte rankingen av x kontra x'

Utifrån dessa tre principer så lägger de fram en klass av ojämlikhetsmått. Om n är antalet personer i samhället och r är referenspunkten, så tar ojämlikhetsmåttet antagligen "absolut" form:

G (x) : = 1/2n^2 nΣi=1 nΣj=1 | x_i - x_j |        (formel 1)

eller en relativ form:

I_𝛼 (x; r) := 1/𝛼[𝛼-1] * [1/n nΣi=1 x^𝛼_i - r^𝛼]    (formel 2)

där 𝛼 är en sensitivity parameter. För att de två formlerna ska jobbas om till användbara ojämlikhetsmått, säger Cowell och Flachaire, så behöver man göra två saker. För det första, definiera referenspunkten r i den andra formeln: det kan till exempel vara medelvärdet. I den första formeln har r implicit redan satts som medianen, m; man kan skriva om den formeln som 

G (x) =  nΣi=1 * k_i * x_i

där x_i är värdet för den i:de komponenten av x sorterad i stigande ordning, och k_i är = 2/n^2 [i - (n+1)/2]. Detta innebär att en förändring i x_i ger en effekt på ojämlikhetsmåttet, positiv eller negativ, i enlighet med i-(n+1)/2. Detta innebär att måttet respekterar monotonitetskriteriet. Det andra som man behöver göra för att formel 2 ska bli ett användbart ojämlikhetmått är att normalisera så att om alla inkomster ökar proportionerligt, så förvrids inte jämförelser. Man kan normalisera mot medelvärdet μ som i den konventionella Ginin, men Cowell och Flachaire föredrar att normalisera mot medianen m. [7] De demonstrerar med simulationsanalyser med lognormala fördelningar med 5000 observationer hur den medelvärdesnormaliserade och medianvärdesnormaliserade Ginin reagerar på en rörelse längre bort från medel/medianen för en observation. Den medianvärdesnormaliserade Ginin är rimligare här, är summan av kardemumman. (s. 259-264)

Nästa utredning rör principle of transfers, att en överföring från en fattigare person till en rikare person alltid ska innebära en ökning av ojämlikhetsmåttet. Både den "absoluta" och den vanliga Ginin klarar detta test; den mediannormaliserade Ginin klarar principen så länge överföringarna sker mellan personer som är antningen under eller över medianen, om överföringen korsar medianen så kan det bli problem. Cowell och Flachaire reder ut hur formel 2-måttet ovan klarar överföringsprincipen, beroende på om man använder en mediannormering eller en medelnormering.

Följande sektion arbetar med att jämföra hur olika medlemmar av de två "familjerna" av ojämlikhetsmått -- den medelnormerade och den mediannormerade -- presterar på olika sätt. Formel 2-måttet mediannormerat har känslighetsparametern 𝛼 och när 𝛼 > 1 så fästs mer vikt vid höga värden av x, medan om 𝛼 < -1 fästs mer vikt vid låga värden av x. Om 𝛼 befinner sig mellan -1 och 0 så blir observationerna nära till och över medianen särskilt viktiga; om 𝛼 är mellan 0 och 1 blir det extra vikt på värden runt och under medianen. (s. 266) De går tillbaka till ekvation 10 som de presenterat ovan (se fotnot 7 här):

I_0 (x/μ; μ) = 1/n * nΣi=1 * log(x_i/μ)

och skriver om den så här:

I_0 (x/m; μ) = log (μ/g)

där g är fördelningens geometriska medelvärde. "Therefore, the MLD index is the log difference between the arithmetic mean and the geometric mean, and it is clear that in computing arithmetic and geometric means, every value of x has the same weight." (s. 266) [8]

De går över till att diskutera Gini-familjen. Den mediannormaliserade Ginin är besläktat med det mediannormerade generalized entropy-måttet som diskuteras i det utklippta resonemanget i fotnot 7 nedan. Jag återger det senare måttet också här:

I_𝛼 (x/m; μ) = 1/𝛼[𝛼-1] * [1/n nΣi=1 (x_i/m)^𝛼 - (μ-m)^𝛼], (ekvation 12)

= (μ/m)^𝛼 I_𝛼 (x/μ;μ), for all 𝛼 ∈ R. (ekvation 13)

I Gini-diskussionen så säger de att det mediannormaliserade måttet i ekvation 12 med 𝛼 = 2 är lika med:

I_2 (x/m; μ) =  (𝜎^2)/(2m^2) = E([x -_x]^2)/(2m^2) = E x, x' ([x-x']^2)/(4m^2) (ekvation 26)

Med detta, säger Flachaire och Cowell, ser vi att Gini (x; m) och [I_2 (x/m; μ)]^(1/2) är two very similar measures; both are ratios of a dispersion measure on twice the median. For the Gini, the dispersion measure is based on Manhattan L1-distance, while for the generalized-entropy measure it is based on Euclidean L2-distance. As a consequence, I2(x∕m; 𝜇) puts more weight on high values of x, compared with the Gini. It is also true for mean-normalized inequality measures G(x; 𝜇) and [I2(x∕𝜇; 𝜇)]1∕2, because both
are ratios of a dispersion measure on twice the mean." (s. 266) Gini och MLD har då gemensamt, säger de, att alla delar av fördelningen är lika viktiga för resultatet.

Följande sektion handlar om dekomponeringar av de olika måtten, i den mediannormaliserade och medelnormaliserade familjen av mått. De delar in befolkningen i K antal grupper, där andelen av befolkningen som tillhör grupp k skrivs p_k och medianinkomsten och medelinkomsten i grupp k skrivs m_k och μ_k. Vi vill dekomponera inkomstojämlikheten per K och det kan göras på två sätt, säger Cowell och Flachaire: det ena är non-overlapping dekomponering där vi sätter villkoret att grupperna är strikt rangordnade efter inkomst så att den rikaste personen i grupp k alltid har lägre inkomst än den fattigaste personen i grupp k+1, eller en generell dekomponering som inte har några sådana antaganden. Om vi arbetar med antagandet om ingen överlappning mellan k och k+1 så blir dekomponeringen av Gini-familjen som följer:

För MLD behövs ingen grouping-begränsning för dekomponeringen. Den kan dekomponeras så här:

I_0 (x/m; μ) = I_0 (x/μ; μ) = KΣk=1 * p_k * I_0 (x_k/μ_k; μ_k) - KΣk=1 * p_k * log (μ_k/μ) 

De två sista elementen visar att vi tar den gruppstorleksviktade spridningen av varje persons inkomst i grupp k relaterat till medelinkomsten i grupp k (inom-grupp ojämlikhet) och subtraherar gruppviktad, logaritmerad skillnad mellan gruppens medelinkomst och populationens medelinkomst (mellan-grupp ojämlikhet). Om vi t ex vill dekomponera inkomstskillnaden mellan män och kvinnor så kan den totala ojämlikheten skrivas:

I_𝛼 = w^F I^F_𝛼 + w^M I^M_𝛼 + I^btw

där w^F och w^M är vikterna för kvinnor och män, och I^btw är medelvärdet för grupp F och medelvärdet för grupp M relativt till hela medelvärdet; "comparing I^F_𝛼 and I^M_𝛼 enables one to say precisely where changes in inequalityhave taken place." (s. 268)

I den sista undersökningsdelen (före slutsatssektionen) applicerar Cowell och Flachaire de olika måtten: MLD som är densamma vare sig man normaliserar efter medel eller median och som klarar både monotonitetsprincipen och överföringsprncipen, och Gini normaliserad efter medel eller median som varierar med detta och där den medelnormaliserade Ginin inte klarar monotonitetsprincipen. I diagram 5, som jag klistrat in nedan, ser vi tre serier: de röda trianglarna är MLD, de blå cirklarna är Ginin, och de gröna cirklarna är den mediannormerade Ginin. Vi ser att alla tre serier egentligen har väldigt lika utveckling över tid: en viss minskning mellan mitten av 1960-talet och slutet av 1970-talet; därefter en kraftig ökning till det tidiga 1990-talet, följt av relativ stabilitet på 90-talet med viss ökande tendens fram till finanskrisen 2008. Ökningen blir dock kraftigare med den mediannormerade Ginin än med den medelnormerade dito och eftersom MLD mäts på en annan skala så kan diagrammet nedan dölja något som de visar i ett annat diagram, inte visat här, nämligen att den procentuella variationen år-till-år ofta är häftigare i MLD än i Gini.


De går över till att visa utvecklingen i USA från 1967 till 2016.Här skiljer sig bilden man får av de olika måtten mer åt. Alla tre mått visar förstås att inkomstspridningen ökat kraftigt sedan 1970-talet, men med olika takt. För perioden 1994-2016 ökade MLD med 1.292 procent om året och median-Ginin med 0.517 procent om året, medan den vanliga Ginin "bara" ökade med 0.264 procent om året. [9]


För att vidare utreda vad som händer med de olika måtten gör de en slags simulering light -- de kallar det en "parabel" -- där de använder de fem kvintilerna av USA: s inkomstfördelningar 1994 och 2016 och presenterar Gini och MLD utifrån förändringen för varje kvintil 1994-2016. Tabell 1 visar medelinkomsten för de fem kvintilerna 1994 och 2016. Den andra gruppen kolumner "Base Year 1994" visar överst between-group-ojämlikheten 1994 (Gini 0.4222; MLD 0.3523) och där nedan kontrafaktiska scenarier: hur hade Gini och MLD utvecklats 1994-2016 om bara medelinkomsten för en kvintil hade förändrats? Vi förväntar oss här förstås att ojämlikheten ska öka om inkomsterna ökar för kvintiler 4 och 5, som har inkomster över medel, och minska om inkomsterna ökar (isolerat, kontrafaktiskt) för kvintilerna 1 och 2, som har inkomster under medel. Men vad kolumnerna "Base Year 1994" visar är att medan MLD ger konsekventa utfall, så gör inte Ginin det: där minskar ojämlikheten när inkomsterna för kvintil 4 ökas. Samma resultat blir utfallet om man gör det omvända experimentet: utgår från 2016 års inkomst och sedan minskar inkomsterna för en kvintil i taget till 1994 års nivåer.


I en vidare tabell (inte visad här) demonstrerar Cowell och Flachaire att Gini och MLD har lite olika känslighet till vad som försiggår i olika delar av fördelningen: att öka toppkvintilens inkomster från 1994 års till 2016 års nivå ger dubbelt så stor (procentuell) effekt på MLD som på Gini, men att öka den lägsta kvintilens inkomster har 4,53 gånger så stor effekt på MLD som på Gini. MLD är alltså mer känslig till utvecklingen i fördelningens ytterligheter, säger de. (s. 273)

En sista övning är att de jämför utvecklingen i ojämlikhet mellan USA och Storbritannien sedan 1970-talet, med MLD och med Gini. Med Gini får man bilden att utvecklingen i de båda länderna varit väldigt likartad sedan 1994 (kraftig ökning), medan med MLD får man en mer blandad bild med mer stabilitet i Storbritannien och kraftig ökning i USA. Cowell och Flachaires kommentar till detta är att det i sig inte är ett problem om två ojämlikhetsmått ger olika bilder, om de t ex ger olika vikt till olika delar av fördelningen, men att det är ett problem här eftersom de är grundade på olika principer -- överföringsprincipen och eller monotonitetsprincipen. (s. 276) Något som det alltså är viktigt att vara medveten om, tänker jag.

I slutsatserna så säger de att Gini-koefficienten är den mest populära ojämlikhetsindikatorn i policyvärlden och att Gini förvisso har goda egenskaper: ett enkel viktningsschema, att den respekterar överföringsprincipen, att den klarar omskalning av inkomster, och att den är dekomponerbar i alla fall för icke-överlappande grupperingar. Men Ginin respekterar inte monotonitetsprincipen vilket ger en del konstiga utfall, säger de: "By contrast the MLD index has all of the attractive properties of the Gini coefficient and more: it also respects the principle of monotonicity in distance and is decomposable for arbitrary partitions with the path-independence property." (s. 276) Och så avslutar de med en praktisk bedömning och rekommendation:

"Indeed, the Gini coefficient and other indices may understate variations in inequality and, as a consequence, may be poor indicators of the effectiveness of redistribution policies. Our application suggests that the increase in inequality in the United States over recent years is significantly understated by the Gini index. By contrast, the MLD index has more desirable properties, estimates variations in inequality more accurately, and should be preferred in practice." (s. 276)


 

referenser

Arthur Charpentier och ·Emmanuel Flachaire (2022) "Pareto models for top incomes and wealth", The Journal of Economic Inequality (2022) 20:1–25

Emmanuel Flachaire, Nora Lustig och Andrea Vigorito (2023) "Underreporting of top incomes and inequality: A comparison of correction methods using simulations and linked survey and tax data", Review of Income and Wealth 69:4. 

Frank A Cowell och Emmanuel Flachaire (2024) "Inequality measurement and the rich: Why inequality increased more than we thought", Review of Income and Wealth 70: 2.

Stephen P Jenkins (2017) "Pareto Models, Top Incomes and Recent Trends in UK Income Inequality", Economica 84: 261-289.

 

fotnoter

[1] "A by-product of sparse coverage of the top income ranges is that the high-income observations present in the survey data have the characteristics of outliers (even if they are genuine rather than an error), and have substantial influence on the conventional non-parametric estimate of an inequality measure for a given year; see Cowell and Victoria-Feser (1996, 2007) and Cowell and Flachaire (2007). This sensitivity can also introduce spurious volatility in a time series of inequality estimates." Jenkins, s. 262.

[2] Mer detaljerat så förklarar Jenkins det så här: "Fourth, I provide new analysis of issues that arise when fitting a Pareto model to the upper tail of the income distribution, and hence of direct relevance to researchers applying the semiparametric Approaches A and C. My findings are relevant to analysis of other heavy-tailed distributions such as wealth (Shorrocks et al. 2015; Vermeulen
2014), and city and firm size (Eeckhout 2004; Gabaix 2009, 2016). I use unit record tax return data rather than grouped (bracketed) data and so have flexibility to explore a number of econometric issues. (On estimation issues that arise with grouped tax return
data—the only source available for deriving very long historical series—see Atkinson (2005, 2007) and references therein.) For instance, for the Pareto Type I model, I compare the performance of ordinary least squares, maximum likelihood and maximum
likelihood-robust estimators." (s. 264) 

[3] Jenkins diskuterar problemet att OLS ger får låga standardfel här eftersom de rangordnade inkomsterna är autokorrelerade. Han använder ML-estimatorer för att få korrektare standardfel. 

[4] "This is particularly acute for the Theil index, which is unsurprising because it is the most top-sensitive of the three indices. Thus Figure 10 illustrates well the sensitivity problems analysed by Cowell and Flachaire (2007), and also their conclusion that in terms of performance in finite samples, there is little to choose between the Gini coefficient and the mean logarithmic deviation (L)." (s. 284) Cowell och Flachaire-artikeln som han hänvisar till är "Income distribution and inequality measurement: the problem of extreme values", publicerad i Journal of Econometrics 2007.

  [5] Här refererar Flachaire, Lustig och Vigorito till en artikel som ser intressant ut av Meyer och Mittag, publicerad i AEJ:AE, 2019: “Using Linked Survey and Administrative Data to Better Measure Income: Implications for Poverty, Program Effectiveness, and Holes in the Safety Net”. 

[6] Flachaire, Lustig och Vigorito säger dock (s. 1040) att: "the survey reporting pattern we obtain (overreporting in the lower tail and underreporting at the top) is in line with previous findings from the survey earnings validation literature (Adriaans et al 2020)."

[7] Det är rätt tekniskt men så här förklarar de skillnaden:


 [8] Shorrocks (1980) förespråkade MLD som det “most satisfactory of the decomposable measures” eftersom det rent delar den totala ojämlikheten i ojämlikhet inom grupper och mellan grupper, vad Foster och Shneyerov (2000) kallar path independent decomposability. Se s. 268-269 i Cowell och Flachaires artikel. 

[9] I en fotnot här har de en intressant teknisk diskussion om hur man ska jämföra ökningstakten i ojämlikhetsmått som mäts på helt olika skalor: "Clearly growth/change comparisons of inequality depend on the cardinalization of the inequality indices. In principle any cardinalization could be used, but it makes sense in practice to confine attention to those that are used in practice. There are no alternative cardinalizations of the Gini coefficient that are used in the literature. However, in the case of the MLD, there is an alternative cardinalization in current use: the Atkinson inequality index with parameter 1 is given by A_1 (x) = 1− g/𝜇, where g is the geometric mean. Using [ekvation 9], it is clear that A_1 (x) = 1− exp (−I_0), and so growth (A_1) = 𝜆growth (I_0),where 𝜆 = I_0 [1− A_1] ∕A_1 = I_0∕ [exp(I_0) − 1] = 1∕ [(1/2!) I_0 + (1/3!) I^2_0 + ...]< 1. Therefore, the proportional changes in A_1 will be less than those of I_0. However, for our data, this change in growth rate attributable to the change in cardinalization is relatively modest, as 𝜆 ranges from 0.71 to 0.89. In no case is the conclusion that the Gini understates the changes in inequality reversed." (s. 271-272)

fredag 30 maj 2025

Kapitalinkomster, i den "klassiska kapitalismen" och idag


Hur starkt sammanfaller det att ha mycket kapitalinkomster, och att ha de högsta inkomsterna i samhället över huvud taget? Nationalekonomen Branko Milanovic börjar sitt kapitel i antologin After Piketty från 2017 med just denna fråga, och att påpeka att i Pikettys kapitalcentrerade analys i Capital in the Twenty-First Century och annanstans, så tas det för givet att de kapitalrika också är de rika: när kapitalandelen i nationalinkomsten stiger, så ökar också ojämlikheten.

Detta är ett stort metodologiskt bidrag med Pikettys bok, säger Milanovic: på 1990-talet och på 2000-talet studerades den funktionella inkomstfördelningen -- fördelningen mellan arbetsinkomster och kapitalinkomster knappast av nationalekonomer -- med undantag för marginaliserade marxister -- och därmed kunde man inte heller diskutera vad kapitalandelen hade för effekt på inkomstojämlikheten. På 2010-talet kom det istället, inte minst med Piketty, en hel rad studier om denna relation. Milanovic tar upp min artikel med Daniel Waldenström, publicerad i Journal of Economic History 2018 men 2017 tillgänglig som working paper, som exempel: B och W fann att varje procentenhets ökning av kapitalandelen av nationalinkomsten ökade toppercentilens (logaritmerade) inkomstandel med 0.89 procentenheter. Margaret Jacobson och Filippo Ochino fann för USA i en mer samtida situation att varje procentenhets ökning av kapitalandelen ökade Gini-koefficienten mellan 0.15 och 0.33 procentenheter. 

Däremot fick Maura Francese och Carlos Mulas-Granado helt annorlunda resultat i en artikel som studerar 43 länder från 1970-talet till 2010 baserat på mikrodata från Luxembourg Income Study. Enligt deras resultat så hade stigande kapitalandelar knappt någon effekt alls på inkomstojämlikheten, utan den ökade ojämlikheten berodde helt på ökad ojämlikhet i arbetsinkomster. En viktig skillnad mellan min och Waldenströms artikel, och Francese och Mulas-Granados artikel, är att medan Daniel och jag använde kapitalandelar från nationalräkenskaperna och inkomstojämlikhet från toppinkomsstudier (mestadels vad som var grundplåten till vad som idag är World Inequality Database), så använde FMG mikrodata från LIS, där kapitalandelen av inkomsten alltså beräknades direkt från LIS-surveydatat, inte från nationalräkenskaperna. [1] Det är en viktig skillnad: det är i princip bättre, eftersom de direkt kan fånga vad folk egentligen hade för kapitalinkomster, medan Daniel och jag utläste det från nationalräkenskaperna som i sig inte berättar vem som har kapitalinkomsten. Det innebär också en konceptuell skillnad, eftersom kapitalandelen i nationalinkomsten är mycket högre (ofta runt 33 procent) än kapitalandelen av hushållens inkomster (ofta runt 10-15 procent). Skillnaden är, som diskuterats t ex i Piketty, Saez och Zucmans DINA-artikel från 2018, att nationalräkenskapernas kapitalinkomstbegrepp inkluderar inte bara inkomster som fördelats ut till hushållen (t ex utdelning från aktier) utan också företagens kapitalinkomster. En tredje skillnad mellan BW 2018 och FMG 2017 är att deras utfallsvariabel är Gini-koefficienten för disponibla inkomster, medan BW:s är toppercentilens andel av marknadsinkomster. Det är ju inte så förvånande för det första att kapitalandelen är starkare korrelerad med toppinkomst-koncentrationen än med Ginin, och för det andra att den är starkare korrelerad med marknadsinkomstfördelningen än med den disponibla inkomstfördelningen som ju också påverkas av skatter och transfereringar.

Milanovics slutsats från litteraturöversikten är: "So the link between greater capital share and increased interpersonal in equality is not as  simple and unambiguous as it seems. Even when  there exists a positive relationship between the two, the strength of that relationship varies." (s. 237) Hans kapitel ägnas helt enkelt åt denna diskussion.

Han börjar med Pikettys klassiska formel att r > g: avkastningen på kapital, r, tenderar enligt Piketty att på lång sikt överskrida den genomsnittliga inkomsttillväxten i samhället eller BNP-tillväxten, g. Under vilka förhållanden leder r > g till en stigande inkomstojämlikhet? Milanovic menar att det gäller under tre förhållanden . Ett: de som får kapitalinkomsterna (r) måste återinvestera större delen av dessa, så att de återigen realiseras i nästa tidsperiod. Om de kapitalinkomstrika bara konsumerar upp sina kapitalinkomster, så kommer de inte ackumulera kapital, kapital-till-inkomst-kvoten i samhället β = K / Y kommer inte stiga, och med en konstant r per enhet kapital så kommer kapitalandelen α inte heller att stiga. Piketty har fått kritik på denna ounkt från Debraj Ray och Yew-Kwang Ng, men Milanovic menar att kritiken i praktiken är irrelevant: kapitalister som får kapitalinkomster kommer i praktiken alltid återinvestera. Det andra kravet för att r > g ska öka ojämlikheten är att koncentrationen av kapitalinkomsterna r måste vara hög. Detta krav kommer också hållas för det mesta: koncentrationen av kapitalinkomster tenderar att vara mycket högre än koncentrationen av arbetsinkomster; till exempel så är Gini-koefficienten för kapitalinkomster runt 80 i USA idag, medan den är runt 40 för arbetsinkomster, säger Milanovic. Detta rotar sig i att kapitalägandet är koncentrerat och att en stor del av befolkningen inte har några kapitaltillgångar alls: i USA gäller det ungefär en tredjedel. 

Det tredje kravet för att r > g ska öka ojämlikheten är att korrelationen mellan att vara kapitalinkomstrik och inkomstrik överlag ska vara hög. Bara att en inkomstkälla är koncentrerad betyder inte att den bidrar till ökad ojämlikhet, säger Milanovic: inkomster från arbetslöshetsförsäkring har i USA en Gini-koefficient över 90, eftersom det är få personer som får a-kassa ett givet år, men eftersom a-kassan går till i övrigt inkomstfattiga personer så minskar den ojämlikheten. (s. 239-240)

Milanovic går vidare till att diskutera det på en mer formell nivå. Ginin kan dekomponeras så här:

G =s_l * R_l * G_l + s_c * R_c * G_c

där s är andelen av en typ av inkomst (l=labor, c=capital), R är korrelationen mellan inkomsttypen och total inkomst, G_l och G_c är Ginikoefficienterna för arbets- och kapitalinkomster. R är i sin tur lika med ration av två korrelationskoefficienter (ρ), för det första mellan inkomstkällan (arbete, kapital) och personens ranking i inkomstfördelningen enligt total inkomst, och för det andra mellan inkomstkällan och personens ranking i inkomstfördelningen enligt inkomstkällan själv. Så här skriver Milanovic korrelationsration för kapitalinkomst, R_c:


För att kapitalandelen (s_c) ska öka Gini-koefficienten för inkomster så krävs höga värden på två "transmission tools", säger han: på Ginin för kapitalinkomsterna (G_c) och på R_c. R_c kan också kallas för "elasticity of transmission" för kapitalandelen till den personliga inkomstfördelningen. Han förklarar hur man kan beräkna överföringsmekanismerna så här: "Note that every Gini point increase in the concentration of capital income  will be translated into R_c * s_c Gini point increase in total income Gini. Similarly, as the share of capital in total income increases by a percentage point, Gini will go up by R_c * G_c − R_l * G_l." (s. 241)

Från denna pedagogiska förklaring av själva matematiken för relationen mellan kapitalandel och inkomst-Gini övergår Milanovic till en mer samhällelig diskussion. Han föreslår att vi betraktar tre idealtypiska samhällsekonomier som kommer ha distinkt olika relation mellan kapitalandel och personlig inkomstfördelning. En typ är en socialistisk samhällsekonomi, där det inte finns några kapitalister, utan alla har lite granna kapitalinkomster. I en sådan hypotetisk kontext kommer en stigande kapitalandel inte ha någon effekt alls på ojämlikheten. I diagram 10.1 som jag klistrat in högst upp i detta inlägg visas denna situation med linjen "socialism" som markerar en situation där R_c = 0. Den andra idealtypiska samhällsekonomin är vad Milanovic kallar klassisk kapitalism

"In classical capitalism, ownership of capital and labor is totally separated, in the sense that workers draw their entire income from labor and have no income from the ownership of assets, while the situation for the capitalists is the reverse. Moreover, we shall assume that all workers are poorer than all capitalists. This is an important simplifying assumption  because it gives us, as shown in Figure 10-2, two social groups that are nonoverlapping by income level. " (s. 243)

Gini-koefficienten i detta samhälle kan beräknas som följer:


Milanovic förklarar detta mer intuitivt genom ett hypotetiskt exempel där samhället har en enda kapitalist, som får all kapitalinkomst, medan alla andra är arbetare, och ett annorlunda exempel, där en massa människor är kapitalister och ett fåtal är arbetare.


Det tredje idealtypiska samhället är vad Milanovic kallar new capitalism, ett samhälle där alla personer får inkomster både från kapital och från arbete. Både arbetsinkomster och kapitalinkomster är ojämlikt fördelade, så höginkomsttagare har mer kapitalinkomster än vad låginkomsttagare har, men det råder inte den separationen som i den klassiska kapitalismen. Diagram 10.3 illustrerar två scenarios av ny kapitalism: i det ena är kapitalkoncentrationen starkare än arbetsinkomstkoncentrationen, i det andra ("Capital income 2") är de båda lika koncentrerade. I det senare scenariot gör en stigande kapitalandel ingen skillnad för ojämlikheten. [2] Det mer realistiska scenariot är det där proportionen kapitalinkomst stiger när en person blir rikare (i total inkomst). Detta kan skrivas som d(c/l) / dy >0 med dc / dy > 0 och dl / dy > 0. Ökningen i Gini för en en procentenhets ökning av kapitalandelen kommer vara G_c - G_l, alltså hur mycket mer koncentrerade kapitalinkomsterna är jämfört med arbetsinkomsterna. I detta scenario kan kapitalandelens betydelse för inkomst-Ginin vara lika stark som i den klassiska kapitalismen, säger Milanovic. [3]


Från denna konceptuella del går Milanovic över till de empiriska resultaten. Han utgår från Luxembourg Income Study med data från 138 hushållssurveys från 17 länder, mellan 1969 och 2013. Han påpekar att LIS-datat har problem med en systematisk underskattning av kapitalinkomster. Detta beror både på att rika människor tenderar att välja att inte besvara surveyundersökningar om deras inkomster, och på att när de väl är med, tenderar de att underskatta sina kapitalinkomster. Enligt LIS så är kapitalinkomsternas andel av hushållens inkomster till exempel bara 7 procent, vilket är ungefär en tredjedel lägre än vad andelen är enligt skattedata. Milanovic menar dock att beräkningarna av R_c kommer hålla även från LIS-datat som underskattar kapitalinkomsterna.

Diagrammet 10.4 visar intressanta resultat: elasticiten för inkomst-Ginin för en ökning av kapitalandelen.  När kapitalandelen ökar med en procentenhet så ökar inkomst-Ginin med ungefär 0.60 procentenheter i USA, och i Sverige med 0.5. Resultaten för de fem länderna i diagrammet är representativa för de 17 länderna totalt, säger Milanovic.


För perioden som helhet -- alltså utan hänsyn till den överlag stigande tendensen som vi ser i diagram 10.4 -- hade Belgien, Sverige och Schweiz lägst elasticiteter, medan Italien, USA och Finland (!) hade de högsta. En scatterplot visar att länder med högre kapitalandelar också tenderar att ha högre elasticitet.


Så här överför Milanovic de skattade elasticiteterna till diskussionen om de tre idealtypiska typerna av samhällsekonomier:

"Great Britain in 1969, Netherlands in 1987,  Switzerland in 1982, and Sweden in 1981 had elasticities smaller or equal to 0.2 and  were quite close to the socialist model. One- half of all observed elasticities fall between the values of 0.36 and 0.57 (with the median, as we have seen, of 0.46). This level of elasticity corresponds, within our ideal- typical world, to an intermediate position between socialism and classical or “new capitalism 1.” Countries with the highest elasticities, which are Nordic countries in the years after 2000 and Italy in 1998 and 2000, have values above 0.7 and are thus closest to the classical or “new capitalism 1,” and furthest from socialism. The United States is close to these countries with its highest elasticity value of 0.65, reached in 1997, and its most recent 2013 elasticity at 0.64, just slightly below the previous peak." (s. 253)

En fotnot här är att jag misstänker att Sveriges extremt låga elasticitet år 1981 har att göra inte bara med faktisk elasticitet i verkligheten utan också med grav underrrapportering av kapitalinkomster i surveydatat och skattesystemet med mycket stora avdragsmöjligheter gjorde att personer som Erik Penser med stora kapitalinkomster kunde framstå som nollinkomster i skattesystemets ögon.

I vilket fall, så konstaterar Milanovic att Ginins respons på kapitalandelen inte bara beror på elasticitetskoefficienten utan också på Gini-koefficienterna för arbets- och kapitalkoefficienterna och korrelationsration för arbetsinkomsterna, R_l. Dessa tenderar dock att inte variera så mycket: Ginin för arbetsinkomster tenderar att fluktuera runt 0.5, och Ginin för kapitalinkomster 0.9. Med dessa värden och en genomsnittlig R_l så skulle en en procentenhets ökning av kapitalandelen öka Gini-koefficienten med 0.16 procentenheter, och den fem procentheters ökning av kapitalandelen som USA hade från 1975 till 2012 skulle ha orsakat 0.8 procentenheter större Gini-koefficient.

I slutsatserna konstaterar Milanovic att en av definitionerna av ett rikt samhälle är att det har hög β i Pikettys bemärkelse, K/Y eller kapital-till-BNP-ratio. Om r är konstant när kapitalintensiteten β ökar, så kommer också alfa öka -- och därmed inkomstojämlikheten, om inte kapitalägandet är spritt. Milanovic pekar på att utjämning av dessa faktorer inte bara handlar om högre skatt, som Piketty diskuterat mycket, utan också spridningen av ägandet. Det skulle t ex kunna handla om fonder för anställda, eller för ökat sparande i alla möjliga företag, inte bara för de anställda i det specifika företaget.

 

Fem år senare, 2022, återkom Milanovic till diskussionen, då i en artikel tillsammans med Marco Ranaldi, då postdoc vid CUNY i New York, nu biträdande lektor vid UCL. Också här utgår de från distinktionen mellan klassisk kapitalism, där en grupp har kapitalinkomster och en annan arbetsinkomster, och en typ av kapitalism -- de kallar scenariot ett "society of compositional equality" -- där samma individer har båda typerna av inkomst. En forskningsfråga: är dagens samhällen mer av klassisk kapitalism, eller mer typen där inkomsttyperna är blandade? Det andra syftet med artikeln, starkt relaterat till det första, är att utforska relationen mellan funktionell inkomstfördelning och personlig inkomstfördelning. Hur mycket bidrar kapitalandelen till ojämlikheten? För att utforska denna fråga mäter Ranaldi och Milanvic "compositional income inequality", vilket de gör med måttet income-factor concentration (IFC) index, som presenterats i Ranaldi (2021, ROIW). De introducerar IFC-måttet så här:

"If we decompose total income into two factors, such as capital and labor income, then income composition inequality is the extent to which the shares of the two income sources within each individual’s income vary along the total income distribution. If all individuals have the same shares of capital and labor in their total income (regardless of the amount of total income), compositional inequality will be minimal. It will be at the maximum when individuals at the top and at the bottom of the total income distribution earn two different types of income. Therefore, under a high level of compositional inequality a society can be seen as close to classical capitalism, whereas under a low level of compositional inequality it can be seen as close to a classless society." (s. 21)
Mer specifikt så skapar man IFC genom koncentrationskurvor per inkomsttyp. Koncentrationskurvan är den kumulativa inräkningen av en variabel, t ex kapitalinkomsten, gentemot en befolkning rankad utifrån en annan variabeln, t ex den totala inkomsten. För att beräkna IFC behövs tre koncentrationskurvor: zero-concentration, actual-concentration och maximum-concentration-kurvorna. Ranaldi och Milanovic förklarar dessa så här:
"The zero-concentration curve is simply the Lorenz curve multiplied by the capital share. This curve reflects the condition of zero inequality in income composition. This condition is met when the individual capital share πi is, for all individuals, equal to the average capital share in the population π. Differently from the equality (or 45-degree) line used to construct the Gini coefficient, which is the same regardless of distribution, the zero-concentration curve is distribution specific and depends on the share of capital income in total income. Hence, two different distributions with different zero-concentration curves display, in turns, different benchmarks of zero inequality in income composition.
The actual-concentration curve is the concentration curve for capital income with individuals being ranked by their total income. This curve is also multiplied (“normalized”) by the capital income share.
The maximum-concentration curve, which reflects the hypothetical condition of maximal inequality in income composition, is flat up to a certain income percentile p, and then mirrors the Lorenz curve.2 This curve describes a distribution in which the bottom p% of the total income distribution does not earn any capital income at all, whereas the top (1 −p)% earns capital income only. In other words, the maximum concentration curve is obtained by “distributing” total capital income among (1-p)% of richest income recipients until total capital income is “exhausted”. All lower income percentiles consequently “receive” zero capital income. " (s. 22)
Man beräknar IFC liknande hur man beräknar Ginikoefficienten: om A är arean mellan zero-concentration-kurvan och actual-concentration-kurvan och B är arean mellan zero-concentration och maximum-concentration-kurvan, så är IFC = A / B. IFC varierar mellan -1 och 1, där 1 är en situation där all kapitalinkomst är koncentrerad till toppen och arbetsinkomsten till botten av inkomstfördelningen, medan den är 0 när alla individer har samma blandning av arbets- och kapitalinkomster, och -1 när kapitalinkomsterna koncentreras till botten och arbetsinkomsterna till toppen av inkomstfördelningen. I verkligheten kommer IFC aldrig vara under 0; i Egypten år 2012 var IFC 0.84 och i Norge år 2004 var den 0.78.

För att förklara hur IFC relaterar till Gini-koefficienten introducerar de följande uttryck för Ginin: G = G_ π ^α * G_w ^β där G_π är Ginin för kapitalinkomst och G_w är Ginin för arbetsinkomst. Koefficienterna α och β säger hur mycket kapital och arbete bidrar till den totala inkomstojämlikheten och definieras som följer: α = π G_π och β = wG̃_w / G, "where π and w are the capital and labor share, whilst G̃π and G̃w are the concentration coefficients (i.e. pseudo-Ginis) of capital and labor income, respectively. Obviously, α = 1 − β. Eq. (1) follows from the Euler’s homogeneous function theorem, the same used to relate the Cobb-Douglas production function, KaLb, with the production identity, y = rK + wL, under perfect competition, and from the decomposition of the Gini coefficient introduced by Lerman and Yitzhaki (1985)." (s. 22) IFC kan då definieras som: π w (~G_π - ~G_w) / 2B. Och ration mellan IFC och Gini är: IFC/G = (αw - βπ) / 2B. IFC-till-Gini-ration bestäms då av två krafter. Nämnaren 2B är i praktiken inte särskilt viktig, säger de, och istället beror IFC-Gini-ration på kapitalinkomsternas bidrag till inkomstojämlikheten, α, och kapitalandelen av inkomsten, π. IFC-indexet är positivt när kapitalinkomstens bidrag till ojämlikheten är större än dess andel av inkomsterna.

De betraktar effekterna på IFC och G av två viktiga förändringar. Den ena är den ökande kapitalandelen, den andra är den ökade koncentrationen av kapitalinkomst i befolkningen. 

För sin empiriska undersökning använder de data från 47 länder från Luxembourg Income Study; totalt sett 302 land-år mellan 1995 och 2018. De räknar in pensioner i arbetsinkomstbegreppet, eftersom de menar att pensionerna är uppskjuten arbetsinkomst; de gör också en version där pensionerna delas mellan arbetsinkomst och kapitalinkomst. Egenföretagares inkomster räknar de som ren arbetsinkomst, vilket är ovanligt i de här sammanhangen, och de motiverar detta på följande sätt: "This is done to avoid imposing an arbitrary split that may in turn considerably and unrealistically affect the overall picture. This is particularly the case in Latin American countries where self-employment income is mostly received by the poor people and middle-income groups. If we take the examples of Brazil in 2016 and Mexico in 2018, the bottom 90% of the income distribution receives, in both countries, more than two-thirds of self-employment income. Arbitrarily breaking that income into a labor and capital components would wrongly impart a relatively high share of capital income to the poor and the middle class. This is shown in the
Appendix C, which reports the result of our analysis when self-employment income is split into its capital (1/3 of the total) and labor (2/3 of the total) income components (concept 3). The appendix also illustrates how our results change when pensions are entirely removed from the definition of income (concept 4)." (s. 25)


Den första frågan i den empiriksa undersökningen är ifall högre compositional inequality är associerad med större inkomstojämlikhet. Diagram 2 visar en scatterplot med IFC på x-axeln och Gini på y-axeln; det verkar inte finnas någon stark korrelation, utan snarare några distinkta grupper, som USA och Israel som har höga värden både på IFC och G, och Skandinavien som har hög IFC men låg Gini. Den nordvästra ytan är tom i Figur 2 och i Figur 3 som har fler länder: inga länder har låg IFC och hög Gini. Om kapital- och arbetsinkomsterna är lika fördelade så är det osannolikt att ojämlikheten är hög. I den sydöstra ytan är Norden och ett par östeuropeiska länder. Ranaldi och Milanovic menar att utan denna grupp så hade det funnits en tydlig och stark positiv korrelation mellan IFC och Gini, men tack vare dessa sydöstra outliers finns det ingen korrelation i stort. De kallar detta "Nordic exceptionalism" och förklarar detta som följer:

"Note that Nordic countries display a substantially higher GI ratio than other advanced countries. From the relationship between I and G in (5), we know that high GI can be caused by high contribution of capital to total inequality (α) which, in turn, is driven by high concentration coefficient of capital income and high share of capital in total income. In fact, the right-hand side of Eq. (5) can also be written as follows: π ((G̃_π / G) - 1). Table 2 shows that Nordics’ capital share is very similar to that of other advanced economies but that their concentration coefficients of capital income are much greater (see column 4 in Table 2). The gap in concentration coefficients is 7 points and is statistically significant. High capital concentration can be also observed if we consider the share of total income from capital received by the top decile of income-earners. This share is much higher in Nordic countries than in other advanced economies (see column 5 in Table 2). 

Much higher concentration of capital income among Nordic countries can also be observed if we compare capital share (on the horizontal axis in Fig. 4) with capital contribution to total Gini (α on the vertical axis). For any given capital share on the horizontal axis, contribution of capital income to Gini is higher among Nordic countries than other advanced economies—implying that capital is more concentrated among the rich than elsewhere.
On the other hand, Nordic countries have a low concentration of labor incomes. Their average concentration coefficient of labor incomes is 0.34 versus 0.4 for other advanced economies. (The difference is statistically significant). Low inequality of labor incomes, combined with a large labor income share, pushes the overall inter-personal inequality down, and explains Nordics’ low Gini. It is interesting to observe that the concentration coefficient of capital income among the Nordics is almost exactly the same number of points (seven) greater than the labor concentration coefficient is smaller (six).
In conclusion, Nordic countries display unusually high concentration of capital incomes and unusually low concentration of labor incomes. The former makes for high compositional inequality, the latter for low inter-personal inequality. This gives them the unique position where high IFC coexists with low Gini. In other words, they are class-based societies where the class-based component that normally leads to high Ginis is attenuated or “hidden” thanks to a very egalitarian distribution of labor earnings." (s. 28)

De relaterar detta till Karl Ove Moenes (2003, 2016) perspektiv på den nordiska modellen som en kombination av sammanpressad lönestruktur och relativt god kapitalavkastning som accepteras i samhällskontraktet i utbyte mot att vinsterna förväntas återinvesteras. Detta speglas också, säger Ranaldi och Milanovic, i att förmögenhetsfördelningen är ovanligt ojämlik i Norden; de hävdar att toppdecilens andel av förmögenheterna är 65-76 procent i Norge och Sverige men under 50 procent i Nederländerna, Spanien och Storbritannien. (Referensen är Davies, Lluberas och Shorrocks Credit Suisse Global Wealth Report från 2012.)

Under den väldigt starka rubriken "Toward classless economies?" diskuterar de ekonomierna som befinner sig i sydvästra ytan, alltså låg IFC och låg Gini. Där befinner sig till exempel Taiwan och Slovakien, vilket inte låter som klasslösa samhällen.

Kina befinner sig i en annan situation med låg IFC men hög Gini, vilket Milanovic kallar "homoploutia": samma personer har både höga arbetsinkomster och höga kapitalinkomster. Utifrån denna diskussion skapar de den typologi som visas i Tabell 3:



 

referenser

Branko Milanovic (2017) "Increasing Capital Income Share and Its Effect on Personal Income Inequality", i Heather Boushey (red) After Piketty. Harvard University Press.

Marco Ranaldi och Branko Milanovic (2022) "Capitalist systems and income inequality", Journal of Comparative Economics  50: 20-32.


fotnoter

[1] De använder också en makro-regressionsapproach lik min och Daniels (se s. 14-18 i deras WP) men det är för att backa upp mikroresultaten.

[2] "Note that this happens because the rising capital share leaves Gini of capital income unchanged (and Gini of capital income is the same as Gini of labor income). In socialism, this happens because Gc = 0." (s. 247)

[3]  "Under “new capitalism 1,” the transmission from increased capital share into greater interpersonal in equality may be as strong as in classical capitalism. Suppose that s_c = 0.3 and that it increases to 0.35.  Under classical capitalism with R_c (say) around 0.6, these 5 additional percentage points of net income received by capitalists will increase the overall Gini by about 3 points. Under the “new capitalism 1,” the increase will be (G_c – G_l) times 5. The G_c –G_l gap is empirically about 0.3 –0.5 (0.8 –0.9 minus 0.4 –0.5), so the Gini increase may be 1.5 –2.5 points. The new capitalism may be just marginally more successful than classical capitalism in checking the spillover from the rising capital share into a greater interpersonal inequality." (s. 247-248)