Nationalekonomen Stephen P Jenkins, professor vid LSE, börjar en artikel från 2017 på ett tydligt sätt: forskningen om inkomstojämlikheten och dess utveckling är, säger han, tudelad. Å ena sidan har vi forskning och debatt som bygger på hushållssurveys och rapporterar fördelningen för ojämlikheten i hushållsinkomster för befolkningen som helhet, med mått som Gini-koefficienter och andra mått som just ska fånga hela distributionen. Å andra sidan har vi toppinkomstlitteraturen som uttryckligen handlar om den ekonomiska eliten, om toppinkomsttagarna och deras andel av den totala inkomsten. Denna litteratur bygger på skattedata, inte på hushållssurveys.
De två litteraturerna skiljer sig alltså åt både i material och i metod, och når också olika slutsatser, säger Jenkins: toppinkomstlitteraturen visar en kraftig ökning i inkomstojämlikheten (egentligen: koncentrationen) de senaste decennierna i USA och Storbritannien, medan den survey-baserade litteraturen visar mycket mindre ökningar. För Storbritannien ökade toppercentilens andel med 29 procent mellan 1996 och 2007, medan Gini-koefficienten ökade med 7 procent; för USA ökade toppercentilens andel samma period 30 procent och Gini-koefficienten bara 2 procent.
Syftet med Jenkins artikel är att triangulera de två metoderna. Han kombinerar skattedata -- för de rika, som är underrapporterade i surveys -- och hushållsdata för alla andra för att ge en sammantagen bild, och för att kunna diskutera skillnader i vad olika mått ger för bild av ojämlikheten. Det finns två skäl till att surveydata inge ger någon bra bild av toppinkomster, säger han. Det första är att höginkomsttagare tenderar att inte svara på surveys, och att de som kodar ibland toppkodar inkomster (dvs sätter alla inkomster över en viss gräns på gränsnivån). Det andra är att ett slumpmässigt sample per se inte kommer ge någon precis bild av den högra svansen på fördelningen, där variationen är väldigt hög. [1]
Det finns tre sätt att korrigera för dessa problem när man ska beräkna ojämlikhet, säger Jenkins. De sammanfattas i diagram 1 som jag klistrat in ovan. Approach A använder bara surveydata men beräknar den rikaste percentilens eller så andel genom att passa en Pareto Typ I-distribution till observationerna från surveyn. Man kan sedan beräkna (a) ojämlikheten i toppgruppen, (b) ojämlikheten i icke-toppgruppen, och (c) ojämlikheten mellan de två grupperna. Cowell och Flachaire (2007) ger en utförlig diskussion av denna approach, medan Ruiz och Woloszko (2015) och Burkhauser et al (2012) använder approachen uttryckligen för att komma över problemet med underrapportering av toppinkomster i surveys, i Burkhauser et als fall US-amerikanska Current Population Survey. Jenkins är dock skeptisk till hur framgångsrik approach A är; han menar att både Atkinston et al (2011) och Burkhauser et al (2012) visar att Pareto typ I-distributionen kommer underskatta toppinkomsttagarnas inkomster.
Av detta skäl finns det anledning att vända sig till skattedata för att få fram faktiska toppinkomster som kan komplettera surveydata. Det gör man i approach B och C. Approach B "replaces the highest incomes in the survey with cell-mean imputations based on the corresponding observations in the tax return data." Denna metod används t ex av Burkhauser et al (2016), som använder World Top Incomes Database (numera WID.world) toppinkomstandelar som benchmark.
Approach C är det angreppssätt som Jenkins följer i artikeln, och den kombinerar estimat från både A och B: "It is thus identical to Approach A except that it uses both survey and tax data rather than only the former; it is this feature that addresses the under-coverage problem." Denna approach utvecklades av Atkinson (2007) som också i en artikel från 2011 applicerade den på USA, varpå Alvaredo (2011) applicerade den både på USA och Argentina, medan Lakner och Milanovic (2016) använde den på global inkomstfördelning.
Jenkins säger att hans artikel gör fyra bidrag till litteraturen. Ett, substantiellt så är det viktigt att beskriva utvecklingen i den ekonomiska ojämlikheten i Storbritannien sedan 1990-talet på ett korrekt sätt. Två, hans metodologiska jämförelse kan undersöka ifall approach B och C ger samma resultat när man använder dem på samma källor. Tre, han ger nya empiriska belägg i frågan om hur grov under-representationen av toppinkomsttagare är i brittiska surveydata. Fyra, resultaten talar till litteraturen om hur effektivt det är att använda en Pareto-distribution för att skatta toppdelen av inkomstfördelningen. [2] De flesta ojämlikhetsforskare har använt en Pareto typ I och utgått från att det funkar väl, vilket också Atkinson, Piketty och Saez (2011) argumenterat för, men Jenkins jämför systematiskt (med goodness of fit) Pareto typ I med Pareto typ II ("generalized Pareto") och visar att de senare passar bättre i princip alla fall. Jenkins bidrar i den här metodfrågan också med en utforskande diskussion om var gränsen i inkomstfördelningen egentligen går, över vilken det är rimligt att applicera en Pareto-modell; olika toppinkomststudier har t ex använt topp 10 %, topp 5 % eller topp 1 %. Jenkins diskuterar olika föreslagna kriterier för var man ska börja applicera en Paretofördelning (t ex från Coles 2001 och Clauset et al 2009) och argumenterar för att man också måste undersöka var i fördelningen som surveydatat börjar tappa i representation. I Storbritannien på 1990-talet finner han att det händer för toppercentilen, medan det på 2000-talet sker från den 95:e percentilen och uppåt.
Skattedatat som Jenkins använder är Survey of Personal Incomes för varje år från 1995 till 2010 förutom 2008. Detta är samma data som Atkinson (2005) använt tillsammans med tidigare tabuleringar av SPI och några skatteserier för att beräkna toppinkomstandelar tillbaka till 1908. SPI ger information på individnivå. (s. 265-266) För att göra beräkningarna jämförbara med toppinkomstlitteraturen begränsar Jenkins sitt sample till britter som är 15 år gamla eller äldre. Surveydatat han använder är Family Resources Survey för samma år som SPI-datat. Detta är en tvärsnittsurvey med ungefär 20 000 hushåll per år. FRS fokuserar på inkomster efter skatter och socialförsäkringar, men utifrån Burkhauser et al (2016) beräknar Jenkins istället förskatteinkomster på individnivå, för att göra survey-beräkningarna jämförbara med skattedata-beräkningarna.
Den första empiriska sektionen handlar om hur stor underrapporteringen av toppinkomster är i surveydatat. På 1990-talet ger surveydatat en bra bild av inkomsterna upp till ungefär den 95:e percentilen; på 2000-talet missar detta dataset helt den stora ökning av toppinkomsterna som man ser i skattedatat. Täckningen av toppinkomster blir sämre över tid vilket kan innebära att det är olämpligt att använda samma cut-off för att börja korrigera med skattedata hela tiden.
Jenkins går vidare med att diskutera hur man applicerar Pareto-modeller till toppinkomsterna. För en Pareto I-modell visar överlevnadsfunktionen S(x) andelen av befolkningen som har en inkomst som är över x, det vill säga 1- den kumulativa distributionsfunktionen F(x):
S (x) = 1 - F (x) = (x/x_m)^-α
där x > x_m > 0 och x_m > 0 är inkomsternas lägre gräns. Parametern α är "the shape parameter (‘tail index’) describing the heaviness of the right tail of the distribution, with smaller values corresponding to greater tail heaviness." (s. 271) För en Pareto II-modell är överlevnadsfunktionen:
S (x) = [1 + ξ ((x - λ) / σ)]^1/ξ , ξ > 0
där x > λ är en location parameter, σ > 0 är en scale parameter och ξ är the shape parameter, alltså motsvarande alfa i Pareto I-modellen. Om ξ är = 1/alfa, λ = x_m, och σ = x_m/alfa, så är Pareto I och II-modellerna ekvivalenta.
Pareto II-modellen är mer komplex och kanske mer realistisk för att imputera toppinkomster, men förbättringen i goodness of fit kan vara liten och kanske inte motiverar den ökade komplexiteten jämfört med Pareto I, säger Jenkins. (s. 272) Han testar båda två på inkomstdata. Man behöver sätta en gräns (x_m respektive lambda) över vilken man vill beräkna fördelningen; han provar med 95:e och 99:e percentilen. I Pareto I kan man beräkna α på två sätt: först en OLS-regression där den logaritmerade överlevnadsfunktionen regressers på logaritmerad inkomst och en konstant, och idealiskt ska man då få en Zipf plot ("a plot of the log of the survivor function against logarithms of income (for incomes in ascending order and greater than x_m") som har en lutning som är -α. Atkinston (2016) redovisar också andra metoder för att beräkna α; Jenkins finner att Zipf-metoden fungerar bäst, och redovisar därför bara de resultaten i pappret, och de andra i Appendix. [3] För att beräkna Pareto II-mdodellen använder han ML-regressioner utifrån Roodman (2016).
För att utifrån dessa metoder beräkna ifall toppinkomsterna verkligen är Pareto-fördelade, börjar Jenkins med Zipf plots. Detta "eye test" är dock inte tillräckligt (Cirillo 2013) och han använder också mean excess plots som visar medelinkomsten ovanför olika tröskelvärden. "For Pareto distributions, the graph is a positively-sloped straight line above some minimum income; deviations from linearity are evidence of non-Paretianity." (s. 273) Zengakurvor är dock ännu bättre belägg, en omvandling av en Lorenzkurva L(u) enligt formeln: Z(u) = (u - L(u)) / (u[1-L(u)], 0 < u < 1. "For Pareto distributions, the Zenga curve is positively-sloped and rises as u --> 1, and the higher the curve, the more heavy-tailed the distribution." (s. 274) Sammantaget så säger dessa plots att inkomstskattedatat är Pareto-fördelat, möjligtvis med undantag för år 1995, och att tröskelvärdet över vilket Paretofördelningen träder in, kan variera över tid.
Graferna räcker inte för att räkna ut ifall Pareto I eller Pareto II funkar bäst. För att avgöra detta använder Jenkins två metoder. Den första är "a straightforward likelihood ratio test." Den andra är "comparisons of probability plots, specifically ‘PP’ plots graphing values of p = F(x) predicted from each model against the values of p in the data, with a different plot for each threshold. Plots that lie wholly along the 45° line from the origin indicate perfect goodness of fit." (s. 275) Se diagrammen längst upp i inlägget för den första metoden, där de streckade linjerna betecknar signifikansnivåerna 0.05, 0.01 och 0.001. Med detta sannolikhetskriterium borde vi välja Pareto I över Pareto II bara när tröskelvärdet för Pareto-fördelningen är extremt högt. (s. 276) PP-plottarna visar att både Pareto I och Pareto II gör bra ifrån sig men att Pareto II är bättre när lägre tröskelvärden applicerats.
Eftersom båda goodness of fit-testerna säger att valet mellan Pareto I och Pareto II beror på vilket tröskelvärde man använder, så går Jenkins vidare med att diskutera just denna fråga. Frågan har tidigare utvärderats av Coles (2001) och Clauset et al (2009) som gått igenom Zipfplottar, plottar av parametrar mot tröskelvärden (för Pareto I α mot tröskel t, för Pareto II ξ och σ* = σξ - t mot t), men i Clauset et als fall istället rekommendderat ett mer "objektivt" och ur principer härlett mått på avståndet mellan power law-modellen, Paretomodellen, och ens empiriska data. Clauset et al förespråkar i denna anda Kolmogorov-Smirnov-testet som mäter avståndet mellan två kumulativa fördelningsfunktioner, datats funktion och Pareto-modellens function. Det avstånd som KS-testet ger, och som kallas D, är alltså, säger Jenkins, en sammanfattning i en siffra av den information som grafiskt visats i en PP-plot. Figur 7 visar hur estimaten av shape-parametern (α för Pareto I, ξ för Pareto II) blir med tre olika beräkningsmetoder och med olika tröskelvärden. Jenkins påpekar att de två översta bilderna, för Pareto I, visar att estimaten av α kan svaja rätt rejäkt beroende på vilket tröskelvärde man sätter och vilken beräkningsmetod man använder; för 1996-datat varierar skattad α mellan 2.5 och 2 beroende på om tröskelvärdet sätts till P95 eller P99.5, vilket ger stort utslag i beräknad Gini-koefficient. För Pareto II är de skattade shape-parametrarna mer stabila.
Följande diagram, Figur 8, visar vilka tröskelvärden som är bäst enligt KS-testet. För Pareto I är det runt percentil 99.5, alltså den övre halvan av den översta percentilen; för Pareto II är den runt P99. Slutsatsen som Jenkins drar av dessa olika tester och diagnostiska grafer är att Pareto I-estimat är känsliga för vilket tröskelvärde man väljer. (s. 279)
Till slut så kommer Jenkins till själva ojämlikhetsberäkningarna. Han börjar med en mycket enkel dekomponering där total inkomstojämlikhet är = ojämlikhet inom toppinkomstgruppen + ojämlikhet inom resten + ojämlikhet mellan de två grupperna, vilket definieras som den ojämlikhet som skulle vara om varje person hade medelinkomsten i sin grupp. Ojämlikhetsmått som kan dekomponeras på detta sätt är till exempel mean logarithmic deviation (L), och Theil-indexet (T). Eftersom de två grupperna här inte kan ha överlappande inkomster, så kan också Gini-koefficienten dekomponeras i detta sammanhang. För Ginin använder han en formel från Atkinson (2007) och Alvaredo (2011), också diskuterad av Cowell (2013):
Gini, G = P_R * S_R * G_R + P_N * S_N * G_N + G_B
där P är andelen av befolkningen som tillhör gruppen (P_R = andelen "rika", P_N = "non-rich"), S är inkomstandelen för gruppen, och G_B är ojämlikheten mellan grupper, G_B = S_R - P_R. S_R är = P_R * μ_R/μ, där μ_R är medelinkomsten för gruppen rika, och μ är medelinkomsten överlag, som kan beräknas som P_R * μ_R + P_N * μ_N.
Pareto I och Pareto II kommer ge olika resultat för ojämlikheten, G här eftersom de ger olika bild av parametrarna G_R och μ_R. Om μ_R är högre så kommer S_R och G_B bli större och därmed också G, ifall inte den högre μ_R övertrumfas av en mycket lägre G_R. Som Jenkins diskuterat utförligt med valet av tröskelvärden, är det upp till forskaren att definiera P_R. Han laborerar med tre alternativ: P90, P95 och P99, alla beräknade från surveydatat. Han beräknar Gini och MLD utifrån surveydatat, och jämför i ett Appendix också med Pareto-parametrarna μ_R, G_R, L_R och T_R från skattedatat som ju har mycket bättre täckning av de rika. Figur 9, inklistrad nedan, visar resultaten för μ_R, S_R, G_R och den totala Ginin, med olika tröskelvärden för när Pareto-imputeringen ska sättas in. Oavsett metodval så ser man att Gini-koefficienten ökade mellan 1996 och 2007, och sedan minskade igen. Att använda ett högre tröskelvärde ger högre estimat för μ_R, S_R och G_R. För den resulterande totala G är Pareto II-estimaten mindre känsliga än Pareto I; för Pareto II varierar estimaten för ett givet år bara med ungefär +- en procentenhet, medan för Pareto I är variationen +-2,5 procentenheter.
I diagram 10 jämför Jenkins sina beräkningar av Gini, MLD och Theil med tidigare beräkningar med andra data. Beräkningarna av nivåer varierar en hel del, medan trenderna ser ut ungefär samma. Figur 10 visar också problemen med surveydatat: både om han bara använder botten 95 procent av surveydatat, eller det hela, så får han fram att ojämlikheten föll mellan 1995 och 2007, trots att den enligt beräkningarna i Figur 9 steg. Theil-indexet, som är starkt styrt av vad som händer i toppen av fördelningen, är allra mest missvisande här. [4] Jämförelsen visar att det är bättre att använda Pareto-imputeringar i toppen, än att använda surveydata och inte veta att man missar toppen. (s. 285)
I sina slutsatser gör Jenkins en tydlig varning för att använda surveydata utan toppjustering, och säger att så länge man inte gör det misstaget, så får man en ganska entydig bild av hur inkomstojämlikheten utvecklades i Storbritannien från mitten av 90-talet till mitten av 00-talet. Jenkins rekommenderar att man använder Pareto II-fördelningen för att skatta toppinkomsterna. Han slår också ett slag för omfattande ojämlikhetsmått -- som Ginin -- som ger någon vikt till alla delar av inkomstfördelningen, olikt ett koncentrationsmått som toppercentilandelen som inte säger någonting om de lägsta 99 procenten.
Diskussionen om användning av Pareto-modeller för att fånga ojämlikhet i inkomster och förmögenhet har minst sagt fortsatt sedan dess. Nationalekonomen Emmanuel Flachaire, verksam vid Aix-Marseille Université, har skrivit flera artiklar i ämnet, den första av vilka som jag kollat på tillsammans med Arthur Charpentier, verksam vid Université du Québec à Montréal, publicerad i Journal of Economic Inequality 2022, med den enkla och tydliga titeln "Pareto models for top incomes and wealth". De börjar med en effektiv introduktion:
"Income and wealth distributions are skewed to the right, with thick upper tails. Thus, microdata samples often exhibit outliers, from which sample inequality indices can be severly distorted, even in large sample (Cowell and Victoria-Feser 1996). The upper tail of income distribution is then often modelled with a parametric distribution, such as the Pareto distribution.Nationalekonomer som sysslar med ojämlikhet har huvudsakligen använt Pareto I-fördelningen, säger Charpentier och Flachaire. Detta har folk gjort både i studier av mikrodata (Davidson och Flachaire 2007, J of Econometrics; Cowell och Flachaire 2007, J of Econometrics; Burkhauser et al 2011, Restat; Alfons et al 2013, J of the Royal Statistical Society C; Hlasny och Verne 2016, World Bank Econ Review; Vermeulen 2018, ROIW; Higgins et al 2018; Lustig 2018, WP-version) och studier av tabulerade data (Atkinson et al 2011, J of Econ Lit; Lakner och Milanovic 2015, World Bank Econ Rev; Atkinson 2017, Economica). Den breda användnigen reflekterar att Pareto-fördelningen är enkel och praktisk att använda, säger Charpentier och Flachaire: "The density, the cumulative distribution function and the quantile function are simple power functions, with a single parameter to estimate, which can be related to theoretical models that can explain the generation of his thick upper tail (Gabaix 2009, Annual Rev of Econ; Jones 2015, J Econ Persp; Benhabib and Bisin 2018, J Econ Lit)."
In his initial work on income and wealth distributions, Vilfredo Pareto suggested several parametric models (Pareto 1895, 1896). The term “Pareto distribution” refers to both Pareto I and Generalized Pareto distributions. Rytgaard (1990) wrote that the Pareto I distribution is the commonly used definition of the Pareto distribution in Europe, and the Generalized Pareto distribution in America. To some extent, this distinction could also be made between economists and statisticians." (s. 1-2)
Stephen Jenkins publicerade nyligen en artikel, säger Charpentier och Flachaire, där han ställde frågan vilken Pareto-modell som bäst passar för studier av toppinkomster. Jenkins empiriska test på Storbritanniens inkomstfördelning från 1995 till 2011 visade att Generalized Pareto Distribution (GPD) passade bäst; Charpentier och Flachaire ger i sin artikel en teoretisk grundval för detta resultat, och går vidare med diskussionen. Deras argument och bidrag är:
"We first show that the Pareto I distribution is very sensitive to the choice of the threshold. In particular, a threshold too low can lead to over-estimate the heaviness of the distribution and, thus, to over-estimate inequality. This bias comes from a misspecification, it does not disappear as the sample size increases. Next, we show that the GPD is less sensitive to the threshold, but its estimation is less accurate. We also show that the Pareto I behaves like the GPD only at (much) higher threshold. Then, we introduce the Extended Pareto distribution (EPD), which is even less sensitive to the threshold and which provides more reliable results. Finally, we discuss different types of bias that could lead to under- or over-estimate inequality in practice, and we illustrate our findings through two applications, on income distribution in South-Africa in 2012 and on wealth distribution in the U.S. in 2013." (s. 2)
Diskussionen om vilket tröskelvärde man ska välja har hållt på länge, och C och F menar att två huvudsakliga approacher har använts för att lösa problemet. Den ena är att leta och testa efter den mest precisa modellen; Fedoteknov (2018) går i en översiktsartikel igenom fler än 100 Pareto-modelleringar av toppen av en fördelning. Den andra är att utveckla en mer flexibel modell, "an easy way to reduce bias, but it comes at the cost of higher variance". Charpentier och Flachaire väljer denna väg.
Det är en teknisk artikel men i introduktionen har de en intressant substantiell motivering till varför artikeln är viktig för ojämlikhetsforskningen och dess läsare:
"An important implication of our results, discussed in the conclusion, is to reconsider two common beliefs in empirical studies of income inequality. Indeed, it is widely believed that inequality measures are: (1) under-estimated from surveys, because these data are subject to topcoding, censoring and underreporting of the rich; (2) more reliable from tax data, because there is no topcoding or censoring and these data are much less sensitive to misreporting. Our results show that inequality can be strongly over-estimated from surveys and from tax data, if the selected threshold is too low." (s. 2)
Efter introduktionen börjar själva undersökningen med att definiera Pareto I-fördelningen. Den har medelvärde u > 0 och dess tail parameter är α. Då är dess probability density function, PDF lika med:
f (x) = (α * u^α) / (x^α+1)
och dess cumulative density function CDF är:
F (x) = 1 - (x / u)^-α när x > u.
Pareto I har använts flitigt för att estimera de översta delarna av inkomst- och förmögenhetsfördelningarna; P I-fördelningen har en attraktiv egenskap i att medelvärdet över tröskeln är proportionerligt till tröskeln och att det inte beror på skal-parametern u.
E (X | X > u') = αu' / (α -1), α > 1
när u' är >= u. Charpentier och Flachaire förklarar med ett exempel från Piketty (2007) och Atkinson et al (2011): om den inverterade Pareto-koefficienten α/(α-1) är 2, så är medelinkomsten för alla individer som tjänar mer än $100 000 lika med $200 000, och medelinkomsten för personerna med inkomst över $1 miljon är = $2 miljoner. Minst sagt praktiskt! Dessutom kan, visar Jones (2015), enkla ekonomisk-teoretiska modeller förklara mekanismer som ger upphov till Pareto-fördelningar.
För den Generaliserade Paretofördelningen GPD, som Jenkins kallar Pareto II, med tail parameter α > 0 definerar de CDF:en så här:
F (x) = 1 - [1 + (x-u/σ)]^-α där x > u.
Skala-parametern σ är positiv och u är lower-bound. Om Pareto I modellerar relativa överskotten X/u givet X > u, så modellerar GPD absoluta överskott X-u givet X > u. Anledningen till att Charpentier och Flachaire kallar fördelningen som Jenkins kallar Pareto II gör den generaliserade Paretofördelningen är eftersom man kan se Pareto I som ett specialfall av Pareto II, där σ = u:
GPD (u, u, α) = P_1 (u, α)
Med GPD låter man modellen bestämma om den högra svansen av fördelningen ska modelleras som en power law av relativa överskott (α = u) eller av absoluta överskott (α är inte lika med u). I GPD beror medelinkomsten över tröskeln, u' >= u, på alla parametrarna:
E (X | X > u') = (σ - u) / (α - 1) + (α / α-1) u'.
Liksom Jenkins så konstaterar Charpentier och Flachaire att det är väldigt svårt att välja tröskelvärdet u, vilket är problematiskt eftersom ens resultat är starkt beroende av vilket tröskelvärde man väljer. Observationerna över u är de k största värdena i fördelningen och dessa k värden antas vara Pareto-fördelade, med tail index α. När man ska bestämma u möter man en trade-off mellan bias och varians: om man sätter tröskelvärdet för högt är k litet och beräkningarna kan bli volatila; sätter man tröskelvärdet för lågt blir variabiliteten lägre men bias större. Deras diagram 1 illustrerar hur estimaten av α fluktuerar med valet av u för Pareto I (vänster) och GPD (höger), för fiktiva samples med 1000 observationer skapade enligt en GP-fördelning. Diagrammet visar att medelvärdet inte varierar för GPD-estimaten, vilket betyder att de inte har bias utifrån vilket u man valt, men att deras varians däremot är väldigt mycket större än vad variansen för Pareto I-estimaten är.
De går vidare med att presentera Extended Pareto Distribution, EPD. Detta motiveras med att Pareto I presterar dåligt om man inte sätter tröskelvärdet väldigt högt. EPD: plockar de upp från Beirlant et al (2009) och de definierar den så här:
F (x) = 1 -[(x/u) (1 + δ - δ(x/u)^τ)]^-α där x > u, τ =< 0 och δ > max(-1, 1/τ).
Pareto är ett specialfall där δ = 0 och GPD är ett specialfall där τ = - 1. För EPD finns det inte någon enkel approximering av medelvärdet över tröskelvärdet och man behöver själv beräkna det. Efter att ha introducerat EPD går de vidare med att jämföra dess precision och bias i att beräkna tail parameter α, med hur Pareto I och GPD presterar. Beräkningarna i Fig 2 bygger på 1000 simulerade samples med 50 000 observationer var, Singh-Maddala-fördelningar som liknar 2013 års US-amerikanska inkomstfördelning. Fig 2 visar, säger de, att Pareto I-modellen konsekvent underskattar α, vilket innebär att den kommer överskatta inkomstojämlikheten. GPD tenderar tvärtom till att överskatta α. EPD har, som vi ser, mycket mindre bias: med lägre tröskelvärde hamnar den beräknade α under det faktiska värdet, men inte med alls så stort fel som GPD eller, framför allt, Pareto I. I Figur 3 (inte visad här) visar de att även om samplet är mycket stort (1 miljon observationer) så återstår bias för Pareto I och GPD.
De fortsätter med simuleringar med olika tail parameters, mer och mer olika en ren Pareto-fördelning med konstant α oavsett vad man sätter tröskelvärdet. Atkinson et al (2011) säger att i praktiken så varierar α mest mellan 1,5 och 3; de beräknar ^α i fördelningar som har det faktiska värdet α = 3, och fördelningar som avviker från Pareto i att istället ha stigande ρ genom fördelningen. Också här underskattar Pareto I-modeller α vilket överskattar ojämlikheten; GPD har mindre bias men mer varians; och EPD presterar bättre än både Pareto I och GPD. Också när det faktiska värdet är α = 1.5 strular Pareto I-till det.
I empiriska studier beräknas den övre svansen ofta från diagram, säger Charpentier och Flachaie. Man kan också beräkna, för en Pareto I-fördelning: log (1 - F(x)) = c - α log x där c = α log u. Utifrån detta kan man göra en plot med logaritmerade inkomster på x-axeln och den logaritmerade överlevnadsfunktionen på y-axeln: log x, log (1 - F(x))). Detta är en Zipf plot, som visar andelen av befolkningen med inkomst > x gentemot x självt. Om fördelningen är strikt Pareto, så ska plotten visa en linjär funktion med en lutningskoefficient som motsvarar α.
Det finns dock tre orsaker till att bias uppstår när man ska beräkna α, säger de: misspecification bias, estimation bias, och sampling bias. Jag lämnar deras detaljerade diskussioner om dessa tre problem därhän, men noterar bara att i sampling bias-diskussionen utgår de från den klassiska ojämlikhetsdiskussionen om de rikas underrepresentation i surveydata, och de påpekar att de utvecklat program i R ("TopIncomes") för att korrigera för detta problem.
Efter diskussionerna om de tre källorna till bias, kommer de till sina illustrerande exempel: en analys av inkomstfördelningen i Sydafrika år 2012, och en analys av förmögenhetsfördelningen i USA år 2013. Inkomstdatat för Sydafrika är ett sample med 7990 hushåll, inkluderad i Luxembourg Income Study. De börjar med en graf (Figur 8, nedan) som visar vad för α som beräknas för fördelningen i Sydafrika utifrån olika tröskelvärden (k) och med Pareto I, GPD eller EPD. Detta följs av Figur 9 som visar resulterande estimat av toppercentilens andel av inkomster., för olika tröskelvärden. Diagrammet visar att med Pareto I-modellen så ökar den estimerade inkomstkoncentrationen när k växer, vilket hänger ihop med att beräknade α ju faller med stigande k och Pareto I, vilket vi sett i Figur 8. Med beräkningar baserade på GPD och EPD blir estimaten av toppercentilandelen mycket stabilare.
Charpentier och Flachaire visar med nästa diagram (Fig 10) som är ett Paretodiagram, hur överskattningen av ojämlikheten uppstår med Pareto I-modellen: med för låga k underskattas α och därmed överskattas inkomsterna i the upper tail.
Efter Sydafrikas inkomstfördelning modellerar Charpentier och Flachaire förmögenhetsfördelningen i USA år 2013 med olika Pareto-modeller. Också här utgår de från hushållssurveydata från Luxembourg Wealth Study. Också här har Pareto I-modellen stora problem.
I slutsatserna börjar Charpentier och Flachaire också just med att varna för att Pareto I-modellen, som är så flitigt använd i ojämlikhetsstudier, ger orimliga resultat när man använder för låga tröskelvärden; då underskattas tail index och därmed överskattas ojämlikheten. GPD presterar bättre, och EPD presterar ännu bättre. De citerar Atkinson, Piketty och Saez välkända översiktsartikel ur toppinkomstlitteraturen där APZ estimatar tail-parametern som ration från topp 5 procentens inkomstandel till toppdecilens inkomstandel, och säger att toppinkomstandelar är underskattade i surveystudier pga bortfall i toppen av fördelningen. Charpentier och Flachaire säger att det visserligen är sant om fördelningen är strikt Pareto över 90:e percentilen och man inte har stora outliers, men de pekar på att om dess antaganden inte håller, så kan man underskatta α och därmed överskatta ojämlikheten med APZ metod. De avslutar med att peka på att Jenkins (2017) arbetat med skattedata, som inte har problemen med bortfall som surveydata har, och att han ändå fann att Pareto I:s optimala tröskelvärde var vid den 99,5:e percentilen -- mycket högre än vad folk typiskt använder som tröskelvärden. Charpentier och Flachaire avslutar lakoniskt: "This suggests that fitting Pareto models to tax data should be done with more caution than has been done so far." (s. 23)
Bara ett år senare publicerade Flachaire ännu en artikel i ämnet, denna gången med nationalekonomerna Nora Lustig (Tulane University) och Andrea Vigorito (Universidad de la República i Uruguay, numera anställd vid UNDP). I denna artikel är utgångspunkten de välkända problemen med att surveydata ofta missar de rika: eftersom att rika människor inte vill svara på surveys om sina inkomster, eftersom samplen är för små, eller på grund av mätfel, t ex att de rika uppger mindre inkomster än vad de faktiskt har. [5] Därför har under 2010-talet en rad metoder utvecklats för att överkomma problemet med bias i surveydata: att komplettera surveys med nationalräkenskaper (Piketty, Saez och Zucman 2018), skattedata eller socialförsäkringsdata (Burkhauser et al 2016; Jenkins 2017; Piketty et al 2019), med fler surveys (Fisher et al 2022), eller med s k rich lists (Brzezinski 2014).
Flachaire, Lustig och Vigoritos artikel fokuserar på att utforska korrigeringsmetoder för underrapportering av inkomst i toppen av inkomstfördelningen. Framför allt två metoder används i litteraturen; Hlasny och Verme (2018) etiketterar dessa som "replacing" och "reweighting". Dock så bygger båda metoderna, säger FLV, på antaganden som i sig inte går att testa empiriskt, framför allt om vilket tröskelvärde man ska välja för var surveys börjar underrapportera inkomster. "The biggest challenge in applying correction methods is that the true income distribution is unknown; therefore, one does not know the threshold above which underreporting occurs." (s. 1034) FLV använder simuleringsmetoder för att testa hur känsliga korrigeringsmetoderna är för vilka tröskelvärden som väljs. Dels så simulerar de en hypotetisk faktisk fördelning, dels en hypotetisk fördelning som lider av underrapportering i övre svansen. En fördel med simuleringar här är att de kan isolera problemet med underreporting och bortse från det i faktiska dataset parallellt förekommande problemet med sampling error. Deras simulerade datas fördelning baserar de på ett unikt dataset från Uruguay där ett subset av landets officiella inkomstsurvey har länkats till samma personers skattedeklarationer. Figur 2 visar att survey-underrapporteringen av inkomst är störst bland höginkomsttagare, som förväntat: toppercentilen i skattedatat rapporterar bara 60 procent av sina beskattade inkomster i hushållssurveyn. Mer oväntat är kanske att folk längst ner i inkomstfördelningen faktiskt uppger högre inkomster än vad de har enligt skattedatat. [6]
Deras simuleringstester börjar med en simularad Singh-Maddala-fördelning där a och q är shape parameters, b är en skala-parameter och y > 0. De sätter dess parametrar utifrån Uruguays inkomstfördelning, som de beräknat baserat både på hushållssurveyn och på skattedatat. De förklarar i detalj hur de utifrån denna "korrekta" simulerade fördelning sedan skapar en biased simulerad fördelning utifrån de parametrar för underrapportering som de beräknat utifrån jämförelsen mellan survey och skattedata. De sätter underrapporteringen under fördelningens median till 0, medan de för hushållen mellan medianen och 90:e percentilen sätter r(p) som 0,25 + 1,5p där p är andelen underrapportering i det faktiska datat, p = F_y (y) och F_y (y) är CDF:n för den faktiska fördelningen. För den översta decilen sätter de underrapporteringen som -7,85 + 10,5p. Den "biased" simulerade inkomsten x ges då genom att dela den sanna inkomsten y med r(p) e, vars emedelvärde är r(p). Parametern σ anger heterogeniteten i hur mycket personer med samma inkomst underrapporterar sina inkomster; de sätter σ till 0,15. Deras plot med r(p) över inkomstfördelningen ser ut som den motsvarande plotten för Uruguays faktiska data, Figur 2 ovan, vilket är som det ska.
Därefter visar de i Figur 4 den sanna simulerade fördelningens density function, jämfört med den biased simulerade fördelningens dito. Den biased fördelningen får en mycket högre peak i mitten av fördelningen, och en mycket tunnare svans till höger. Detta betyder att den biased fördelningen är mycket mera jämlik, vilket de också visar med en uppsättning konventionella ojämlikhetsmått: Gini-koefficienten, MLD, Theil, och så inkomstandelarna för toppdecilen, topp 5 procenten, och toppercentilen. Ginin faller t ex från 0,436 till 0,299 i den biased fördelningen, och toppdecilens andel från 33,9 procent till 22,6 procent. Väldigt stora effekter!
Från detta går de vidare med att diskutera de två olika approacherna för att kombinera skattedata och surveydata: replacing och reweighting. Replacing-approachen går ut på att ersätta vad man anser vara felrapporterade inkomster över ett visst tröskelvärde k, med kvantilerna från vad man anser vara den sanna fördelningen. Den nya fördelningen z som man gör sina beräkningar på kommer alltså bestå av 100-k procent från surveyfördelningen, och k procent från den kompletterande fördelningen. Baserat på z kan man enkelt beräkna ojämlikhetsmått som går att dekomponera, säger FLV: den totala ojämlikheten är (a) ojämlikheten inom 100-k-gruppen, (b) ojämlikheten inom k-gruppen, och (c) ojämlikheten mellan de två grupperna. Detta kan dekomponeras för Gini och andra mått med formler från Alvaredo (2011, Economics Letters) eller Cowell (2011, Measuring Inequality, 3e utg.). (s. 1042-1044) Topprocentandelar för v procent ovanför t definieras:
TS_r(v) = (v/100)𝔼 (y >= Q_y (1-v/100)) / μ_r =
(μ_y / μ_r ) * TS_y (v), om v =< k
μ_r är medelvärdet i den nya fördelningen och om v =< k så är toppandelarna i den nya fördelningen samma som toppandelarna i den sanna fördelningen, omskalat med medel-ration. Figur 5 illustrerar de tre fördelningarna -- den biased fördelningen, den "sanna" fördelningen med toppandelar, och den nyskapade fördelningen z, när man använder olika tröskelvärden för när man ska sätta in korrigeringen: 90:e percentilen, 67:e percentilen, medianen, 40:e percentilen eller 30:e percentilen. I en tabell visar de hur beräknade ojämlikhetsmått blir med replacing-approachen och de fem olika tröskelvärdena. Det förvånar mig att ojämlikhetsberäkningarna faktiskt hamnar närmst den faktiska fördelningen (faktiskt helt rätt) med låga tröskelvärden, säg att man korrigerar redan från den 40:e percentilen! Jag har aldrig tänkt att man skulle ersätta lägre än den 90:e percentilen så detta var förvånande för mig.
Den andra korrigerings-approachen är reweighting, att omvikta observationer i den biased källan för att ändå få blick på inkomsterna i toppen av fördelningen. Vikterna är då (ekvation 9):
w (x) = [ 𝜆, om x =< t
[f_y (x) / f_x (x), om x > t
Och dem korrierade, omviktade fördelningen ges då av w(x) f_x(x), det vill säga:
f_w (x) = [ 𝜆 f_x(x), om x =< t
[ f_y (x), om x > t
Den omviktade fördelningen är då den "sanna" fördelningen över t, och under t den biased fördelningen, omskalad med faktorn 𝜆. I teorin bör reweighting-strategin ge samma resultat som replacing-strategin, eftersom de båda bygger på att kombinera biased data under tröskeln med "sanna" data över tröskeln. Men, säger FLV, att beräkna datats densitet är komplicerat för höga inkomster som är skevt fördelade, och vikterna som definierats ovan kan därför vara opålitliga, och estimaten kan skilja sig rejält åt mellan replacing och reweighting. (s. 1047-1048)
Blanchet, Flores och Morgan har i ett WID.World-working paper, "The weight of the rich", beskrivit den korrigeringsmetod som de använder i WID. Denna metod har ett första steg där survey-inkomsterna viktas enligt ekvation 9 ovan. I det andra steget dupliceras inkomsterna över tröskelvärdet och ersätts med observationer med motsvarande rank och vikt från skattefördelningen. Denna metod motsvarar i princip den reweighting-metod som beskrivits ovan, där vikterna från ekvation 9 används och appliceras i en ekvation 11 som jag inte återgett här. Också med denna metod kan man, som jag återgett för replacing ovan, beräkna den totala ojämlikheten som en summa av tre beståndsdelar: ojämlikheten i surveydatat under tröskelvärdet, ojämlikheten i skattedatat över tröskelvärdet och ojämlikheten mellan de två grupperna. Topprocentandelarna för de översta v procenten över tröskelvärdet beräknas:
TS_w(v) = (v/100)𝔼 (y >= Q_y (1-s/100)) / μ_w = (μ_y / μ_w ) * TS_y (v), om v =< 1
Detta är toppandelarna från skattedatat, omskalat av ration av medelvärden. När medelvärdet i den omviktade fördelningen är mindre (större) än medelvärdet i den sanna fördelningen, blir topp v procentandelen med v =< 1 biased uppåt (neråt). Liksom för replacing-strategin så visar de diagram med fördelningarna för surveydatat, skattedatat och det nyskapade, korrigerade hybriddatat, med olika tröskelvärden för korrigeringen, från 30:e till 90:e percentilen. Och i en tabell visar de resulterande ojämlikhetsmåtten med de olika beräkningarna: också här hamnar estimaten närmst den sanna ojämlikheten när låga tröskelvärden använts, säg 30:e eller 40:e percentilen, precis som i fallet med replacing-metoden. Reweighting-metoden är dock inte lika effektiv: medan replacing-estimaten närmar sig den sanna ojämlikheten snabbt när man minskar tröskelvärdet, så måste man med reweighting använda ganska låga tröskelvärden för att få precisa estimat. Detta bror på att replacing-fördelningen avviker från den sanna fördelningen bara lokalt (mellan den optimala tröskeln och den faktiska tröskeln) medan reweighting-fördelningen avviker från den sanna fördelningen mera globalt, överallt under tröskelvärdet.
Vi ser återigen att valet av tröskelvärde är väldigt viktigt, och nästa sektion i FLV:s artikel ägnas åt just detta val. De introducerar problemet som att man får stora problem med sina estimat om det finns underrapportering under ens tröskelvärde. Den metod som jag känner till för att sätta tröskelvärdet är nog den intuitiva eller tumregelsval: man säger helt enkelt att ovanför den 90:e percentilen eller så, så tänker man sig att det fins underrapportering. FLV refererar här till Burkhauser et al (2016, NBER WP), Chancel och Piketty (Indienpaper i ROIW, 2019), och Piketty, Yang och Zucman (Kinapaper i AER, 2019). Ett mer systematiskt sätt att välja tröskelvärde är att använda en kvantil-ratio-funktion:
t = max (Q_x(p)) så att Q_y(p) / Q_x(p) = 1
Det vill säga en funktion som identifierar den högsta percentilen i fördelningen där fördelningen i surveydatat, Q_x, ger samma värde som fördelningen i skattedatat, Q_y. Figur 3 visar kvantilratios från FLV:s simulerade data, och här ser man att kvantilratios börjar avvika från 1 redan före medianen! Baserat på figuren skulle man då börja korrigera redan från den 40:e percentilen.
En annan regel för att välja tröskelvärde föreslås av Blanchet, Flores och Morgan i "The weight of the rich: Improving surveys using tax data" (JOEI, 2022). Regeln är att välja:
t = max (z) så att F_x(z) / F_y(z) = f_x(z) / f_y(z) (ekvation 17)
FLV kommenterar denna metod så här: "This method is defined to ensure the continuity of the reweighting distribution in the upper tail. However, it is not designed to identify when the true and distorted distributions start to differ, and it often selects a threshold that is too high." (s. 1051) De pekar på att de två fördelningar som man jobbar med, surveydatat och skattedatat, kan korsas på flera ställen och att det är svårt att beräkna density ratios precist i mindre samples. Därför, säger FLV, får Blanchet, Flores och Morgan också mycket olika resultat för vad för tröskelvärden de ska använda när de utforskar högkvalitativa skattedata från Norge och Frankrike på 2000-talet: tröskelvärdena varierar mellan 60:e och 99:e percentilen. FLV beräknar tröskelvärden utifrån ekvation 17 baserat på sina simulerade "uruguayanska" data och visar att tröskelvärdet som man väljer utifrån Blanchet-Flores-Morgans metod är bra mycket högre än de tröskelvärden som de själva kommit fram till: 67:e percentilen snarare än runt 40:e percentilen. Den beräknade Gini-koefficienten blir med BFM:s metod och 67:e percentilen 0,416 att jämföra den faktiska Ginin som är 0,436, och för toppdecilens andel blir BFM-beräkningen 33,0 procent att jämföra med det faktiska värdet 33,9 procent. (Tabell 2.) Egentligen inte så dålig precision, blir min reflektion, även om FLV verkar kritiska.
I följande sektion, "What should we do in practice?", upprepar de att valet av tröskelvärde är komplicerat. De säger att metoden med kvantilratios inte är helt pålitlig och att skattedatat också har problemet med skattesmitande. FLV rekommenderar att man kan använda kvantilratio-metoden för att sätta tröskelvärdet till att börja med, och sedan visa resultaten man får med flera olika tröskelvärden, för att visa hurpass robusta resultaten är. I praktiken kommer man också, till skillnad från i simuleringarna som FLV hittills jobbat med, behöva ta hänsyn till samplingsfel, inte bara underrapportering i toppen av fördelningen. (s. 1054-1055)
De illustrerar praktiken med sina survey- och skattedata från Uruguay. Kvantilratio-plotten visar att redan vid medianen så avviker kvantilratios, vilket säger att de finns underrapportering av inkomster redan ovanför 50:e percentilen. Detta medan Blanchet-Flores-Morgans metod för att beräkna tröskelvärdet säger att det räcker med korrigering ovanför 72,5:e percentilen. Om man sätter tröskelvärdet vid 50:e percentilen så ger replacing, reweighting och BFM (som använder en generaliserad Pareto-fördelning i toppen) i princip samma resultat vad gäller ojämlikhetsestimat. Överlag är de empiriska resultaten för Uruguay liknande som simuleringsresultaten; inte minst så ger replacing-metoden mycket stabila resultat, inte så känsliga för val av tröskelvärden. (s. 1056-1057) I slutsatserna säger de också att replacing-metoden kan vara att föredra just eftersom den är mindre känslig för det svåra problemet med att välja rätt tröskelvärde. Man kan dock inte säga detta för alla problem; sampling error har ju inte diskuterats på samma sätt här som problemet med underrapportering i toppen, så i andra situationer kanske replacing inte är lika tydligt överlägsen reweighting. (s. 1057-58)
Den sista metodartikeln om toppinkomster som jag ska kolla på här är också skriven av Emmanuel Flachaire, fast nu i samarbete med LSE-ekonomen Frank Cowell: "Inequality Measurement and The Rich: Why Inequality Increased More Than We Thought", publicerad i Review of Income and Wealth 2024. Cowell och Flachaire börjar sin artikel med att konstatera att många idag funderar på om inkomstojämlikheten stiger eller faller, men att vanliga mått som Gini och Theil kan ge olika besked. Det beror, säger de, också på att både Gini och Theil är beräknade med ett spridningsmått i täljaren och en medelinkomst i nämnaren; att inkludera medelinkomsten är bra för att göra beräkningarna icke känsliga för skala, men påverkar också estimaten, förstås.
Flachaire och Cowell använder ett enkelt exempel för att visa att Gini och Theil har ett problem i att de inte följer vad de kallar "principle of monotonicity in distance", som de definierar så här: "if two distributions differ only in respect of one individual’s income, then the distribution that registers greater distance from equality for this individual’s income is the distribution that exhibits greater inequality." (s. 255) För att illustrera detta presenterar de två inkomstfördelningar, x och x':
x = {1, 2, 3, 4, 5, 9, 10}. x′ = {1, 2, 3, 4, 7, 9, 10}.
Medelvärdet i x är 4.857 och medelvärdet i x' är 5.143, så den femte personens inkomstökning från 5 till 7 är en ökning av ojämlikheten -- personen rör sig bort från medelvärdet, säger de. Men Ginin säger att med denna förändring så rör vi oss från 0.361 till 0.357, alltså lite lägre ojämlikhet, och Theil likaså: från 0.216 till 0.214. Alltså följer inte Gini- och Theil-måtten principen om monotonicity in distance -- trots en ökad inkomstspridning från x till x' så anger Gini och Theil att ojämlikheten minskat. Roligt nog så lyfter de istället fram det mer obskyra ojämlikhetsmåttet mean logarithmic deviation, MLD ("or second Theil index") som de säger har de attraktiva egenskaperna att både respektera "principle of transfers", och principen om monotonicity in distance. MLD för x och x' blir till exempel 0.254 och 0.263. Flachaire och Cowell menar att detta inte bara är ett tanke-experiment, utan att det har bäring på hur vi tolkar utvecklingen i Storbritannien och USA idag: om vi tittar på Gini-koefficienten, så underskattar vi hur ojämlikheten ökat i dessa länder.
Efter introduktionen så börjar deras diskussion med att diskutera principer för ojämlikhetsmått -- här refererar de också sitt bokkapitel "Inequality measurement: Methods and data" från 2021. De säger att varje ojämlikhetsmått för en population behöver en referenspunkt: det kan vara till exempel medelvärdet (tjänar personen mer eller mindre än medelinkomsten i befolkningen) eller medianvärdet. Utifrån referenspunkten kan man diskutera principen om monotonicity in distance som är den första av tre principer som de lägger fram för ojämlikhetsmått. Denna princip har förklarats ovan. Den andra principen är independence, som de förklarar så här:
"Suppose there is some particular i for which the value of x_i is the same in both distribution x and distribution x′. Identical small variations in this common value should leave the inequality ranking of distributions x and x′ unchanged. This principle provides the basis for decomposing inequality by subgroup of the population as discussed in Section 4 later." (s. 257)
Den tredje principen är scale invariance, som de förklarar med två punkter: den ena är att om man skalar om alla värden i x och x' enligt samma skala, så ska jämförelserna av ojämlikhet i x och x' förbli oförändrade. Den andra är att om alla observationerna i fördelningarna x och x' växer proportionerligt, medan referenspunkterna förblir desamma, så ska inte ojämlikhetsjämförelsen påverkas. Nivån av uppmätt ojämlikhet kan förändras, men inte rankingen av x kontra x'.
Utifrån dessa tre principer så lägger de fram en klass av ojämlikhetsmått. Om n är antalet personer i samhället och r är referenspunkten, så tar ojämlikhetsmåttet antagligen "absolut" form:
G (x) : = 1/2n^2 nΣi=1 nΣj=1 | x_i - x_j | (formel 1)
eller en relativ form:
I_𝛼 (x; r) := 1/𝛼[𝛼-1] * [1/n nΣi=1 x^𝛼_i - r^𝛼] (formel 2)
där 𝛼 är en sensitivity parameter. För att de två formlerna ska jobbas om till användbara ojämlikhetsmått, säger Cowell och Flachaire, så behöver man göra två saker. För det första, definiera referenspunkten r i den andra formeln: det kan till exempel vara medelvärdet. I den första formeln har r implicit redan satts som medianen, m; man kan skriva om den formeln som
G (x) = nΣi=1 * k_i * x_i
där x_i är värdet för den i:de komponenten av x sorterad i stigande ordning, och k_i är = 2/n^2 [i - (n+1)/2]. Detta innebär att en förändring i x_i ger en effekt på ojämlikhetsmåttet, positiv eller negativ, i enlighet med i-(n+1)/2. Detta innebär att måttet respekterar monotonitetskriteriet. Det andra som man behöver göra för att formel 2 ska bli ett användbart ojämlikhetmått är att normalisera så att om alla inkomster ökar proportionerligt, så förvrids inte jämförelser. Man kan normalisera mot medelvärdet μ som i den konventionella Ginin, men Cowell och Flachaire föredrar att normalisera mot medianen m. [7] De demonstrerar med simulationsanalyser med lognormala fördelningar med 5000 observationer hur den medelvärdesnormaliserade och medianvärdesnormaliserade Ginin reagerar på en rörelse längre bort från medel/medianen för en observation. Den medianvärdesnormaliserade Ginin är rimligare här, är summan av kardemumman. (s. 259-264)
Nästa utredning rör principle of transfers, att en överföring från en fattigare person till en rikare person alltid ska innebära en ökning av ojämlikhetsmåttet. Både den "absoluta" och den vanliga Ginin klarar detta test; den mediannormaliserade Ginin klarar principen så länge överföringarna sker mellan personer som är antningen under eller över medianen, om överföringen korsar medianen så kan det bli problem. Cowell och Flachaire reder ut hur formel 2-måttet ovan klarar överföringsprincipen, beroende på om man använder en mediannormering eller en medelnormering.
Följande sektion arbetar med att jämföra hur olika medlemmar av de två "familjerna" av ojämlikhetsmått -- den medelnormerade och den mediannormerade -- presterar på olika sätt. Formel 2-måttet mediannormerat har känslighetsparametern 𝛼 och när 𝛼 > 1 så fästs mer vikt vid höga värden av x, medan om 𝛼 < -1 fästs mer vikt vid låga värden av x. Om 𝛼 befinner sig mellan -1 och 0 så blir observationerna nära till och över medianen särskilt viktiga; om 𝛼 är mellan 0 och 1 blir det extra vikt på värden runt och under medianen. (s. 266) De går tillbaka till ekvation 10 som de presenterat ovan (se fotnot 7 här):
I_0 (x/μ; μ) = 1/n * nΣi=1 * log(x_i/μ)
och skriver om den så här:
I_0 (x/m; μ) = log (μ/g)
där g är fördelningens geometriska medelvärde. "Therefore, the MLD index is the log difference between the arithmetic mean and the geometric mean, and it is clear that in computing arithmetic and geometric means, every value of x has the same weight." (s. 266) [8]
De går över till att diskutera Gini-familjen. Den mediannormaliserade Ginin är besläktat med det mediannormerade generalized entropy-måttet som diskuteras i det utklippta resonemanget i fotnot 7 nedan. Jag återger det senare måttet också här:
I_𝛼 (x/m; μ) = 1/𝛼[𝛼-1] * [1/n nΣi=1 (x_i/m)^𝛼 - (μ-m)^𝛼], (ekvation 12)
= (μ/m)^𝛼 I_𝛼 (x/μ;μ), for all 𝛼 ∈ R. (ekvation 13)
I Gini-diskussionen så säger de att det mediannormaliserade måttet i ekvation 12 med 𝛼 = 2 är lika med:
I_2 (x/m; μ) = (𝜎^2)/(2m^2) = E([x -_x]^2)/(2m^2) = E x, x' ([x-x']^2)/(4m^2) (ekvation 26)
Med detta, säger Flachaire och Cowell, ser vi att Gini (x; m) och [I_2 (x/m; μ)]^(1/2) är two very similar measures; both are ratios of a dispersion measure on twice the median. For the Gini, the dispersion measure is based on Manhattan L1-distance, while for the generalized-entropy measure it is based on Euclidean L2-distance. As a consequence, I2(x∕m; 𝜇) puts more weight on high values of x, compared with the Gini. It is also true for mean-normalized inequality measures G(x; 𝜇) and [I2(x∕𝜇; 𝜇)]1∕2, because both
are ratios of a dispersion measure on twice the mean." (s. 266) Gini och MLD har då gemensamt, säger de, att alla delar av fördelningen är lika viktiga för resultatet.
Följande sektion handlar om dekomponeringar av de olika måtten, i den mediannormaliserade och medelnormaliserade familjen av mått. De delar in befolkningen i K antal grupper, där andelen av befolkningen som tillhör grupp k skrivs p_k och medianinkomsten och medelinkomsten i grupp k skrivs m_k och μ_k. Vi vill dekomponera inkomstojämlikheten per K och det kan göras på två sätt, säger Cowell och Flachaire: det ena är non-overlapping dekomponering där vi sätter villkoret att grupperna är strikt rangordnade efter inkomst så att den rikaste personen i grupp k alltid har lägre inkomst än den fattigaste personen i grupp k+1, eller en generell dekomponering som inte har några sådana antaganden. Om vi arbetar med antagandet om ingen överlappning mellan k och k+1 så blir dekomponeringen av Gini-familjen som följer:
För MLD behövs ingen grouping-begränsning för dekomponeringen. Den kan dekomponeras så här:
I_0 (x/m; μ) = I_0 (x/μ; μ) = KΣk=1 * p_k * I_0 (x_k/μ_k; μ_k) - KΣk=1 * p_k * log (μ_k/μ)
De två sista elementen visar att vi tar den gruppstorleksviktade spridningen av varje persons inkomst i grupp k relaterat till medelinkomsten i grupp k (inom-grupp ojämlikhet) och subtraherar gruppviktad, logaritmerad skillnad mellan gruppens medelinkomst och populationens medelinkomst (mellan-grupp ojämlikhet). Om vi t ex vill dekomponera inkomstskillnaden mellan män och kvinnor så kan den totala ojämlikheten skrivas:
I_𝛼 = w^F I^F_𝛼 + w^M I^M_𝛼 + I^btw
där w^F och w^M är vikterna för kvinnor och män, och I^btw är medelvärdet för grupp F och medelvärdet för grupp M relativt till hela medelvärdet; "comparing I^F_𝛼 and I^M_𝛼 enables one to say precisely where changes in inequalityhave taken place." (s. 268)
I den sista undersökningsdelen (före slutsatssektionen) applicerar Cowell och Flachaire de olika måtten: MLD som är densamma vare sig man normaliserar efter medel eller median och som klarar både monotonitetsprincipen och överföringsprncipen, och Gini normaliserad efter medel eller median som varierar med detta och där den medelnormaliserade Ginin inte klarar monotonitetsprincipen. I diagram 5, som jag klistrat in nedan, ser vi tre serier: de röda trianglarna är MLD, de blå cirklarna är Ginin, och de gröna cirklarna är den mediannormerade Ginin. Vi ser att alla tre serier egentligen har väldigt lika utveckling över tid: en viss minskning mellan mitten av 1960-talet och slutet av 1970-talet; därefter en kraftig ökning till det tidiga 1990-talet, följt av relativ stabilitet på 90-talet med viss ökande tendens fram till finanskrisen 2008. Ökningen blir dock kraftigare med den mediannormerade Ginin än med den medelnormerade dito och eftersom MLD mäts på en annan skala så kan diagrammet nedan dölja något som de visar i ett annat diagram, inte visat här, nämligen att den procentuella variationen år-till-år ofta är häftigare i MLD än i Gini.
De går över till att visa utvecklingen i USA från 1967 till 2016.Här skiljer sig bilden man får av de olika måtten mer åt. Alla tre mått visar förstås att inkomstspridningen ökat kraftigt sedan 1970-talet, men med olika takt. För perioden 1994-2016 ökade MLD med 1.292 procent om året och median-Ginin med 0.517 procent om året, medan den vanliga Ginin "bara" ökade med 0.264 procent om året. [9]
För att vidare utreda vad som händer med de olika måtten gör de en slags simulering light -- de kallar det en "parabel" -- där de använder de fem kvintilerna av USA: s inkomstfördelningar 1994 och 2016 och presenterar Gini och MLD utifrån förändringen för varje kvintil 1994-2016. Tabell 1 visar medelinkomsten för de fem kvintilerna 1994 och 2016. Den andra gruppen kolumner "Base Year 1994" visar överst between-group-ojämlikheten 1994 (Gini 0.4222; MLD 0.3523) och där nedan kontrafaktiska scenarier: hur hade Gini och MLD utvecklats 1994-2016 om bara medelinkomsten för en kvintil hade förändrats? Vi förväntar oss här förstås att ojämlikheten ska öka om inkomsterna ökar för kvintiler 4 och 5, som har inkomster över medel, och minska om inkomsterna ökar (isolerat, kontrafaktiskt) för kvintilerna 1 och 2, som har inkomster under medel. Men vad kolumnerna "Base Year 1994" visar är att medan MLD ger konsekventa utfall, så gör inte Ginin det: där minskar ojämlikheten när inkomsterna för kvintil 4 ökas. Samma resultat blir utfallet om man gör det omvända experimentet: utgår från 2016 års inkomst och sedan minskar inkomsterna för en kvintil i taget till 1994 års nivåer.
I en vidare tabell (inte visad här) demonstrerar Cowell och Flachaire att Gini och MLD har lite olika känslighet till vad som försiggår i olika delar av fördelningen: att öka toppkvintilens inkomster från 1994 års till 2016 års nivå ger dubbelt så stor (procentuell) effekt på MLD som på Gini, men att öka den lägsta kvintilens inkomster har 4,53 gånger så stor effekt på MLD som på Gini. MLD är alltså mer känslig till utvecklingen i fördelningens ytterligheter, säger de. (s. 273)
En sista övning är att de jämför utvecklingen i ojämlikhet mellan USA och Storbritannien sedan 1970-talet, med MLD och med Gini. Med Gini får man bilden att utvecklingen i de båda länderna varit väldigt likartad sedan 1994 (kraftig ökning), medan med MLD får man en mer blandad bild med mer stabilitet i Storbritannien och kraftig ökning i USA. Cowell och Flachaires kommentar till detta är att det i sig inte är ett problem om två ojämlikhetsmått ger olika bilder, om de t ex ger olika vikt till olika delar av fördelningen, men att det är ett problem här eftersom de är grundade på olika principer -- överföringsprincipen och eller monotonitetsprincipen. (s. 276) Något som det alltså är viktigt att vara medveten om, tänker jag.
I slutsatserna så säger de att Gini-koefficienten är den mest populära ojämlikhetsindikatorn i policyvärlden och att Gini förvisso har goda egenskaper: ett enkel viktningsschema, att den respekterar överföringsprincipen, att den klarar omskalning av inkomster, och att den är dekomponerbar i alla fall för icke-överlappande grupperingar. Men Ginin respekterar inte monotonitetsprincipen vilket ger en del konstiga utfall, säger de: "By contrast the MLD index has all of the attractive properties of the Gini coefficient and more: it also respects the principle of monotonicity in distance and is decomposable for arbitrary partitions with the path-independence property." (s. 276) Och så avslutar de med en praktisk bedömning och rekommendation:
"Indeed, the Gini coefficient and other indices may understate variations in inequality and, as a consequence, may be poor indicators of the effectiveness of redistribution policies. Our application suggests that the increase in inequality in the United States over recent years is significantly understated by the Gini index. By contrast, the MLD index has more desirable properties, estimates variations in inequality more accurately, and should be preferred in practice." (s. 276)
referenser
Arthur Charpentier och ·Emmanuel Flachaire (2022) "Pareto models for top incomes and wealth", The Journal of Economic Inequality (2022) 20:1–25
Emmanuel Flachaire, Nora Lustig och Andrea Vigorito (2023) "Underreporting of top incomes and inequality: A comparison of correction methods using simulations and linked survey and tax data", Review of Income and Wealth 69:4.
Frank A Cowell och Emmanuel Flachaire (2024) "Inequality measurement and the rich: Why inequality increased more than we thought", Review of Income and Wealth 70: 2.
Stephen P Jenkins (2017) "Pareto Models, Top Incomes and Recent Trends in UK Income Inequality", Economica 84: 261-289.
fotnoter
[1] "A by-product of sparse coverage of the top income ranges is that the high-income observations present in the survey data have the characteristics of outliers (even if they are genuine rather than an error), and have substantial influence on the conventional non-parametric estimate of an inequality measure for a given year; see Cowell and Victoria-Feser (1996, 2007) and Cowell and Flachaire (2007). This sensitivity can also introduce spurious volatility in a time series of inequality estimates." Jenkins, s. 262.
[2] Mer detaljerat så förklarar Jenkins det så här: "Fourth, I provide new analysis of issues that arise when fitting a Pareto model to the upper tail of the income distribution, and hence of direct relevance to researchers applying the semiparametric Approaches A and C. My findings are relevant to analysis of other heavy-tailed distributions such as wealth (Shorrocks et al. 2015; Vermeulen
2014), and city and firm size (Eeckhout 2004; Gabaix 2009, 2016). I use unit record tax return data rather than grouped (bracketed) data and so have flexibility to explore a number of econometric issues. (On estimation issues that arise with grouped tax return
data—the only source available for deriving very long historical series—see Atkinson (2005, 2007) and references therein.) For instance, for the Pareto Type I model, I compare the performance of ordinary least squares, maximum likelihood and maximum
likelihood-robust estimators." (s. 264)
[3] Jenkins diskuterar problemet att OLS ger får låga standardfel här eftersom de rangordnade inkomsterna är autokorrelerade. Han använder ML-estimatorer för att få korrektare standardfel.
[4] "This is particularly acute for the Theil index, which is unsurprising because it is the most top-sensitive of the three indices. Thus Figure 10 illustrates well the sensitivity problems analysed by Cowell and Flachaire (2007), and also their conclusion that in terms of performance in finite samples, there is little to choose between the Gini coefficient and the mean logarithmic deviation (L)." (s. 284) Cowell och Flachaire-artikeln som han hänvisar till är "Income distribution and inequality measurement: the problem of extreme values", publicerad i Journal of Econometrics 2007.
[5] Här refererar Flachaire, Lustig och Vigorito till en artikel som ser intressant ut av Meyer och Mittag, publicerad i AEJ:AE, 2019: “Using Linked Survey and Administrative Data to Better Measure Income: Implications for Poverty, Program Effectiveness, and Holes in the Safety Net”.
[6] Flachaire, Lustig och Vigorito säger dock (s. 1040) att: "the survey reporting pattern we obtain (overreporting in the lower tail and underreporting at the top) is in line with previous findings from the survey earnings validation literature (Adriaans et al 2020)."
[7] Det är rätt tekniskt men så här förklarar de skillnaden:
[8] Shorrocks (1980) förespråkade MLD som det “most satisfactory of the decomposable measures” eftersom det rent delar den totala ojämlikheten i ojämlikhet inom grupper och mellan grupper, vad Foster och Shneyerov (2000) kallar path independent decomposability. Se s. 268-269 i Cowell och Flachaires artikel.
[9] I en fotnot här har de en intressant teknisk diskussion om hur man ska jämföra ökningstakten i ojämlikhetsmått som mäts på helt olika skalor: "Clearly growth/change comparisons of inequality depend on the cardinalization of the inequality indices. In principle any cardinalization could be used, but it makes sense in practice to confine attention to those that are used in practice. There are no alternative cardinalizations of the Gini coefficient that are used in the literature. However, in the case of the MLD, there is an alternative cardinalization in current use: the Atkinson inequality index with parameter 1 is given by A_1 (x) = 1− g/𝜇, where g is the geometric mean. Using [ekvation 9], it is clear that A_1 (x) = 1− exp (−I_0), and so growth (A_1) = 𝜆growth (I_0),where 𝜆 = I_0 [1− A_1] ∕A_1 = I_0∕ [exp(I_0) − 1] = 1∕ [(1/2!) I_0 + (1/3!) I^2_0 + ...]< 1. Therefore, the proportional changes in A_1 will be less than those of I_0. However, for our data, this change in growth rate attributable to the change in cardinalization is relatively modest, as 𝜆 ranges from 0.71 to 0.89. In no case is the conclusion that the Gini understates the changes in inequality reversed." (s. 271-272)