torsdag 26 juni 2025

Nya perspektiv på Mitterrands U-sväng

 
François Mitterrand och Ronald Reagan, 1984. 
Foto från USA:s militär, i public domain, via Wikipedia.


En av de vanliga berättelserna, en berättelse med en tydlig sensmoral, om den ekonomiska politikens utveckling sedan 1970-talet handlar om den franska socialisten François Mitterrand, president från 1981 till 1995. Mitterrand arbetade i början av sitt presidentskap utifrån ett radikalt reformprogram -- de 110 förslagen, framlagda inför valet 1981 -- och ledde under 1981 sitt parti till en stor valseger i parlamentsvalen och en regeringsbildning som var en koalition mellan socialister och kommunister.

Men 1983, så går den konventionella berättelsen, så gjorde Mitterrand en U-sväng, en sväng till ekonomiskt liberal politik, tvingad därtill av de ekonomiska realiteterna. Sensmoralen: 1970-talets socialistiska politik var praktiskt omöjlig och föll så att säga under sin egen tyngd, och samtidigt som Thatcher i Storbritannien i Reagan förde marknadsliberal politik av övertygelse, så tvingades socialister som Mitterrand till att göra det av nödvändighet.

Historikern Mathieu Fulla, verksam vid Sciences Po i Paris, vill i en artikel publicerad i Contemporary European History problematisera denna historieskrivning om Mitterrands ekonomisk-politiska utveckling. Historieskrivningen är ense om att Mitterrand gjorde en U-sväng 1983, säger han, men det finns några olika versioner av historien: vänsterhistoriker och -debattörer kan framställa det som att Mitterrand förrådde vänsterns projekt, medan mer borgerliga debattörer ser Mitterrands keynesianska politik som ett misslyckande som med nödvändighet ledde till en marknadsliberal politik. [1]

Han diskuterar ifall man kan beskriva den franska ekonomiska politiken efter 1983 som "nyliberal". För att föra den diskussionen så måste man förstås börja med den grundläggande frågan: vad är egentligen nyliberal politik? Fulla refererar historiker som helt dömer ut begreppet, som alltför generaliserande och utsmetande: Daniel Rodgers ("The Uses and Abuses of 'Neoliberalism'", 2018), Pierre Rosanvallon (Notre histoire intellectuelle et politique 1968–2018, 2018), med flera. Han menar dock att under 2010-talet så har en mer seriös forskningslitteratur om nyliberalismen tagit form, som inte använder begreppet som ett skällsord utan ett analytiskt begrepp. Fulla använder begreppet för att beskriva hurpass grundläggande den ekonomiska politiken egentligen förändrades på 1980-talet. Han menar att det inte skedde någon grundläggande sväng 1983, men en långsammare, gradvis omvandling av den ekonomiska politiken från 1981 till 1990-talet. Mitterrands team anammade inte nyliberala eller monetaristiska idéer och såg Västtyskland snarare än Storbritannien som en ekonomisk förebild; och det fanns fortfarande stora inslag av ekonomisk planering och fackligt inflytande i den franska ekonomin på 1980-talet. Så här sammanfattar Fulla sin analys:

"Mitterrand’s choice to maintain France within the EMS officialised the resignation of socialist elites (both politicians and experts) to privilege pro-market recipes in the management of macroeconomic and monetary policies. In the last months of Mauroy’s term as prime minister, his economic advisers as well as their counterparts belonging to the Mitterrand and Delors cabinets increasingly claimed that the choice of austerity was the sole available alternative. But this process of naturalisation of economic issues did not begin in 1983, which was still a time of hesitation and contradictions, even in the wake of the decisions made in March. Moreover, the set of economic measures implemented under the Mauroy government appeared far from the recipes for the United Kingdom promoted by Margaret Thatcher. Monetarism failed to penetrate inside the cabinets and administration, whereas most of Thatcher’s economic advisors belonged to this intellectual strain – albeit different types of monetarists cohabited within her cabinet.23 Nor did a ‘think-tank archipelago’ emerge at this time that strove to disseminate neoliberal ideas within French Socialist Party (PS) circles. Similarly, the economic role of the state via the nationalisation of banks and industries was diametrically opposed to Thatcher’s primitive politics and mass privatisations and deregulation. The growing porosity between public and private actors in France developed later in the 1990s. Finally, until Mauroy’s resignation, socialist elites kept effective links, however complicated, with trade unions and the French Communist Party (PCF), while one of the major neoliberal traits of Thatcher’s policies was clearly its unconditional ‘enthusiasm for combating the unions’. As shown below, the model most admired inside cabinets as well as among top civil servants in the finance ministry was not the UK – relentlessly called an anti-model – but West Germany.27 In sum, rather than a U-turn, the tournant de la rigueur should be seen as a progressive curve, which implies it belongs to a broader chronology that began in late 1981 and ended with the appointment of Laurent Fabius as prime minister in July 1984. The notion of a turn to ‘austerity with a human face’ coined by Eric Hobsbawm is probably the most subtle scholarly expression to attempt to grasp the spirit of these changes." (s. 766)
Artikeln bygger delvis på Fullas föregående bok på franska, Les socialistes français et l’économie: une histoire économique du politique (2016), och i grund och botten på studier av arkivdokument från 1980-talets regeringar såväl som intervjuer och andra skrivna källor. Det har uppstått en klyfta mellan den franskspråkiga och den engelskspråkiga forskningslitteraturen, säger han: i den engelskspråkiga forskningen försvaras idén om en "brutal neoliberal U-turn" medan den franskspråkiga forskningen har en revisionistisk strimma.

Efter en lång introduktion börjar artikeln med en sektion om aktörernas egna historieskrivning. Mitterrand argumenterade i juni 1982, före de första åtstramningsåtgärderna lanserades, för att den internationella konjunkturen, det politiska arvet från den föregående konservativa regeringen, och den internationella ekonomiska ojämvikten tvingade fram en politisk nyriktning, med en utbudsorienterad politik för att öka investeringar och moderniseringen av statliga företag. Statsminister Pierre Mauroy stöttade före sin avgång 1984 samma version av historien. Mauroy tillhörde en fackligt orienterad minoritet inom Socialistpartiet, som var inriktade på att göra praktiska framsteg. För Mauroy var avsteget 1983 en kompromiss men inte någon brytning med 1983 års politik, och detta var analysen också hos partisekreteraren Lionel Jospin som använde metaforen la parenthèse för att beskriva vad som hänt. Över åren 1984 till 1986 förändrades den interna historieskrivningen och Jospin och andra gjorde istället en klar distinktion mellan den första periodens ekonomiska politik och den andra periodens politik: ‘We cannot return to the policy of the first period.’ (Jospin, november 1984, cit. 769)

Den politiska högern var mer konsekvent i sin beskrivning av och historieskrivning om Mitterrands politiska U-sväng: Gaullisterna och liberalerna hävdade från första början att det handlade om en nödvändig justering genomförd av en inkompetent regering. Fulla lägger mer plats på att diskutera skildringen i de politiska journalisterna Pierre Favier och Michel Martin-Rollands bok La Décennie Mitterrand från 1990, en bok som, säger han, djupt präglat senare uppfattningar om det franska 1980-talet; i samband med denna bok diskuterar han också skildringar i memoarer och biografier om 1980-talet.

Från detta övergår Fulla till historikernas behandling, som förstås, när det handlar om samtidshistoria, påverkats av aktörernas egna beskrivningar, i debatterna, i memoarerna och i biografierna. Den amerikanske statsvetaren Peter Hall tilldelas en särskild plats här, i att han är en av de första att definitivt utnämna 1983 års politik till en avgörande brytpunkt: ‘few decisions have had such significance’, menade Hall 1990. I den fransksprpåkiga forskningen gjordes motsvarande analys i det tidiga 1990-talet av Bruno Jobert och Bruno Théret som betecknade 1983 års plan de rigueur som en ‘republican consecration of neoliberalism’, en "radikal omsvängning" från keynesianismen. Jobert och Thérets analys har fått stort genomslag i den franska och internationella forskningen och inte minst genom Rawi Abdelals argument (i boken Capital Rules, 2007) att det var franska policymakers, inte US-amerikanska, som skapade den nya globala finansiella ordningen. [2] Oavsett om man sväljer det radikala argumentet eller ej så har i vilket fall en rad forskare på 1990-talet och 2000-talet, som Mark Vail, Elisabetta Gualmini och Vivien Schmidt insisterat på att Mitterrand 1983 verkligen genomförde en U-sväng. U-svängs-analysen har däremot ifrågasatts av forskare som Matthieu Ansaloni och Andy Smith (2018), Philippe Bezes (2009) och ismail Ferhat (2013, 2018).

Historiker spelade i 1990-talets debatt om 1983 en liten roll: debatten dominerades av statsvetare och sociologer. I översiktsverk som Donald Sassoons One Hundred Years of Socialism (1996) och Geoff Eleys Forging Democracy (2002) fick bilden av en U-sväng i alla fall fullt stöd: Sassoon sammanförde Mitterrand 1983 med James Callaghans tal på Labours konferens i Blackpool 1976 som exempel på vänsterns brytning med keynesianismen, medan Eley till och med hävdade -- utan refererenser, säger Fulla -- att ‘after 1982, Mitterrand’s France and Gonzalez’ Spain rivalled Thatcher’s Britain in neo-liberal economics’. (cit. 774) Efter 1999 öppnades arkiven från 1980-talet upp för historiker och nya analyser kom fram av vad som egentligen hände. Det är till denna nyare historiska litteratur som Fullas egen forskning hör, och från beskrivningen av öppningen av arkiven 1999 går han över till sin egen syntetiska analys av 1980-talets ekonomiska politik.

Fulla börjar med att diskutera den faktiska ekonomiska utvecklingen i det tidiga 1980-talet: hur var det med BNP-tillväxten, med budgetunderskotten, med handelsbalansen, och så vidare. Mitterrand hade vunnit valet med mottot "sysselsättningen först", men lyckades han få fart på sysseslättningen? Fulla menar att Mitterrand 1981 förde en försiktig ekonomisk politik men att det redan hösten 1981 skedde en viss omsvängning från en mer hårdför stimulanspolitik. Han diskuterar regeringens mål om "modernisering" som man argumenterade för samtidigt som man betonade att det inte fanns utrymme för någon stor fiskal expansion. De finansiella avregleringarna kom senare, säger han, men avsteg från någon expansiv keynesianism kom redan 1981. För politiken 1983 för han en intressant diskussion om den ekonomiska politikens karaktär i ett europeiskt perspektiv:

"By opting to deepen austerity in March, the government would have deliberately sacrificed the fight against unemployment. From a short-term perspective, this assertion is correct, but it would be hasty to conclude that this socialist choice was the equivalent of implementing a neoliberal cure to deal with mass unemployment. Although not as great as that of West Germany and the United Kingdom, the French unemployment rate, which had begun rising in the second half of the 1970s, had exacerbated the social security deficit. Faced with this complex issue, the Mauroy and Fabius governments, as well as the Chirac government, decided to increase rather than decrease social benefits in order to ease ‘the harshest social consequences of industrial restructuring and the resulting layoffs’ and prevent victims of the crisis, most of them residents of the deindustrialising East and North of France, from descending into poverty. This ‘welfare without work’ strategy was partly the result of pressure from trade unions, which continued to influence social policy-making." (s. 777-778)

Och:

"Most European socialist elites were reluctant to embrace the austerity turn – with the notable exception of Helmut Schmidt’s social democratic government in West Germany. [3] The early 1980s were a moment of hesitation – and at times resistance – particularly within supra-national organisations such as the Socialist International (SI) and the Confederation of the Socialist Parties of the European Community (CSPEC). Meetings between socialist heads of state held by the PS in 1983 clearly illustrated this atmosphere of mistrust. In January, Felipe Gonzalez, Bruno Kreisky, Pierre Mauroy, Olof Palme, Andreas Papandreou, Kalevi Sorza and Habib Thiam – the respective prime ministers of Spain, Austria, France, Sweden, Greece, Finland and Senegal – insisted on a global relaunch plan to reshape the international monetary order, developing impoverished countries and stabilising raw material costs. Nine months later, the mood around the table had changed dramatically. A few days before the opening of the European Council in Athens, Pierre Mauroy launched the debate by stating, ‘In all my years of activism, no one ever taught me what an austerity policy is.’ Mauroy urged his peers to integrate their leftist principles with austerity measures, which he considered unavoidable. ..." (s. 778-779)

Mauroyregeringen använde i allt detta Thatcherregeringen som ett motexempel, på vad man inte ville göra; såväl poliitikerna som byråkraterna som utformade le tournant var anti-Thatcherismen, säger Fulla. Historiker som Laurent Warlouzet betonar just detta: de franska socialistregeringarna ville inte föra en marknadsliberal politik, utan snarare en politik lik den västtyska som skulle förena globala marknader med bevaraned av existerande institutioner. Den åsyftade konvergensen med BRD var också motiverad av geopolitik: den europeiska integrationen. Den franska politiken, djupt influerad av den tyska, fick också inflytande i Europa:

"Pierre Bérégovoy, the newly appointed finance minister in the Fabius government, developed the politique du franc fort, inspired by the Bundesbank’s monetary policy, which prioritised a balanced budget and decreased inflation over full employment. By late 1982, the Austrian socialist government, under Bruno Kreisky and later, Fred Sinowatz, ‘incrementally adopted an economic policy combining state budget austerity with specific policies for supporting rates of high unemployment’ in the name of the European imperative. The Soares and Gonzalez administrations in Portugal and Spain endorsed similar policies to avert economic crisis, defined by the rampant protectionism championed by Salazarism and Francoism. By 1985, the Palme administration in Sweden [4] had introduced similar austerity budgets that transformed employment ‘from a social citizenship entitlement to a market variable’." (s. 780-781)
Detta var inte någon rent nyliberal politik, säger Fulla, utan en kombination av åtstramningspolitik och allt större marknadsinslag (=liberala inslag) med socialdemokratiska inslag: socialpolitik, välfärdspolitik. "For all the above reasons, this article calls for the deconstruction and desacralisation of the 1983 tournant de la rigueur." (s. 781) Den franska politiken på 1980-talet liknar kanske snarare vad Cornel Ban (Ruling Ideas, 2016) i kontexten av den spanska socialistregeringen ledd av Felipe Gonzalez 1982-1996 kallat "embedded neoliberalism".


referenser

Mathieu Fulla (2024) "The Neoliberal Turn that Never Was: Breaking with the Standard Narrative of Mitterrand’s tournant de la rigueur", Contemporary European History 33: 763-784.

https://www.phenomenalworld.org/analysis/mitterrands-austerity-turn/

fotnoter

[1] Som exempel på vänsterperspektivet refererar Fulla Konrad Jarausch, Out of Ashes: A New History of Europe in the Twentieth Century (Princeton UPs, 2016), och som exempel på det borgerliga perspektivet Ian Kershaw, The Global Age: Europe 1950–2017 (Viking, 2018).

 [2] Fulla refererar att Abdelals argument har fått en del genomslag i den franska politiska debatten, men han verkar skeptisk till analysen, som han menar baserades på engelskspråkiga källor och på intervjuer, intervjuer som ledde honom till "the dramatised account conveyed by Jacques Delors and Michel Rocard." (s. 772)

[3] Referenserna om Schmidtregeringen är: Julian Germann, ‘German “Grand Strategy” and the Rise of Neoliberalism’, International Studies Quarterly, 58 (2014), och Tim Schanetzky, Wirtschaftspolitik, Expertise und Gesellschaft in der Bundesrepublik 1966 bis 1982 (Berlin: Akademie Verlag, 2007). Germann betonar det liberala i Schmidts politik, Schanetzky tvärtom kontinuiteten med 1960-talet.

[4] Referenserna för det svenska fallet är Magnus Ryner i Comparative European Politics 2004, och Jenny Andersson och Kjell Östberg i en antologi redigerad av Fulla och Marc Lazar, European Socialists and the State in the Twentieth and Twenty-First Centuries (Palgrave Macmillan, 2020).

Nyliberalismen i idéhistoria och i ekonomisk historia


"Nyliberalism" är ett brett och svårt begrepp, som kan betyda lite olika saker beroende på. Så jag blir nyfiken på rubriken på Cornell-historikern Nicholas Mulders trippelrecension: "The Neoliberal Transition in Intellectual and Economic History". Den nyliberala övergången i idéhistorisk och ekonomisk-historisk forskning -- lovande. Mulder recenserar alltså tre böcker: Julian Germanns Unwitting Architect: German Primacy and the Origins of Neoliberalism (2019), Amy C. Offners Sorting Out the Mixed Economy: The Rise and Fall of Welfare and Developmental States in the Americas (2019), och Isabella Webers How China Escaped Shock Therapy: The Market Reform Debate (2021). I sin introduktion säger Mulder just att begreppet är mångfasetterat:

"The term “neoliberalism” has been understood in a variety of ways: as a package of policy prescriptions; a design philosophy for state-market relations; the spirit of leading institutions of global economic governance; a form of politics focused on private property owner ship and consumption as civic participation; a form of political and social subjectivity; and a distinct epoch in the history of modern capitalism beginning in the late 1970s and early 1980s." (s. 559-560)

Mulder börjar egentligen karakteriseringen på ett historiserande sätt, genom att säga att alla analyser av vad nyliberalismen är, också bygger på antaganden eller analyser av vad som föregick nyliberalismen:

"Before we can ask how neoliberalism arrived, we must ask what it displaced. Each understanding of neo-liberalism implies its own characterization of the essence of the preceding period." (s. 560)  

Han ger en mycket elegant och effektiv översikt över olika periodiseringar som folk använt för perioden "före nyliberalismen". En del, säger han med referens till Nancy Fraser (2013) och Jonathan Levy (2021), talar om en period av state-managed capitalism eller "age of control" som går tillbaka på 1930-talets stora Depression; andra talar om en period av kollektivistisk planering sedan första världskriget (Foucault 1979); andra om ett system av "inbäddad liberalism" sedan Bretton Woods-konferensen 1944 (Ruggie 1982) eller en fordistisk ackumulationsregim sedan 1920-talet (Aglietta 1979, Link 2020), eller "keynesianism" (Hay 2001). Det är en stor bredd i konceptualisering, men i vilket fall så är forskarna ense om att den nyliberala fortsättningen formades mellan det sena 1960-talet och det tidiga 1990-talet. [1]

De tre böcker som Mulder recenserar -- Germanns, Offners och Webers -- börjar, äger han, kanske en ny fas i forskningen om nyliberalismen. Var och en av de tre böckerna ger ett svar på när nyliberalismen egentligen började, och var och en tar ett globalt perspektiv och undersöker hur idéer rör sig mellan olika kontexter och blir olika lyckosamma på olika platser. Men, säger han och det här är väldigt intressant, de är inte "bara" idéhistoriska:

"But these books are not intellectual histories interested in genealogy and exposition only. Instead, they are best described as sensitive causal histories of ideas in action. They offer a wide array of methodological approaches: from the history of economic thought to thick histories of economic life and institutions, and from the history of development experts and man agers to the clash of politics and vested interests within policymaking elites." (s. 564)

Från detta går han vidare till att diskutera Germanns bok. Germann är statsvetare vid universitetet i Sussex och disputerade vid York University i Kanada. Hans bok handlar om Tysklands roll i formeringen av den nyliberala globaliseringen. Helmut Schmidts regering (1974-82) ville upprätthålla efterkrigstidens klasskompromiss, men gjorde det genom en politik för stabila priser, en politik som spred låginflationstrycket genom den rika världen. Gentemot den idéhistoriska forskningen som betonar gamla nyliberalers -- Friedman, Hayek m fl -- inflytande, och i det tyska fallet de s.k. ordoliberalernas inflytande, så menar Germann att ordoliberalerna faktiskt inte hade särskilt mycket inflytande i de centrala institutionerna: Bundesbank, finansdepartementet, och dess Foreign Economic Advisory Council. Så här refererar Mulder Germanns analys av den ekonomiska politik som fördes:

"Their growth strategy, Germann points out, drew on older notions of national purpose as a globally oriented “trading state” (Handelsstaat), which encouraged wage restraint by unions that exercised powers of codetermination in highly concentrated industries enjoying strong state support, superintended by an  independent central bank, with all parties striving for export surpluses. Whatever this model was—some have described it as “monetary mercantilism”—it was not the parsimonious ordoliberal design of a strictly rule-bound state without discretionary interventionist powers acting as a referee in a perfectly competitive space of monadic firms." (s. 566)

Germann avfärdar förklaringsmodeller som är centrerade på stater, idéer eller klass, och förespråkar istället en modell som utgår från Trotskijs idé om ojämn och förenad utveckling (!). En central idé i denna tradition är att politik i nationalstater förs inte bara utifrån inhemska förhållanden utan också utifrån de internationella relationerna. De politiska eliterna -- Germann använder begreppet "state managers" -- medierar press från olika inhemska intressegrupper såväl som idéer och den internationella politiken. Korsningen av utrikespolitik och inrikespolitik spelar roll till exempel i Germanns analys av hur västtyskarna hanterade USA:s övergivande av den fasta växelkursregimen 1971. Så här sammanfattar Mulder de tyska policymakers reaktion:

"With intergovernmental monetary certainties out the window, the Federal Republic’s elites had to devise a new formula to manage discordant domestic actors and preserve their national economic position vis-à-vis other advanced economies, especially the G7 states (United States, Japan, the United Kingdom,
France, Italy, and Canada). In Germann’s view, “The reason they singled out price stability was that it offered export opportunities that could help secure social peace.” Running enormous export surpluses, at the cost of depressing wages, would provide the material buffer needed to smooth domestic class tensions." (s. 567)

Den tyska regeringen släppte deutschmarkens kurs fri 1973 och fokuserade på handelsöverskottet. När internationella policymakers förespråkade keynesiansk stimulanspolitik, så opponerade tyskarna sig. Deras politik var inte Thatchersk eller Reagansk, men stram. Deras konsekventa linje spelade roll t ex när US-dollarn föll i värde 1978-79 och Feds nya chef Paul Volcker 1979 skulle agera på sitt mandat att stärka dollarn. Volcker bad Schmidt att låta Bundesbank stödköpa dollars; Schmidt sa nej eftersom det skulle kunna sätta fart på inflationen i Tyskland; och  Fed valde istället Volcker-chock-modellen med en räntechock som fick enorma konsekvenser inom och utanför USA, med en recessionseffekt inhemskt och en skuldkris i tredje världen. Man kan knappast säga att det var tysk politik som bestämde detta val, men Mulder säger att Germanns tyska perspektiv åtminstone kompletterar den vanliga USA-centriska berättelsen om nyliberalismen i allmänhet och Volcker-chocken i synnerhet. (s. 569) Däremot så saknas en diskussion om vad Japan -- den andra stora exportsuccén på 1970-80-talen, jämte BRD -- egentligen spelade för roll här. Germann tar inte heller riktigt in Tysklands roll inom EG och det kommande EU.

Penn-historikern Amy Offners bok är ännu bredare och tar ett ännu längre perspektiv, på västvärlden sedan 1945, genom att studera USA och Colombia parallellt. [2] Hennes fokus är på hur policy-experter rör sig mellan det rika USA och det fattiga Colombia, i stora projekt finansierade med statliga eller privata pengar. Chicago-skolans nationalekonomi spelar en roll, liksom managementgurun Peter Drucker, men idéerna är djupt inbäddade i de praktiska programmen och projekten. Så här sammanfattar Mulder den tredje och sista empiriska delen i Offners rika bok:

"She illuminates the fact that Lyndon Johnson’s Great Society, especially its flagship initiative, the War on Poverty, contained a significant business wing that outsourced social policy initiatives to entrepreneurs and investors. The practice of using private capital to sustain public institutions was nothing new, as the US state had been built in the nineteenth century through for-profit contracting. But such an approach had rarely been employed to expand the US welfare state and craft major poverty reduction programs. Firms quickly used the  Great Society institutions to win public contracts for job training programs, light industrial manufacturing, and education testing. David Lilienthal, as head of the Development and Resources Corporation—an engineering firm that fulfilled development assistance contracts from Antarctica to the Mekong Delta— championed this pursuit of public policy through private profit, coining the term “social entrepreneurship” to legitimize its spirit.
Although she makes it clear that her book is not a history of neoliberalism in a straightforward sense, Offner nonetheless contributes substantially to understanding how the path for its ascent was cleared, by a different cast than the usual suspects studied by its historians. While recognizing that programmatic neoliberal ideas did important ideological work, her study sees them as a symptom, not a cause, of the transition to the neoliberal order. Offner cautions against “looking for the influence of the Chicago School, the Mont Pelerin Society, or any particular band of intellectuals to explain the unraveling of the midcentury state.” The latter process, she suggests, was the outcome of a slow, inadvertent process
driven by people in a variety of domains, from fiscal administrators and self-help housing advocates to for-profit education companies and international businessmen.
However we choose to characterize it, it is clear that the order that preceded neoliberalism contained tensions and contradictions. But Offner’s focus on inter-American models and influences drives home just how ambiguous its politics were. ..." (s. 572-573)
Offners jämförelse mellan globala Syd och Nord visar såklart också den enorma skillnaden mellan hur 1950- och 1960-talens politiska ekonomi -- den givna jämförelsepunkten för "nyliberalismen", oavsett vad vi lägger mer precist i det begreppet -- såg ut i ett land som Colombia jämfört med ett land som USA. En sådan jämförande insikt är också, säger Mulder, ett bra vaccin mot en överdriven nostalgi för efterkrigstidens ordning -- "The embedded liberal order had a limited geographical range even in its heyday." (s. 574)

Från denna insikt går Mulder över till trippelrecensionens tredje bok, Isabella M Webers bok om Kinas utveckling sedan 1980-talet. Till skillnad från Colombia är Kina så klart ett land vars uppgång präglat hela epoken sedan 1980, och Webers bok handlar mycket om att förklara hur detta gått till. [3] Weber menar att Kinas ekonomiskt lyckade, unika policymix inte springer ur kinesisk kultur eller en djupare historia, utan var en fråga om en intensiv debatt på 1980-talet. På den ena sidan av debatten fanns en grupp "package reformers" som ville ha ett snabbt och omfattande reformprogram, inspirerat av utländska ekonomer som Milton Friedman, James Buchanan och János Kornai; på den andra sidan fanns en blandad grupp byråkrater som ville ha en pragmatisk, gradvis approach där centrala varor som livsmedel och råvaror skulle ha priser satta av staten medan konsumentvaror skulle prissättas av marknaden. Det var inte någon enkel dikotomi mellan marknadsivrare och statssocialister, men mer komplicerat än så; det verkar utifrån detta att dra några policyslutsatser för andra länder från den kinesiska modellen. Den mer pragmatiska sidan definieras snarare så här: "Full market liberalization merely inverted the Mao-era full planning model, but never broke with its deeper intellectual assumption: that the economy as such was a rationally perfectible whole. The originality of the dual-track approach lay precisely in its rejection of this abstract theoretical mindset." (s. 576) 

Mulder visar att Weber också relaterar den nyanserade prispolitiken i Kina från 1980-talet till liknande traditioner längre tillbaka i kinesisk historia. Hon diskuterar också internationella influenser: t ex kinesiska nationalekonomers studieresa till Jugoslavien och Ungern 1986 för att studera dessa länders erfarenheter av liberaliseringar av ekonomin, och diskussioner med tyska och schweiziska ekonomer om vad det egentligen var som Ludwig Erhard hade genomfört för reformer efter 1945 som hade gynnat det västtyska ekonomiska undret. Mulder förklarar inte det, men det verkar som att Webers bok är väldigt fokuserad på priser och prisbildning. Och det är klart att prisbildningen är en väldigt central del av ekonomin, men åtminstone i Mulders diskussion försvinner andra aspekter av ekonomisk reform/införandet av kapitalism i Kina, aspekter som jag tänker mig bör ha varit viktigt: finansmarknaderna och kreditregleringar, arbetsmarknaden och utbildningssystemet, och så vidare. I sin sammanfattning av Webers bok så säger Mulder att boken visar att världens politiska system och ekonomier inte har homogeniserats sedan 1980-talet, som man kan få för sig, utan att det kvarstår stora variationer; "The variety of possible paths, methods, and goals of market reform explains why its global proliferation did not produce an end to history. " (s. 579)

När han övergår till att sammanfatta och jämföra de tre böckerna så pekar han på att alla tre författare, Germann, Offner och Weber, visar på det oförutsägbara och det oväntade i de politisk-ekonomiska processer som sammanfattas under rubriken "nyliberalism":

"All three books reviewed here are excellent chronicles of unintended consequences. Their narratives share a sense of historical irony, exposing how developmental experiences acquired in Latin America paved the way for the dismantling of Johnson’s Great Society; how a social- democratic chancellor pushed the US into the Volcker Shock; and how China’s most liberal economists were dismissed by the CCP leadership because their economic worldview was too reminiscent of the totalizing approach of collectivist planning. At the heart of their analyses, Germann, Offner, and Weber all make a similar point about how the history of neoliberalism relates to the present: the transition from the mid-century interventionist order to the neoliberal order did not take place as the result of a simple struggle between opposed economic theories, between powerful and weak states, or between dominant and subordinate classes. While such contestations played a role, their studies depict the transition as a more inadvertent and step-by-step process." (s. 579)
Mulder jämför de tre recenserade böckernas analys på denna punkt med två andra nyare böcker av historiker: Aled Davies om finansmarknaderna i London sedan 1960-talet, och Kim Phillips-Fein om USA. Liksom Germann, Offner och Weber så visar Davies och Phillips-Fein på komplexiteten i de politiska motsättningarna kring 1970-80-talens liberaliseringar: "Davies argues that there was no coherent neoliberal party behind the dismantling of economic controls in Britain, but rather an anti– social democratic coalition of businesses, banks, middle-class functionaries, pensioners, insurers, and speculators. Phillips-Fein’s account of the New York City fiscal crisis comes to the similar conclusion that “the people who brought austerity to New York City were not free-market zealots or right-wing political leaders.”" (s. 580)

Det var inte så, säger Mulder kanske med en implicit kritik av Road from Mont Pelerin-typen av nyliberalismhistoria, att de relevanta politiska aktörerna på 1960-70-80-talen i Germann, Offner och Webers böcker hade en varsin koherent vision om den nyliberala framtid som de ville uppnå. Olika initiativ för att öka den privata sektorns betydelse och marknadsmekanismernas inflytande i samhället motiverades av mer dagliga orosmoment om den samhälleliga ordningen och om ekonomisk utveckling, konkurrenskraft, fattigdomsbekämpning osv. (s. 580) "The decline of welfarist institutions and the rise of neoliberal policies therefore had much to do with the balance of social forces and the unforeseen outcomes of political disputation. " (s. 581) Om idéerna egentligen inte var så viktiga för "nyliberalismens" genomslag, varför har då historiker fäst så stor vikt vid idéer och teorier?

Mulders förklaring börjar med hur praktikerna själva förstod historisk förändring. Keynes hävdade i ett berömt citat att döda ekonomers idéer i hög grad formar praktikers politiska agerande, och även i den nyliberala eran har viktiga praktiker hävdat idéernas betydelse. Mulder vill dock relativisera detta: "Keynesianism expressed rather than created the political-economic consensus bearing its name. It did not initiate the interventionist economic order in which it nested so comfortably. " (s. 582) Mulder utvecklar inte riktigt förklaringen här men jag tolkar honom som att han menar att historiker lite okritiskt har svalt praktikers självbeskrivning på denna punkt: om praktikerna säger att idéerna var väldigt viktiga för dem, så har historiker tänkt att okej, då får vi studera idéerna. Mulder säger dock definitivt att det inte var idéerna -- åtminstone inte som något slags omfattande visioner om ett helt annat samhälle än det som praktikerna levde i på 1960-70-80-talen -- som drev förändringen. Han avslutar sin essä med ett par rekommendationer för vidare forskning om nyliberalism, rekommendationer som snarare följer lite andra trådar i texten.


 

referens

Nicholas Mulder (2023) "The Neoliberal Transition in Intellectual and Economic History", Journal of the History of Ideas, Volume 84, Number 3, July 2023, pp. 559-583

fotnoter

[1] Han ger också en översikt över hur forskningen utvecklats över tid. I det sena 1980-talet fokuserade forskarna på den ekonomiska liberaliseringen och globala ekonomin. På 1990-talet sysslade en stor forskning med de internationella relationerna inom ekonomin, till exempel med Amsterdamskolans forskning -- Kees van der Pijl (1998), Bastiaan van Apeldoorn (2002) och andra. Under 00-talet, "a growing interest in international institutions and economic globalization prompted historians and historically minded social scientists to focus on neoliberalism as a program based on capital, finance, and institutional design": här refererar han till Duménil och Lévy (2000), Monica Prasad (Politics of Free Markets, 2006), Rawi Abdelal (Capital Rules, 2007), David Harvey (2007), Alasdair Roberts (The Logic of Discipline, 2009), och Judith Stein (Pivotal Decade, 2009). Med den stora finanskrisen 2008-10 började en ny epok av forskning, säger han, och menar att fokus sedan dess varit på idéhistoria: Mirowski och Plehwes Roads from Mont Pèlerin (2009), Bockmans Markets in the Name of Socialism (2011), Angus Burgins The Great Persuasion (2012), Daniel Stedman Jones Masters of the Universe (2012), Mark Blyths Austerity (2013), Nancy Macleans Democracy in Chains (2017), Quinn Slobodians Globalists (2018), och Ola Innsets Reinventing Liberalism (2020).

[2] "Although she does not use the term, Offner’s parallel hemispheric history of welfare and developmental states
provides a good illustration of the potential of what Michael Werner and Bénédicte Zimmermann have described as an histoire croisée approach, in which schematic comparison and simple mechanisms of transfer are replaced by a focus on how actors inhabiting distinct but connected contexts shape their projects based on reflexive knowledge of their own situatedness." (s. 570)

[3] I en fotnot så kommenterar Mulder att: "Another analysis with which Weber’s book shares both a frame and much of its substantive concern about the interaction of state and market is the important study by Yuen Yuen Ang, How China Escaped the Poverty Trap (Ithaca, NY: Cornell University Press, 2016)."

fredag 6 juni 2025

Toppinkomster, ojämlikhet och metod

 

Nationalekonomen Stephen P Jenkins, professor vid LSE, börjar en artikel från 2017 på ett tydligt sätt: forskningen om inkomstojämlikheten och dess utveckling är, säger han, tudelad. Å ena sidan har vi forskning och debatt som bygger på hushållssurveys och rapporterar fördelningen för ojämlikheten i hushållsinkomster för befolkningen som helhet, med mått som Gini-koefficienter och andra mått som just ska fånga hela distributionen. Å andra sidan har vi toppinkomstlitteraturen som uttryckligen handlar om den ekonomiska eliten, om toppinkomsttagarna och deras andel av den totala inkomsten. Denna litteratur bygger på skattedata, inte på hushållssurveys. 

De två litteraturerna skiljer sig alltså åt både i material och i metod, och når också olika slutsatser, säger Jenkins: toppinkomstlitteraturen visar en kraftig ökning i inkomstojämlikheten (egentligen: koncentrationen) de senaste decennierna i USA och Storbritannien, medan den survey-baserade litteraturen visar mycket mindre ökningar. För Storbritannien ökade toppercentilens andel med 29 procent mellan 1996 och 2007, medan Gini-koefficienten ökade med 7 procent; för USA ökade toppercentilens andel samma period 30 procent och Gini-koefficienten bara 2 procent.


Syftet med Jenkins artikel är att triangulera de två metoderna. Han kombinerar skattedata -- för de rika, som är underrapporterade i surveys -- och hushållsdata för alla andra för att ge en sammantagen bild, och för att kunna diskutera skillnader i vad olika mått ger för bild av ojämlikheten. Det finns två skäl till att surveydata inge ger någon bra bild av toppinkomster, säger han. Det första är att höginkomsttagare tenderar att inte svara på surveys, och att de som kodar ibland toppkodar inkomster (dvs sätter alla inkomster över en viss gräns på gränsnivån). Det andra är att ett slumpmässigt sample per se inte kommer ge någon precis bild av den högra svansen på fördelningen, där variationen är väldigt hög. [1]

Det finns tre sätt att korrigera för dessa problem när man ska beräkna ojämlikhet, säger Jenkins. De sammanfattas i diagram 1 som jag klistrat in ovan. Approach A använder bara surveydata men beräknar den rikaste percentilens eller så andel genom att passa en Pareto Typ I-distribution till observationerna från surveyn. Man kan sedan beräkna (a) ojämlikheten i toppgruppen, (b) ojämlikheten i icke-toppgruppen, och (c) ojämlikheten mellan de två grupperna. Cowell och Flachaire (2007) ger en utförlig diskussion av denna approach, medan Ruiz och Woloszko (2015) och Burkhauser et al (2012) använder approachen uttryckligen för att komma över problemet med underrapportering av toppinkomster i surveys, i Burkhauser et als fall US-amerikanska Current Population Survey. Jenkins är dock skeptisk till hur framgångsrik approach A är; han menar att både Atkinston et al (2011) och Burkhauser et al (2012) visar att Pareto typ I-distributionen kommer underskatta toppinkomsttagarnas inkomster.

Av detta skäl finns det anledning att vända sig till skattedata för att få fram faktiska toppinkomster som kan komplettera surveydata. Det gör man i approach B och C. Approach B "replaces the highest incomes in the survey with cell-mean imputations based on the corresponding observations in the tax return data." Denna metod används t ex av Burkhauser et al (2016), som använder World Top Incomes Database (numera WID.world) toppinkomstandelar som benchmark.

Approach C är det angreppssätt som Jenkins följer i artikeln, och den kombinerar estimat från både A och B: "It is thus identical to Approach A except that it uses both survey and tax data rather than only the former; it is this feature that addresses the under-coverage problem." Denna approach utvecklades av Atkinson (2007) som också i en artikel från 2011 applicerade den på USA, varpå Alvaredo (2011) applicerade den både på USA och Argentina, medan  Lakner och Milanovic (2016) använde den på global inkomstfördelning.

Jenkins säger att hans artikel gör fyra bidrag till litteraturen. Ett, substantiellt så är det viktigt att beskriva utvecklingen i den ekonomiska ojämlikheten i Storbritannien sedan 1990-talet på ett korrekt sätt. Två, hans metodologiska jämförelse kan undersöka ifall approach B och C ger samma resultat när man använder dem på samma källor. Tre, han ger nya empiriska belägg i frågan om hur grov under-representationen av toppinkomsttagare är i brittiska surveydata. Fyra, resultaten talar till litteraturen om hur effektivt det är att använda en Pareto-distribution för att skatta toppdelen av inkomstfördelningen. [2] De flesta ojämlikhetsforskare har använt en Pareto typ I och utgått från att det funkar väl, vilket också Atkinson, Piketty och Saez (2011) argumenterat för, men Jenkins jämför systematiskt (med goodness of fit) Pareto typ I med Pareto typ II ("generalized Pareto") och visar att de senare passar bättre i princip alla fall. Jenkins bidrar i den här metodfrågan också med en utforskande diskussion om var gränsen i inkomstfördelningen egentligen går, över vilken det är rimligt att applicera en Pareto-modell; olika toppinkomststudier har t ex använt topp 10 %, topp 5 % eller topp 1 %. Jenkins diskuterar olika föreslagna kriterier för var man ska börja applicera en Paretofördelning (t ex från Coles 2001 och Clauset et al 2009) och argumenterar för att man också måste undersöka var i fördelningen som surveydatat börjar tappa i representation. I Storbritannien på 1990-talet finner han att det händer för toppercentilen, medan det på 2000-talet sker från den 95:e percentilen och uppåt.

Skattedatat som Jenkins använder är Survey of Personal Incomes för varje år från 1995 till 2010 förutom 2008. Detta är samma data som Atkinson (2005) använt tillsammans med tidigare tabuleringar av SPI och några skatteserier för att beräkna toppinkomstandelar tillbaka till 1908. SPI ger information på individnivå. (s. 265-266) För att göra beräkningarna jämförbara med toppinkomstlitteraturen begränsar Jenkins sitt sample till britter som är 15 år gamla eller äldre. Surveydatat han använder är Family Resources Survey för samma år som SPI-datat. Detta är en tvärsnittsurvey med ungefär 20 000 hushåll per år. FRS fokuserar på inkomster efter skatter och socialförsäkringar, men utifrån Burkhauser et al (2016) beräknar Jenkins istället förskatteinkomster på individnivå, för att göra survey-beräkningarna jämförbara med skattedata-beräkningarna.

Den första empiriska sektionen handlar om hur stor underrapporteringen av toppinkomster är i surveydatat. På 1990-talet ger surveydatat en bra bild av inkomsterna upp till ungefär den 95:e percentilen; på 2000-talet missar detta dataset helt den stora ökning av toppinkomsterna som man ser i skattedatat. Täckningen av toppinkomster blir sämre över tid vilket kan innebära att det är olämpligt att använda samma cut-off för att börja korrigera med skattedata hela tiden.


Jenkins går vidare med att diskutera hur man applicerar Pareto-modeller till toppinkomsterna. För en Pareto I-modell visar överlevnadsfunktionen S(x) andelen av befolkningen som har en inkomst som är över x, det vill säga 1- den kumulativa distributionsfunktionen F(x): 

S (x) = 1 - F (x) = (x/x_m)^-α 

där x > x_m > 0 och x_m > 0 är inkomsternas lägre gräns. Parametern α är "the shape parameter (‘tail index’) describing the heaviness of the right tail of the distribution, with smaller values corresponding to greater tail heaviness." (s. 271) För en Pareto II-modell är överlevnadsfunktionen:

S (x) = [1 +  ξ ((x - λ) / σ)]^1/ξ , ξ > 0

där x > λ är en location parameter, σ > 0 är en scale parameter och ξ är the shape parameter, alltså motsvarande alfa i Pareto I-modellen. Om ξ är = 1/alfa, λ = x_m, och σ = x_m/alfa, så är Pareto I och II-modellerna ekvivalenta.

Pareto II-modellen är mer komplex och kanske mer realistisk för att imputera toppinkomster, men förbättringen i goodness of fit kan vara liten och kanske inte motiverar den ökade komplexiteten jämfört med Pareto I, säger Jenkins. (s. 272) Han testar båda två på inkomstdata. Man behöver sätta en gräns (x_m respektive lambda) över vilken man vill beräkna fördelningen; han provar med 95:e och 99:e percentilen. I Pareto I kan man beräkna α på två sätt: först en OLS-regression där den logaritmerade överlevnadsfunktionen regressers på logaritmerad inkomst och en konstant, och idealiskt ska man då få en Zipf plot ("a plot of the log of the survivor function against logarithms of income (for incomes in ascending order and greater than x_m") som har en lutning som är -α. Atkinston (2016) redovisar också andra metoder för att beräkna α; Jenkins finner att Zipf-metoden fungerar bäst, och redovisar därför bara de resultaten i pappret, och de andra i Appendix. [3] För att beräkna Pareto II-mdodellen använder han ML-regressioner utifrån Roodman (2016).

För att utifrån dessa metoder beräkna ifall toppinkomsterna verkligen är Pareto-fördelade, börjar Jenkins med Zipf plots. Detta "eye test" är dock inte tillräckligt (Cirillo 2013) och han använder också mean excess plots som visar medelinkomsten ovanför olika tröskelvärden. "For Pareto distributions, the graph is a positively-sloped straight line above some minimum income; deviations from linearity are evidence of non-Paretianity." (s. 273)  Zengakurvor är dock ännu bättre belägg, en omvandling av en Lorenzkurva L(u) enligt formeln: Z(u) = (u - L(u)) / (u[1-L(u)], 0 < u < 1. "For Pareto distributions, the Zenga curve is positively-sloped and rises as u --> 1, and the higher the curve, the more heavy-tailed the distribution." (s. 274) Sammantaget så säger dessa plots att inkomstskattedatat är Pareto-fördelat, möjligtvis med undantag för år 1995, och att tröskelvärdet över vilket Paretofördelningen träder in, kan variera över tid.

Graferna räcker inte för att räkna ut ifall Pareto I eller Pareto II funkar bäst. För att avgöra detta använder Jenkins två metoder. Den första är "a straightforward likelihood ratio test." Den andra är "comparisons of probability plots, specifically ‘PP’ plots graphing values of p = F(x) predicted from each model against the values of p in the data, with a different plot for each threshold. Plots that lie wholly along the 45° line from the origin indicate perfect goodness of fit." (s. 275) Se diagrammen längst upp i inlägget för den första metoden, där de streckade linjerna betecknar signifikansnivåerna 0.05, 0.01 och 0.001. Med detta sannolikhetskriterium borde vi välja Pareto I över Pareto II bara när tröskelvärdet för Pareto-fördelningen är extremt högt. (s. 276) PP-plottarna visar att både Pareto I och Pareto II gör bra ifrån sig men att Pareto II är bättre när lägre tröskelvärden applicerats.

Eftersom båda goodness of fit-testerna säger att valet mellan Pareto I och Pareto II beror på vilket tröskelvärde man använder, så går Jenkins vidare med att diskutera just denna fråga. Frågan har tidigare utvärderats av Coles (2001) och Clauset et al (2009) som gått igenom Zipfplottar, plottar av parametrar mot tröskelvärden (för Pareto I α mot tröskel t, för Pareto II ξ och σ* = σξ - t mot t), men i Clauset et als fall istället rekommendderat ett mer "objektivt" och ur principer härlett mått på avståndet mellan power law-modellen, Paretomodellen, och ens empiriska data. Clauset et al förespråkar i denna anda Kolmogorov-Smirnov-testet som mäter avståndet mellan två kumulativa fördelningsfunktioner, datats funktion och Pareto-modellens function. Det avstånd som KS-testet ger, och som kallas D, är alltså, säger Jenkins, en sammanfattning i en siffra av den information som grafiskt visats i en PP-plot. Figur 7 visar hur estimaten av shape-parametern (α för Pareto I, ξ för Pareto II) blir med tre olika beräkningsmetoder och med olika tröskelvärden. Jenkins påpekar att de två översta bilderna, för Pareto I, visar att estimaten av α kan svaja rätt rejäkt beroende på vilket tröskelvärde man sätter och vilken beräkningsmetod man använder; för 1996-datat varierar skattad α mellan 2.5 och 2 beroende på om tröskelvärdet sätts till P95 eller P99.5, vilket ger stort utslag i beräknad Gini-koefficient. För Pareto II är de skattade shape-parametrarna mer stabila.

Följande diagram, Figur 8, visar vilka tröskelvärden som är bäst enligt KS-testet. För Pareto I är det runt percentil 99.5, alltså den övre halvan av den översta percentilen; för Pareto II är den runt P99. Slutsatsen som Jenkins drar av dessa olika tester och diagnostiska grafer är att Pareto I-estimat är känsliga för vilket tröskelvärde man väljer. (s. 279)

Till slut så kommer Jenkins till själva ojämlikhetsberäkningarna. Han börjar med en mycket enkel dekomponering där total inkomstojämlikhet är = ojämlikhet inom toppinkomstgruppen + ojämlikhet inom resten + ojämlikhet mellan de två grupperna, vilket definieras som den ojämlikhet som skulle vara om varje person hade medelinkomsten i sin grupp. Ojämlikhetsmått som kan dekomponeras på detta sätt är till exempel mean logarithmic deviation (L), och Theil-indexet (T). Eftersom de två grupperna här inte kan ha överlappande inkomster, så kan också Gini-koefficienten dekomponeras i detta sammanhang. För Ginin använder han en formel från Atkinson (2007) och Alvaredo (2011), också diskuterad av Cowell (2013):

Gini, G = P_R * S_R * G_R + P_N * S_N * G_N + G_B

där P är andelen av befolkningen som tillhör gruppen (P_R = andelen "rika", P_N = "non-rich"), S är inkomstandelen för gruppen, och G_B är ojämlikheten mellan grupper, G_B = S_R - P_R. S_R är = P_R * μ_R/μ, där μ_R är medelinkomsten för gruppen rika, och μ är medelinkomsten överlag, som kan beräknas som P_R * μ_R + P_N * μ_N.

Pareto I och Pareto II kommer ge olika resultat för ojämlikheten, G här eftersom de ger olika bild av parametrarna G_R och μ_R. Om μ_R är högre så kommer S_R och G_B bli större och därmed också G, ifall inte den högre μ_R övertrumfas av en mycket lägre G_R. Som Jenkins diskuterat utförligt med valet av tröskelvärden, är det upp till forskaren att definiera P_R. Han laborerar med tre alternativ: P90, P95 och P99, alla beräknade från surveydatat. Han beräknar Gini och MLD utifrån surveydatat, och jämför i ett Appendix också med Pareto-parametrarna μ_R, G_R, L_R och T_R från skattedatat som ju har mycket bättre täckning av de rika. Figur 9, inklistrad nedan, visar resultaten för μ_R, S_R, G_R och den totala Ginin, med olika tröskelvärden för när Pareto-imputeringen ska sättas in. Oavsett metodval så ser man att Gini-koefficienten ökade mellan 1996 och 2007, och sedan minskade igen. Att använda ett högre tröskelvärde ger högre estimat för μ_R, S_R och G_R. För den resulterande totala G är Pareto II-estimaten mindre känsliga än Pareto I; för Pareto II varierar estimaten för ett givet år bara med ungefär +- en procentenhet, medan för Pareto I är variationen +-2,5 procentenheter.


I diagram 10 jämför Jenkins sina beräkningar av Gini, MLD och Theil med tidigare beräkningar med andra data. Beräkningarna av nivåer varierar en hel del, medan trenderna ser ut ungefär samma. Figur 10 visar också problemen med surveydatat: både om han bara använder botten 95 procent av surveydatat, eller det hela, så får han fram att ojämlikheten föll mellan 1995 och 2007, trots att den enligt beräkningarna i Figur 9 steg. Theil-indexet, som är starkt styrt av vad som händer i toppen av fördelningen, är allra mest missvisande här. [4] Jämförelsen visar att det är bättre att använda Pareto-imputeringar i toppen, än att använda surveydata och inte veta att man missar toppen. (s. 285)

I sina slutsatser gör Jenkins en tydlig varning för att använda surveydata utan toppjustering, och säger att så länge man inte gör det misstaget, så får man en ganska entydig bild av hur inkomstojämlikheten utvecklades i Storbritannien från mitten av 90-talet till mitten av 00-talet. Jenkins rekommenderar att man använder Pareto II-fördelningen för att skatta toppinkomsterna. Han slår också ett slag för omfattande ojämlikhetsmått -- som Ginin -- som ger någon vikt till alla delar av inkomstfördelningen, olikt ett koncentrationsmått som toppercentilandelen som inte säger någonting om de lägsta 99 procenten. 


Diskussionen om användning av Pareto-modeller för att fånga ojämlikhet i inkomster och förmögenhet  har minst sagt fortsatt sedan dess. Nationalekonomen Emmanuel Flachaire, verksam vid Aix-Marseille Université, har skrivit flera artiklar i ämnet, den första av vilka som jag kollat på tillsammans med Arthur Charpentier, verksam vid Université du Québec à Montréal, publicerad i Journal of Economic Inequality 2022, med den enkla och tydliga titeln "Pareto models for top incomes and wealth". De börjar med en effektiv introduktion:

"Income and wealth distributions are skewed to the right, with thick upper tails. Thus, microdata samples often exhibit outliers, from which sample inequality indices can be severly distorted, even in large sample (Cowell and Victoria-Feser 1996). The upper tail of income distribution is then often modelled with a parametric distribution, such as the Pareto distribution.
In his initial work on income and wealth distributions, Vilfredo Pareto suggested several parametric models (Pareto 1895, 1896). The term “Pareto distribution” refers to both Pareto I and Generalized Pareto distributions. Rytgaard (1990) wrote that the Pareto I distribution is the commonly used definition of the Pareto distribution in Europe, and the Generalized Pareto distribution in America. To some extent, this distinction could also be made between economists and statisticians." (s. 1-2)
Nationalekonomer som sysslar med ojämlikhet har huvudsakligen använt Pareto I-fördelningen, säger Charpentier och Flachaire. Detta har folk gjort både i studier av mikrodata (Davidson och Flachaire 2007, J of Econometrics; Cowell och Flachaire 2007, J of Econometrics; Burkhauser et al 2011, Restat; Alfons et al 2013, J of the Royal Statistical Society C; Hlasny och Verne 2016, World Bank Econ Review; Vermeulen 2018, ROIW; Higgins et al 2018; Lustig 2018, WP-version) och studier av tabulerade data (Atkinson et al 2011, J of Econ Lit; Lakner och Milanovic 2015, World Bank Econ Rev; Atkinson 2017, Economica). Den breda användnigen reflekterar att Pareto-fördelningen är enkel och praktisk att använda, säger Charpentier och Flachaire: "The density, the cumulative distribution function and the quantile function are simple power functions, with a single parameter to estimate, which can be related to theoretical models that can explain the generation of his thick upper tail (Gabaix 2009, Annual Rev of Econ; Jones 2015, J Econ Persp; Benhabib and Bisin 2018, J Econ Lit)."

Stephen Jenkins publicerade nyligen en artikel, säger Charpentier och Flachaire, där han ställde frågan vilken Pareto-modell som bäst passar för studier av toppinkomster. Jenkins empiriska test på Storbritanniens inkomstfördelning från 1995 till 2011 visade att Generalized Pareto Distribution (GPD) passade bäst; Charpentier och Flachaire ger i sin artikel en teoretisk grundval för detta resultat, och går vidare med diskussionen. Deras argument och bidrag är:

"We first show that the Pareto I distribution is very sensitive to the choice of the threshold. In particular, a threshold too low can lead to over-estimate the heaviness of the distribution and, thus, to over-estimate inequality. This bias comes from a misspecification, it does not disappear as the sample size increases. Next, we show that the GPD is less sensitive to the threshold, but its estimation is less accurate. We also show that the Pareto I behaves like the GPD only at (much) higher threshold. Then, we introduce the Extended Pareto distribution (EPD), which is even less sensitive to the threshold and which provides more reliable results. Finally, we discuss different types of bias that could lead to under- or over-estimate inequality in practice, and we illustrate our findings through two applications, on income distribution in South-Africa in 2012 and on wealth distribution in the U.S. in 2013." (s. 2)

Diskussionen om vilket tröskelvärde man ska välja har hållt på länge, och C och F menar att två huvudsakliga approacher har använts för att lösa problemet. Den ena är att leta och testa efter den mest precisa modellen; Fedoteknov (2018) går i en översiktsartikel igenom fler än 100 Pareto-modelleringar av toppen av en fördelning. Den andra är att utveckla en mer flexibel modell, "an easy way to reduce bias, but it comes at the cost of higher variance". Charpentier och Flachaire väljer denna väg. 

Det är en teknisk artikel men i introduktionen har de en intressant substantiell motivering till varför artikeln är viktig för ojämlikhetsforskningen och dess läsare:

"An important implication of our results, discussed in the conclusion, is to reconsider two common beliefs in empirical studies of income inequality. Indeed, it is widely believed that inequality measures are: (1) under-estimated from surveys, because these data are subject to topcoding, censoring and underreporting of the rich; (2) more reliable from tax data, because there is no topcoding or censoring and these data are much less sensitive to misreporting. Our results show that inequality can be strongly over-estimated from surveys and from tax data, if the selected threshold is too low." (s. 2)

Efter introduktionen börjar själva undersökningen med att definiera Pareto I-fördelningen. Den har medelvärde u > 0 och dess tail parameter är α. Då är dess probability density function, PDF lika med:

f (x) = (α * u^α) / (x^α+1) 

och dess cumulative density function CDF är:

F (x) = 1 - (x / u)^-α när x > u.

Pareto I har använts flitigt för att estimera de översta delarna av inkomst- och förmögenhetsfördelningarna; P I-fördelningen har en attraktiv egenskap i att medelvärdet över tröskeln är proportionerligt till tröskeln och att det inte beror på skal-parametern u.

E (X | X > u') =  αu' / (α -1), α > 1 

när u' är >= u. Charpentier och Flachaire förklarar med ett exempel från Piketty (2007) och Atkinson et al (2011): om den inverterade Pareto-koefficienten α/(α-1) är 2, så är medelinkomsten för alla individer som tjänar mer än $100 000 lika med $200 000, och medelinkomsten för personerna med inkomst över $1 miljon är = $2 miljoner. Minst sagt praktiskt! Dessutom kan, visar Jones (2015), enkla ekonomisk-teoretiska modeller förklara mekanismer som ger upphov till Pareto-fördelningar.

För den Generaliserade Paretofördelningen GPD, som Jenkins kallar Pareto II, med tail parameter α > 0 definerar de CDF:en så här:

F (x) = 1 - [1 + (x-u/σ)]^-α där x > u.

Skala-parametern σ är positiv och u är lower-bound.  Om Pareto I modellerar relativa överskotten X/u givet X > u, så modellerar GPD absoluta överskott X-u givet X > u. Anledningen till att Charpentier och Flachaire kallar fördelningen som Jenkins kallar Pareto II gör den generaliserade Paretofördelningen är eftersom man kan se Pareto I som ett specialfall av Pareto II, där σ = u: 

GPD (u, u, α) = P_1 (u, α)

Med GPD låter man modellen bestämma om den högra svansen av fördelningen ska modelleras som en power law av relativa överskott (α = u) eller av absoluta överskott (α är inte lika med u). I GPD beror medelinkomsten över tröskeln, u' >= u, på alla parametrarna:

E (X | X > u') =   (σ - u) / (α - 1) + (α / α-1) u'.

Statistiker som arbtar med extremt skeva fördelningar tenderar att använda GPD eftersom dess excess distribution function fungerar väl med mycket höga u.

Liksom Jenkins så konstaterar Charpentier och Flachaire att det är väldigt svårt att välja tröskelvärdet u, vilket är problematiskt eftersom ens resultat är starkt beroende av vilket tröskelvärde man väljer. Observationerna över u är de k största värdena i fördelningen och dessa k värden antas vara Pareto-fördelade, med tail index α. När man ska bestämma u möter man en trade-off mellan bias och varians: om man sätter tröskelvärdet för högt är k litet och beräkningarna kan bli volatila; sätter man tröskelvärdet för lågt blir variabiliteten lägre men bias större. Deras diagram 1 illustrerar hur estimaten av α fluktuerar med valet av u för Pareto I (vänster) och GPD (höger), för fiktiva samples med 1000 observationer skapade enligt en GP-fördelning. Diagrammet visar att medelvärdet inte varierar för GPD-estimaten, vilket betyder att de inte har bias utifrån vilket u man valt, men att deras varians däremot är väldigt mycket större än vad variansen för Pareto I-estimaten är.

De går vidare med att presentera Extended Pareto Distribution, EPD. Detta motiveras med att Pareto I presterar dåligt om man inte sätter tröskelvärdet väldigt högt. EPD: plockar de upp från Beirlant et al (2009) och de definierar den så här:

F (x) = 1 -[(x/u) (1 + δ - δ(x/u)^τ)]^-α där x > u, τ =< 0 och δ > max(-1, 1/τ).

Pareto är ett specialfall där δ = 0 och GPD är ett specialfall där τ = - 1. För EPD finns det inte någon enkel approximering av medelvärdet över tröskelvärdet och man behöver själv beräkna det. Efter att ha introducerat EPD går de vidare med att jämföra dess precision och bias i att beräkna tail parameter α, med hur Pareto I och GPD presterar. Beräkningarna i Fig 2 bygger på 1000 simulerade samples med 50 000 observationer var, Singh-Maddala-fördelningar som liknar 2013 års US-amerikanska inkomstfördelning. Fig 2 visar, säger de, att Pareto I-modellen konsekvent underskattar α, vilket innebär att den kommer överskatta inkomstojämlikheten. GPD tenderar tvärtom till att överskatta α. EPD har, som vi ser, mycket mindre bias: med lägre tröskelvärde hamnar den beräknade α under det faktiska värdet, men inte med alls så stort fel som GPD eller, framför allt, Pareto I. I Figur 3 (inte visad här) visar de att även om samplet är mycket stort (1 miljon observationer) så återstår bias för Pareto I och GPD.



De fortsätter med simuleringar med olika tail parameters, mer och mer olika en ren Pareto-fördelning med konstant α oavsett vad man sätter tröskelvärdet. Atkinson et al (2011) säger att i praktiken så varierar α mest mellan 1,5 och 3; de beräknar ^α i fördelningar som har det faktiska värdet α = 3, och fördelningar som avviker från Pareto i att istället ha stigande ρ genom fördelningen. Också här underskattar Pareto I-modeller α vilket överskattar ojämlikheten; GPD har mindre bias men mer varians; och EPD presterar bättre än både Pareto I och GPD. Också när det faktiska värdet är α = 1.5 strular Pareto I-till det.

I empiriska studier beräknas den övre svansen ofta från diagram, säger Charpentier och Flachaie. Man kan också beräkna, för en Pareto I-fördelning: log (1 - F(x)) = c - α log x där c = α log u. Utifrån detta kan man göra en plot med logaritmerade inkomster på x-axeln och den logaritmerade överlevnadsfunktionen på y-axeln: log x, log (1 - F(x))). Detta är en Zipf plot, som visar andelen av befolkningen med inkomst > x gentemot x självt. Om fördelningen är strikt Pareto, så ska plotten visa en linjär funktion med en lutningskoefficient som motsvarar α. 

Det finns dock tre orsaker till att bias uppstår när man ska beräkna α, säger de: misspecification bias, estimation bias, och sampling bias. Jag lämnar deras detaljerade diskussioner om dessa tre problem därhän, men noterar bara att i sampling bias-diskussionen utgår de från den klassiska ojämlikhetsdiskussionen om de rikas underrepresentation i surveydata, och de påpekar att de utvecklat program i R ("TopIncomes") för att korrigera för detta problem.

Efter diskussionerna om de tre källorna till bias, kommer de till sina illustrerande exempel: en analys av inkomstfördelningen i Sydafrika år 2012, och en analys av förmögenhetsfördelningen i USA år 2013. Inkomstdatat för Sydafrika är ett sample med 7990 hushåll, inkluderad i Luxembourg Income Study. De börjar med en graf (Figur 8, nedan) som visar vad för α som beräknas för fördelningen i Sydafrika utifrån olika tröskelvärden (k) och med Pareto I, GPD eller EPD. Detta följs av Figur 9 som visar resulterande estimat av toppercentilens andel av inkomster., för olika tröskelvärden. Diagrammet visar att med Pareto I-modellen så ökar den estimerade inkomstkoncentrationen när k växer, vilket hänger ihop med att beräknade α ju faller med stigande k och Pareto I, vilket vi sett i Figur 8. Med beräkningar baserade på GPD och EPD blir estimaten av toppercentilandelen mycket stabilare.


 

Charpentier och Flachaire visar med nästa diagram (Fig 10) som är ett Paretodiagram, hur överskattningen av ojämlikheten uppstår med Pareto I-modellen: med för låga k underskattas α och därmed överskattas inkomsterna i the upper tail

Efter Sydafrikas inkomstfördelning modellerar Charpentier och Flachaire förmögenhetsfördelningen i USA år 2013 med olika Pareto-modeller. Också här utgår de från hushållssurveydata från Luxembourg Wealth Study. Också här har Pareto I-modellen stora problem.

I slutsatserna börjar Charpentier och Flachaire också just med att varna för att Pareto I-modellen, som är så flitigt använd i ojämlikhetsstudier, ger orimliga resultat när man använder för låga tröskelvärden; då underskattas tail index och därmed överskattas ojämlikheten. GPD presterar bättre, och EPD presterar ännu bättre. De citerar Atkinson, Piketty och Saez välkända översiktsartikel ur toppinkomstlitteraturen där APZ estimatar tail-parametern som ration från topp 5 procentens inkomstandel till toppdecilens inkomstandel, och säger att toppinkomstandelar är underskattade i surveystudier pga bortfall i toppen av fördelningen. Charpentier och Flachaire säger att det visserligen är sant om fördelningen är strikt Pareto över 90:e percentilen och man inte har stora outliers, men de pekar på att om dess antaganden inte håller, så kan man underskatta α och därmed överskatta ojämlikheten med APZ metod. De avslutar med att peka på att Jenkins (2017) arbetat med skattedata, som inte har problemen med bortfall som surveydata har, och att han ändå fann att Pareto I:s optimala tröskelvärde var vid den 99,5:e percentilen -- mycket högre än vad folk typiskt använder som tröskelvärden. Charpentier och Flachaire avslutar lakoniskt: "This suggests that fitting Pareto models to tax data should be done with more caution than has been done so far." (s. 23)


Bara ett år senare publicerade Flachaire ännu en artikel i ämnet, denna gången med nationalekonomerna Nora Lustig (Tulane University) och Andrea Vigorito (Universidad de la República i Uruguay, numera anställd vid UNDP). I denna artikel är utgångspunkten de välkända problemen med att surveydata ofta missar de rika: eftersom att rika människor inte vill svara på surveys om sina inkomster, eftersom samplen är för små, eller på grund av mätfel, t ex att de rika uppger mindre inkomster än vad de faktiskt har. [5] Därför har under 2010-talet en rad metoder utvecklats för att överkomma problemet med bias i surveydata: att komplettera surveys med nationalräkenskaper (Piketty, Saez och Zucman 2018), skattedata eller socialförsäkringsdata (Burkhauser et al 2016; Jenkins 2017; Piketty et al 2019), med fler surveys (Fisher et al 2022), eller med s k rich lists (Brzezinski 2014).

Flachaire, Lustig och Vigoritos artikel fokuserar på att utforska korrigeringsmetoder för underrapportering av inkomst i toppen av inkomstfördelningen. Framför allt två metoder används i litteraturen; Hlasny och Verme (2018) etiketterar dessa som "replacing" och "reweighting". Dock så bygger båda metoderna, säger FLV, på antaganden som i sig inte går att testa empiriskt, framför allt om vilket tröskelvärde man ska välja för var surveys börjar underrapportera inkomster. "The biggest challenge in applying correction methods is that the true income distribution is unknown; therefore, one does not know the threshold above which underreporting occurs." (s. 1034) FLV använder simuleringsmetoder för att testa hur känsliga korrigeringsmetoderna är för vilka tröskelvärden som väljs. Dels så simulerar de en hypotetisk faktisk fördelning, dels en hypotetisk fördelning som lider av underrapportering i övre svansen. En fördel med simuleringar här är att de kan isolera problemet med underreporting och bortse från det i faktiska dataset parallellt förekommande problemet med sampling error. Deras simulerade datas fördelning baserar de på ett unikt dataset från Uruguay där ett subset av landets officiella inkomstsurvey har länkats till samma personers skattedeklarationer. Figur 2 visar att survey-underrapporteringen av inkomst är störst bland höginkomsttagare, som förväntat: toppercentilen i skattedatat rapporterar bara 60 procent av sina beskattade inkomster i hushållssurveyn. Mer oväntat är kanske att folk längst ner i inkomstfördelningen faktiskt uppger högre inkomster än vad de har enligt skattedatat. [6]


Deras simuleringstester börjar med en simularad Singh-Maddala-fördelning där a och q är shape parameters, b är en skala-parameter och y > 0. De sätter dess parametrar utifrån Uruguays inkomstfördelning, som de beräknat baserat både på hushållssurveyn och på skattedatat. De förklarar i detalj hur de utifrån denna "korrekta" simulerade fördelning sedan skapar en biased simulerad fördelning utifrån de parametrar för underrapportering som de beräknat utifrån jämförelsen mellan survey och skattedata. De sätter underrapporteringen under fördelningens median till 0, medan de för hushållen mellan medianen och 90:e percentilen sätter r(p) som 0,25 + 1,5p där p är andelen underrapportering i det faktiska datat, p = F_y (y) och F_y (y) är CDF:n för den faktiska fördelningen. För den översta decilen sätter de underrapporteringen som -7,85 + 10,5p. Den "biased" simulerade inkomsten x ges då genom att dela den sanna inkomsten y med r(p) e, vars emedelvärde är r(p). Parametern σ anger heterogeniteten i hur mycket personer med samma inkomst underrapporterar sina inkomster; de sätter σ till 0,15. Deras plot med r(p) över inkomstfördelningen ser ut som den motsvarande plotten för Uruguays faktiska data, Figur 2 ovan, vilket är som det ska. 

Därefter visar de i Figur 4 den sanna simulerade fördelningens density function, jämfört med den biased simulerade fördelningens dito. Den biased fördelningen får en mycket högre peak i mitten av fördelningen, och en mycket tunnare svans till höger. Detta betyder att den biased fördelningen är mycket mera jämlik, vilket de också visar med en uppsättning konventionella ojämlikhetsmått: Gini-koefficienten, MLD, Theil, och så inkomstandelarna för toppdecilen, topp 5 procenten, och toppercentilen. Ginin faller t ex från 0,436 till 0,299 i den biased fördelningen, och toppdecilens andel från 33,9 procent till 22,6 procent. Väldigt stora effekter!

Från detta går de vidare med att diskutera de två olika approacherna för att kombinera skattedata och surveydata: replacing och reweighting. Replacing-approachen går ut på att ersätta vad man anser vara felrapporterade inkomster över ett visst tröskelvärde k, med kvantilerna från vad man anser vara den sanna fördelningen. Den nya fördelningen z som man gör sina beräkningar på kommer alltså bestå av 100-k procent från surveyfördelningen, och k procent från den kompletterande fördelningen. Baserat på z kan man enkelt beräkna ojämlikhetsmått som går att dekomponera, säger FLV: den totala ojämlikheten är (a) ojämlikheten inom 100-k-gruppen, (b) ojämlikheten inom k-gruppen, och (c) ojämlikheten mellan de två grupperna. Detta kan dekomponeras för Gini och andra mått med formler från Alvaredo (2011, Economics Letters) eller Cowell (2011, Measuring Inequality, 3e utg.). (s. 1042-1044) Topprocentandelar för v procent ovanför t definieras:

TS_r(v) = (v/100)𝔼 (y >= Q_y (1-v/100)) / μ_r = 

 (μ_y / μ_r ) * TS_y (v), om v =< k

μ_r är medelvärdet i den nya fördelningen och om v =< k så är toppandelarna i den nya fördelningen samma som toppandelarna i den sanna fördelningen, omskalat med medel-ration. Figur 5 illustrerar de tre fördelningarna -- den biased fördelningen, den "sanna" fördelningen med toppandelar, och den nyskapade fördelningen z, när man använder olika tröskelvärden för när man ska sätta in korrigeringen: 90:e percentilen, 67:e percentilen, medianen, 40:e percentilen eller 30:e percentilen. I en tabell visar de hur beräknade ojämlikhetsmått blir med replacing-approachen och de fem olika tröskelvärdena. Det förvånar mig att ojämlikhetsberäkningarna faktiskt hamnar närmst den faktiska fördelningen (faktiskt helt rätt) med låga tröskelvärden, säg att man korrigerar redan från den 40:e percentilen! Jag har aldrig tänkt att man skulle ersätta lägre än den 90:e percentilen så detta var förvånande för mig.


Den andra korrigerings-approachen är reweighting, att omvikta observationer i den biased källan för att ändå få blick på inkomsterna i toppen av fördelningen. Vikterna är då (ekvation 9):

w (x) = [ 𝜆, om x =< t

             [f_y (x) / f_x (x), om x > t

Och dem korrierade, omviktade fördelningen ges då av w(x) f_x(x), det vill säga:

f_w (x) = [ 𝜆 f_x(x), om x =< t

                [ f_y (x), om x > t

Den omviktade fördelningen är då den "sanna" fördelningen över t, och under t den biased fördelningen, omskalad med faktorn 𝜆. I teorin bör reweighting-strategin ge samma resultat som replacing-strategin, eftersom de båda bygger på att kombinera biased data under tröskeln med "sanna" data över tröskeln. Men, säger FLV, att beräkna datats densitet är komplicerat för höga inkomster som är skevt fördelade, och vikterna som definierats ovan kan därför vara opålitliga, och estimaten kan skilja sig rejält åt mellan replacing och reweighting. (s. 1047-1048) 

Blanchet, Flores och Morgan har i ett WID.World-working paper, "The weight of the rich", beskrivit den korrigeringsmetod som de använder i WID. Denna metod har ett första steg där survey-inkomsterna viktas enligt ekvation 9 ovan. I det andra steget dupliceras inkomsterna över tröskelvärdet och ersätts med observationer med motsvarande rank och vikt från skattefördelningen. Denna metod motsvarar i princip den reweighting-metod som beskrivits ovan, där vikterna från ekvation 9 används och appliceras i en ekvation 11 som jag inte återgett här. Också med denna metod kan man, som jag återgett för replacing ovan, beräkna den totala ojämlikheten som en summa av tre beståndsdelar: ojämlikheten i surveydatat under tröskelvärdet, ojämlikheten i skattedatat över tröskelvärdet och ojämlikheten mellan de två grupperna. Topprocentandelarna för de översta v procenten över tröskelvärdet beräknas:

TS_w(v) =  (v/100)𝔼 (y >= Q_y (1-s/100)) / μ_w =  (μ_y / μ_w ) * TS_y (v), om v =< 1

Detta är toppandelarna från skattedatat, omskalat av ration av medelvärden. När medelvärdet i den omviktade fördelningen är mindre (större) än medelvärdet i den sanna fördelningen, blir topp v procentandelen med v =< 1 biased uppåt (neråt). Liksom för replacing-strategin så visar de diagram med fördelningarna för surveydatat, skattedatat och det nyskapade, korrigerade hybriddatat, med olika tröskelvärden för korrigeringen, från 30:e till 90:e percentilen. Och i en tabell visar de resulterande ojämlikhetsmåtten med de olika beräkningarna: också här hamnar estimaten närmst den sanna ojämlikheten när låga tröskelvärden använts, säg 30:e eller 40:e percentilen, precis som i fallet med replacing-metoden. Reweighting-metoden är dock inte lika effektiv: medan replacing-estimaten närmar sig den sanna ojämlikheten snabbt när man minskar tröskelvärdet, så måste man med reweighting använda ganska låga tröskelvärden för att få precisa estimat. Detta bror på att replacing-fördelningen avviker från den sanna fördelningen bara lokalt (mellan den optimala tröskeln och den faktiska tröskeln) medan reweighting-fördelningen avviker från den sanna fördelningen mera globalt, överallt under tröskelvärdet.

Vi ser återigen att valet av tröskelvärde är väldigt viktigt, och nästa sektion i FLV:s artikel ägnas åt just detta val. De introducerar problemet som att man får stora problem med sina estimat om det finns underrapportering under ens tröskelvärde. Den metod som jag känner till för att sätta tröskelvärdet är nog den intuitiva eller tumregelsval: man säger helt enkelt att ovanför den 90:e percentilen eller så, så tänker man sig att det fins underrapportering. FLV refererar här till Burkhauser et al (2016, NBER WP), Chancel och Piketty (Indienpaper i ROIW, 2019), och Piketty, Yang och Zucman (Kinapaper i AER, 2019). Ett mer systematiskt sätt att välja tröskelvärde är att använda en kvantil-ratio-funktion:

t = max (Q_x(p)) så att Q_y(p) / Q_x(p) = 1

Det vill säga en funktion som identifierar den högsta percentilen i fördelningen där fördelningen i surveydatat, Q_x, ger samma värde som fördelningen i skattedatat, Q_y. Figur 3 visar kvantilratios från FLV:s simulerade data, och här ser man att kvantilratios börjar avvika från 1 redan före medianen! Baserat på figuren skulle man då börja korrigera redan från den 40:e percentilen.


En annan regel för att välja tröskelvärde föreslås av Blanchet, Flores och Morgan i "The weight of the rich: Improving surveys using tax data" (JOEI, 2022). Regeln är att välja:

t = max (z) så att F_x(z) / F_y(z) = f_x(z) / f_y(z) (ekvation 17)

FLV kommenterar denna metod så här: "This method is defined to ensure the continuity of the reweighting distribution in the upper tail. However, it is not designed to identify when the true and distorted distributions start to differ, and it often selects a threshold that is too high." (s. 1051) De pekar på att de två fördelningar som man jobbar med, surveydatat och skattedatat, kan korsas på flera ställen och att det är svårt att beräkna density ratios precist i mindre samples. Därför, säger FLV, får Blanchet, Flores och Morgan också mycket olika resultat för vad för tröskelvärden de ska använda när de utforskar högkvalitativa skattedata från Norge och Frankrike på 2000-talet: tröskelvärdena varierar mellan 60:e och 99:e percentilen. FLV beräknar tröskelvärden utifrån ekvation 17 baserat på sina simulerade "uruguayanska" data och visar att tröskelvärdet som man väljer utifrån Blanchet-Flores-Morgans metod är bra mycket högre än de tröskelvärden som de själva kommit fram till: 67:e percentilen snarare än runt 40:e percentilen. Den beräknade Gini-koefficienten blir med BFM:s metod och 67:e percentilen 0,416 att jämföra den faktiska Ginin som är 0,436, och för toppdecilens andel blir BFM-beräkningen 33,0 procent att jämföra med det faktiska värdet 33,9 procent. (Tabell 2.) Egentligen inte så dålig precision, blir min reflektion, även om FLV verkar kritiska.

I följande sektion, "What should we do in practice?", upprepar de att valet av tröskelvärde är komplicerat. De säger att metoden med kvantilratios inte är helt pålitlig och att skattedatat också har problemet med skattesmitande. FLV rekommenderar att man kan använda kvantilratio-metoden för att sätta tröskelvärdet till att börja med, och  sedan visa resultaten man får med flera olika tröskelvärden, för att visa hurpass robusta resultaten är. I praktiken kommer man också, till skillnad från i simuleringarna som FLV hittills jobbat med, behöva ta hänsyn till samplingsfel, inte bara underrapportering i toppen av fördelningen. (s. 1054-1055)

De illustrerar praktiken med sina survey- och skattedata från Uruguay. Kvantilratio-plotten visar att redan vid medianen så avviker kvantilratios, vilket säger att de finns underrapportering av inkomster redan ovanför 50:e percentilen. Detta medan Blanchet-Flores-Morgans metod för att beräkna tröskelvärdet säger att det räcker med korrigering ovanför 72,5:e percentilen. Om man sätter tröskelvärdet vid 50:e percentilen så ger replacing, reweighting och BFM (som använder en generaliserad Pareto-fördelning i toppen) i princip samma resultat vad gäller ojämlikhetsestimat. Överlag är de empiriska resultaten för Uruguay liknande som simuleringsresultaten; inte minst så ger replacing-metoden mycket stabila resultat, inte så känsliga för val av tröskelvärden. (s. 1056-1057) I slutsatserna säger de också att replacing-metoden kan vara att föredra just eftersom den är mindre känslig för det svåra problemet med att välja rätt tröskelvärde. Man kan dock inte säga detta för alla problem; sampling error har ju inte diskuterats på samma sätt här som problemet med underrapportering i toppen, så i andra situationer kanske replacing inte är lika tydligt överlägsen reweighting. (s. 1057-58)


Den sista metodartikeln om toppinkomster som jag ska kolla på här är också skriven av Emmanuel Flachaire, fast nu i samarbete med LSE-ekonomen Frank Cowell: "Inequality Measurement and The Rich: Why Inequality Increased More Than We Thought", publicerad i Review of Income and Wealth 2024. Cowell och Flachaire börjar sin artikel med att konstatera att många idag funderar på om inkomstojämlikheten stiger eller faller, men att vanliga mått som Gini och Theil kan ge olika besked. Det beror, säger de, också på att både Gini och Theil är beräknade med ett spridningsmått i täljaren och en medelinkomst i nämnaren; att inkludera medelinkomsten är bra för att göra beräkningarna icke känsliga för skala, men påverkar också estimaten, förstås.

Flachaire och Cowell använder ett enkelt exempel för att visa att Gini och Theil har ett problem i att de inte följer vad de kallar "principle of monotonicity in distance", som de definierar så här: "if two distributions differ only in respect of one individual’s income, then the distribution that registers greater distance from equality for this individual’s income is the distribution that exhibits greater inequality." (s. 255) För att illustrera detta presenterar de två inkomstfördelningar, x och x':

x = {1, 2, 3, 4, 5, 9, 10}. x′ = {1, 2, 3, 4, 7, 9, 10}.

Medelvärdet i x är 4.857 och medelvärdet i x' är 5.143, så den femte personens inkomstökning från 5 till 7 är en ökning av ojämlikheten -- personen rör sig bort från medelvärdet, säger de. Men Ginin säger att med denna förändring så rör vi oss från 0.361 till 0.357, alltså lite lägre ojämlikhet, och Theil likaså: från 0.216 till 0.214. Alltså följer inte Gini- och Theil-måtten principen om monotonicity in distance -- trots en ökad inkomstspridning från x till x' så anger Gini och Theil att ojämlikheten minskat. Roligt nog så lyfter de istället fram det mer obskyra ojämlikhetsmåttet mean logarithmic deviation, MLD ("or second Theil index") som de säger har de attraktiva egenskaperna att både respektera "principle of transfers", och principen om monotonicity in distance. MLD för x och x' blir till exempel 0.254 och 0.263. Flachaire och Cowell menar att detta inte bara är ett tanke-experiment, utan att det har bäring på hur vi tolkar utvecklingen i Storbritannien och USA idag: om vi tittar på Gini-koefficienten, så underskattar vi hur ojämlikheten ökat i dessa länder.

Efter introduktionen så börjar deras diskussion med att diskutera principer för ojämlikhetsmått -- här refererar de också sitt bokkapitel "Inequality measurement: Methods and data" från 2021. De säger att varje ojämlikhetsmått för en population behöver en referenspunkt: det kan vara till exempel medelvärdet (tjänar personen mer eller mindre än medelinkomsten i befolkningen) eller medianvärdet. Utifrån referenspunkten kan man diskutera principen om monotonicity in distance som är den första av tre principer som de lägger fram för ojämlikhetsmått. Denna princip har förklarats ovan. Den andra principen är independence, som de förklarar så här:

"Suppose there is some particular i for which the value of x_i is the same in both distribution x and distribution x′. Identical small variations in this common value should leave the inequality ranking of distributions x and x′ unchanged. This principle provides the basis for decomposing inequality by subgroup of the population as discussed in Section 4 later." (s. 257)

Den tredje principen är scale invariance, som de förklarar med två punkter: den ena är att om man skalar om alla värden i x och x' enligt samma skala, så ska jämförelserna av ojämlikhet i x och x' förbli oförändrade. Den andra är att om alla observationerna i fördelningarna x och x' växer proportionerligt, medan referenspunkterna förblir desamma, så ska inte ojämlikhetsjämförelsen påverkas. Nivån av uppmätt ojämlikhet kan förändras, men inte rankingen av x kontra x'

Utifrån dessa tre principer så lägger de fram en klass av ojämlikhetsmått. Om n är antalet personer i samhället och r är referenspunkten, så tar ojämlikhetsmåttet antagligen "absolut" form:

G (x) : = 1/2n^2 nΣi=1 nΣj=1 | x_i - x_j |        (formel 1)

eller en relativ form:

I_𝛼 (x; r) := 1/𝛼[𝛼-1] * [1/n nΣi=1 x^𝛼_i - r^𝛼]    (formel 2)

där 𝛼 är en sensitivity parameter. För att de två formlerna ska jobbas om till användbara ojämlikhetsmått, säger Cowell och Flachaire, så behöver man göra två saker. För det första, definiera referenspunkten r i den andra formeln: det kan till exempel vara medelvärdet. I den första formeln har r implicit redan satts som medianen, m; man kan skriva om den formeln som 

G (x) =  nΣi=1 * k_i * x_i

där x_i är värdet för den i:de komponenten av x sorterad i stigande ordning, och k_i är = 2/n^2 [i - (n+1)/2]. Detta innebär att en förändring i x_i ger en effekt på ojämlikhetsmåttet, positiv eller negativ, i enlighet med i-(n+1)/2. Detta innebär att måttet respekterar monotonitetskriteriet. Det andra som man behöver göra för att formel 2 ska bli ett användbart ojämlikhetmått är att normalisera så att om alla inkomster ökar proportionerligt, så förvrids inte jämförelser. Man kan normalisera mot medelvärdet μ som i den konventionella Ginin, men Cowell och Flachaire föredrar att normalisera mot medianen m. [7] De demonstrerar med simulationsanalyser med lognormala fördelningar med 5000 observationer hur den medelvärdesnormaliserade och medianvärdesnormaliserade Ginin reagerar på en rörelse längre bort från medel/medianen för en observation. Den medianvärdesnormaliserade Ginin är rimligare här, är summan av kardemumman. (s. 259-264)

Nästa utredning rör principle of transfers, att en överföring från en fattigare person till en rikare person alltid ska innebära en ökning av ojämlikhetsmåttet. Både den "absoluta" och den vanliga Ginin klarar detta test; den mediannormaliserade Ginin klarar principen så länge överföringarna sker mellan personer som är antningen under eller över medianen, om överföringen korsar medianen så kan det bli problem. Cowell och Flachaire reder ut hur formel 2-måttet ovan klarar överföringsprincipen, beroende på om man använder en mediannormering eller en medelnormering.

Följande sektion arbetar med att jämföra hur olika medlemmar av de två "familjerna" av ojämlikhetsmått -- den medelnormerade och den mediannormerade -- presterar på olika sätt. Formel 2-måttet mediannormerat har känslighetsparametern 𝛼 och när 𝛼 > 1 så fästs mer vikt vid höga värden av x, medan om 𝛼 < -1 fästs mer vikt vid låga värden av x. Om 𝛼 befinner sig mellan -1 och 0 så blir observationerna nära till och över medianen särskilt viktiga; om 𝛼 är mellan 0 och 1 blir det extra vikt på värden runt och under medianen. (s. 266) De går tillbaka till ekvation 10 som de presenterat ovan (se fotnot 7 här):

I_0 (x/μ; μ) = 1/n * nΣi=1 * log(x_i/μ)

och skriver om den så här:

I_0 (x/m; μ) = log (μ/g)

där g är fördelningens geometriska medelvärde. "Therefore, the MLD index is the log difference between the arithmetic mean and the geometric mean, and it is clear that in computing arithmetic and geometric means, every value of x has the same weight." (s. 266) [8]

De går över till att diskutera Gini-familjen. Den mediannormaliserade Ginin är besläktat med det mediannormerade generalized entropy-måttet som diskuteras i det utklippta resonemanget i fotnot 7 nedan. Jag återger det senare måttet också här:

I_𝛼 (x/m; μ) = 1/𝛼[𝛼-1] * [1/n nΣi=1 (x_i/m)^𝛼 - (μ-m)^𝛼], (ekvation 12)

= (μ/m)^𝛼 I_𝛼 (x/μ;μ), for all 𝛼 ∈ R. (ekvation 13)

I Gini-diskussionen så säger de att det mediannormaliserade måttet i ekvation 12 med 𝛼 = 2 är lika med:

I_2 (x/m; μ) =  (𝜎^2)/(2m^2) = E([x -_x]^2)/(2m^2) = E x, x' ([x-x']^2)/(4m^2) (ekvation 26)

Med detta, säger Flachaire och Cowell, ser vi att Gini (x; m) och [I_2 (x/m; μ)]^(1/2) är two very similar measures; both are ratios of a dispersion measure on twice the median. For the Gini, the dispersion measure is based on Manhattan L1-distance, while for the generalized-entropy measure it is based on Euclidean L2-distance. As a consequence, I2(x∕m; 𝜇) puts more weight on high values of x, compared with the Gini. It is also true for mean-normalized inequality measures G(x; 𝜇) and [I2(x∕𝜇; 𝜇)]1∕2, because both
are ratios of a dispersion measure on twice the mean." (s. 266) Gini och MLD har då gemensamt, säger de, att alla delar av fördelningen är lika viktiga för resultatet.

Följande sektion handlar om dekomponeringar av de olika måtten, i den mediannormaliserade och medelnormaliserade familjen av mått. De delar in befolkningen i K antal grupper, där andelen av befolkningen som tillhör grupp k skrivs p_k och medianinkomsten och medelinkomsten i grupp k skrivs m_k och μ_k. Vi vill dekomponera inkomstojämlikheten per K och det kan göras på två sätt, säger Cowell och Flachaire: det ena är non-overlapping dekomponering där vi sätter villkoret att grupperna är strikt rangordnade efter inkomst så att den rikaste personen i grupp k alltid har lägre inkomst än den fattigaste personen i grupp k+1, eller en generell dekomponering som inte har några sådana antaganden. Om vi arbetar med antagandet om ingen överlappning mellan k och k+1 så blir dekomponeringen av Gini-familjen som följer:

För MLD behövs ingen grouping-begränsning för dekomponeringen. Den kan dekomponeras så här:

I_0 (x/m; μ) = I_0 (x/μ; μ) = KΣk=1 * p_k * I_0 (x_k/μ_k; μ_k) - KΣk=1 * p_k * log (μ_k/μ) 

De två sista elementen visar att vi tar den gruppstorleksviktade spridningen av varje persons inkomst i grupp k relaterat till medelinkomsten i grupp k (inom-grupp ojämlikhet) och subtraherar gruppviktad, logaritmerad skillnad mellan gruppens medelinkomst och populationens medelinkomst (mellan-grupp ojämlikhet). Om vi t ex vill dekomponera inkomstskillnaden mellan män och kvinnor så kan den totala ojämlikheten skrivas:

I_𝛼 = w^F I^F_𝛼 + w^M I^M_𝛼 + I^btw

där w^F och w^M är vikterna för kvinnor och män, och I^btw är medelvärdet för grupp F och medelvärdet för grupp M relativt till hela medelvärdet; "comparing I^F_𝛼 and I^M_𝛼 enables one to say precisely where changes in inequalityhave taken place." (s. 268)

I den sista undersökningsdelen (före slutsatssektionen) applicerar Cowell och Flachaire de olika måtten: MLD som är densamma vare sig man normaliserar efter medel eller median och som klarar både monotonitetsprincipen och överföringsprncipen, och Gini normaliserad efter medel eller median som varierar med detta och där den medelnormaliserade Ginin inte klarar monotonitetsprincipen. I diagram 5, som jag klistrat in nedan, ser vi tre serier: de röda trianglarna är MLD, de blå cirklarna är Ginin, och de gröna cirklarna är den mediannormerade Ginin. Vi ser att alla tre serier egentligen har väldigt lika utveckling över tid: en viss minskning mellan mitten av 1960-talet och slutet av 1970-talet; därefter en kraftig ökning till det tidiga 1990-talet, följt av relativ stabilitet på 90-talet med viss ökande tendens fram till finanskrisen 2008. Ökningen blir dock kraftigare med den mediannormerade Ginin än med den medelnormerade dito och eftersom MLD mäts på en annan skala så kan diagrammet nedan dölja något som de visar i ett annat diagram, inte visat här, nämligen att den procentuella variationen år-till-år ofta är häftigare i MLD än i Gini.


De går över till att visa utvecklingen i USA från 1967 till 2016.Här skiljer sig bilden man får av de olika måtten mer åt. Alla tre mått visar förstås att inkomstspridningen ökat kraftigt sedan 1970-talet, men med olika takt. För perioden 1994-2016 ökade MLD med 1.292 procent om året och median-Ginin med 0.517 procent om året, medan den vanliga Ginin "bara" ökade med 0.264 procent om året. [9]


För att vidare utreda vad som händer med de olika måtten gör de en slags simulering light -- de kallar det en "parabel" -- där de använder de fem kvintilerna av USA: s inkomstfördelningar 1994 och 2016 och presenterar Gini och MLD utifrån förändringen för varje kvintil 1994-2016. Tabell 1 visar medelinkomsten för de fem kvintilerna 1994 och 2016. Den andra gruppen kolumner "Base Year 1994" visar överst between-group-ojämlikheten 1994 (Gini 0.4222; MLD 0.3523) och där nedan kontrafaktiska scenarier: hur hade Gini och MLD utvecklats 1994-2016 om bara medelinkomsten för en kvintil hade förändrats? Vi förväntar oss här förstås att ojämlikheten ska öka om inkomsterna ökar för kvintiler 4 och 5, som har inkomster över medel, och minska om inkomsterna ökar (isolerat, kontrafaktiskt) för kvintilerna 1 och 2, som har inkomster under medel. Men vad kolumnerna "Base Year 1994" visar är att medan MLD ger konsekventa utfall, så gör inte Ginin det: där minskar ojämlikheten när inkomsterna för kvintil 4 ökas. Samma resultat blir utfallet om man gör det omvända experimentet: utgår från 2016 års inkomst och sedan minskar inkomsterna för en kvintil i taget till 1994 års nivåer.


I en vidare tabell (inte visad här) demonstrerar Cowell och Flachaire att Gini och MLD har lite olika känslighet till vad som försiggår i olika delar av fördelningen: att öka toppkvintilens inkomster från 1994 års till 2016 års nivå ger dubbelt så stor (procentuell) effekt på MLD som på Gini, men att öka den lägsta kvintilens inkomster har 4,53 gånger så stor effekt på MLD som på Gini. MLD är alltså mer känslig till utvecklingen i fördelningens ytterligheter, säger de. (s. 273)

En sista övning är att de jämför utvecklingen i ojämlikhet mellan USA och Storbritannien sedan 1970-talet, med MLD och med Gini. Med Gini får man bilden att utvecklingen i de båda länderna varit väldigt likartad sedan 1994 (kraftig ökning), medan med MLD får man en mer blandad bild med mer stabilitet i Storbritannien och kraftig ökning i USA. Cowell och Flachaires kommentar till detta är att det i sig inte är ett problem om två ojämlikhetsmått ger olika bilder, om de t ex ger olika vikt till olika delar av fördelningen, men att det är ett problem här eftersom de är grundade på olika principer -- överföringsprincipen och eller monotonitetsprincipen. (s. 276) Något som det alltså är viktigt att vara medveten om, tänker jag.

I slutsatserna så säger de att Gini-koefficienten är den mest populära ojämlikhetsindikatorn i policyvärlden och att Gini förvisso har goda egenskaper: ett enkel viktningsschema, att den respekterar överföringsprincipen, att den klarar omskalning av inkomster, och att den är dekomponerbar i alla fall för icke-överlappande grupperingar. Men Ginin respekterar inte monotonitetsprincipen vilket ger en del konstiga utfall, säger de: "By contrast the MLD index has all of the attractive properties of the Gini coefficient and more: it also respects the principle of monotonicity in distance and is decomposable for arbitrary partitions with the path-independence property." (s. 276) Och så avslutar de med en praktisk bedömning och rekommendation:

"Indeed, the Gini coefficient and other indices may understate variations in inequality and, as a consequence, may be poor indicators of the effectiveness of redistribution policies. Our application suggests that the increase in inequality in the United States over recent years is significantly understated by the Gini index. By contrast, the MLD index has more desirable properties, estimates variations in inequality more accurately, and should be preferred in practice." (s. 276)


 

referenser

Arthur Charpentier och ·Emmanuel Flachaire (2022) "Pareto models for top incomes and wealth", The Journal of Economic Inequality (2022) 20:1–25

Emmanuel Flachaire, Nora Lustig och Andrea Vigorito (2023) "Underreporting of top incomes and inequality: A comparison of correction methods using simulations and linked survey and tax data", Review of Income and Wealth 69:4. 

Frank A Cowell och Emmanuel Flachaire (2024) "Inequality measurement and the rich: Why inequality increased more than we thought", Review of Income and Wealth 70: 2.

Stephen P Jenkins (2017) "Pareto Models, Top Incomes and Recent Trends in UK Income Inequality", Economica 84: 261-289.

 

fotnoter

[1] "A by-product of sparse coverage of the top income ranges is that the high-income observations present in the survey data have the characteristics of outliers (even if they are genuine rather than an error), and have substantial influence on the conventional non-parametric estimate of an inequality measure for a given year; see Cowell and Victoria-Feser (1996, 2007) and Cowell and Flachaire (2007). This sensitivity can also introduce spurious volatility in a time series of inequality estimates." Jenkins, s. 262.

[2] Mer detaljerat så förklarar Jenkins det så här: "Fourth, I provide new analysis of issues that arise when fitting a Pareto model to the upper tail of the income distribution, and hence of direct relevance to researchers applying the semiparametric Approaches A and C. My findings are relevant to analysis of other heavy-tailed distributions such as wealth (Shorrocks et al. 2015; Vermeulen
2014), and city and firm size (Eeckhout 2004; Gabaix 2009, 2016). I use unit record tax return data rather than grouped (bracketed) data and so have flexibility to explore a number of econometric issues. (On estimation issues that arise with grouped tax return
data—the only source available for deriving very long historical series—see Atkinson (2005, 2007) and references therein.) For instance, for the Pareto Type I model, I compare the performance of ordinary least squares, maximum likelihood and maximum
likelihood-robust estimators." (s. 264) 

[3] Jenkins diskuterar problemet att OLS ger får låga standardfel här eftersom de rangordnade inkomsterna är autokorrelerade. Han använder ML-estimatorer för att få korrektare standardfel. 

[4] "This is particularly acute for the Theil index, which is unsurprising because it is the most top-sensitive of the three indices. Thus Figure 10 illustrates well the sensitivity problems analysed by Cowell and Flachaire (2007), and also their conclusion that in terms of performance in finite samples, there is little to choose between the Gini coefficient and the mean logarithmic deviation (L)." (s. 284) Cowell och Flachaire-artikeln som han hänvisar till är "Income distribution and inequality measurement: the problem of extreme values", publicerad i Journal of Econometrics 2007.

  [5] Här refererar Flachaire, Lustig och Vigorito till en artikel som ser intressant ut av Meyer och Mittag, publicerad i AEJ:AE, 2019: “Using Linked Survey and Administrative Data to Better Measure Income: Implications for Poverty, Program Effectiveness, and Holes in the Safety Net”. 

[6] Flachaire, Lustig och Vigorito säger dock (s. 1040) att: "the survey reporting pattern we obtain (overreporting in the lower tail and underreporting at the top) is in line with previous findings from the survey earnings validation literature (Adriaans et al 2020)."

[7] Det är rätt tekniskt men så här förklarar de skillnaden:


 [8] Shorrocks (1980) förespråkade MLD som det “most satisfactory of the decomposable measures” eftersom det rent delar den totala ojämlikheten i ojämlikhet inom grupper och mellan grupper, vad Foster och Shneyerov (2000) kallar path independent decomposability. Se s. 268-269 i Cowell och Flachaires artikel. 

[9] I en fotnot här har de en intressant teknisk diskussion om hur man ska jämföra ökningstakten i ojämlikhetsmått som mäts på helt olika skalor: "Clearly growth/change comparisons of inequality depend on the cardinalization of the inequality indices. In principle any cardinalization could be used, but it makes sense in practice to confine attention to those that are used in practice. There are no alternative cardinalizations of the Gini coefficient that are used in the literature. However, in the case of the MLD, there is an alternative cardinalization in current use: the Atkinson inequality index with parameter 1 is given by A_1 (x) = 1− g/𝜇, where g is the geometric mean. Using [ekvation 9], it is clear that A_1 (x) = 1− exp (−I_0), and so growth (A_1) = 𝜆growth (I_0),where 𝜆 = I_0 [1− A_1] ∕A_1 = I_0∕ [exp(I_0) − 1] = 1∕ [(1/2!) I_0 + (1/3!) I^2_0 + ...]< 1. Therefore, the proportional changes in A_1 will be less than those of I_0. However, for our data, this change in growth rate attributable to the change in cardinalization is relatively modest, as 𝜆 ranges from 0.71 to 0.89. In no case is the conclusion that the Gini understates the changes in inequality reversed." (s. 271-272)