torsdag 16 april 2026

Identifikationsrevolutionen inom olika nationalekonomiska fält

Empirical microeconomics has experienced a credibility revolution, with a consequent increase in policy relevance and scientific impact. Sensitivity analysis played a  role in this, but as we see it, the primary engine driving improvement has been a focus on the quality of empirical research designs."

Angist och Pischke, "The Credibility Revolution in Empirical Economics: How Better Research Design is Taking the Con out of Econometrics" (2010)

Paul Goldsmith-Pinkham, nationalekonom vid Yale, har ett intressant nytt surveypapper i NBER WP-serien. Det handlar om de empiriska metoder som på 1990- och 00-talen slog igenom inom mikroekonomin och hur dessa spridit sig över olika fält inom nationalekonomin. Han börjar sitt papper så här:

"How far has the credibility revolution spread? Angrist and Pischke (2010) documented a sea change in how economists approach empirical work—a shift toward transparent research designs, explicit identification strategies, and credible causal inference. Currie, Kleven, and Zwiers (2020b) showed that this shift was accelerating through the late 2010s, at least in applied microeconomics. But that analysis left open a basic question: are finance, macroeconomics, and other fields keeping pace, or has the revolution been narrower than it appears?"

Janet Currie, Henrik Kleven och Esmée Zwiers (alla tre då verksamma vid Princeton, Zwiers nu i Amsterdam) undersökte två typer av outputs: NBER Working Papers mellan 1980 och 2018, och artiklar i nationalekonomins topp 5-tidskrifter mellan 2004 och 2019. De begränsade sitt sample till mikroekonomi och fann att detta fält ökade sin andel av artiklarna i topptidskrifterna under perioden, kanske drivet av fältets expertis i de fräcka nya metoderna som sammanfattades under rubriken "identifikationsrevolutionen" eller till och med "trovärdighetsrevolutionen" (Angrist och Pischke 2010): andelen applicerad mikro i topp 5 steg från runt 55-60 procent under 00-talets mitt till 70-75 procent 2013-2019. Figur 2 visar att de mikroekonomiska artiklarna också förändrades i sitt innehåll under perioden: andelen som nämnde "identifikation" ökade från 4 procent till 50 procent, och fler använde experimentella eller kvasi-experimentella metoder eller administrativa data. En aspekt som jag tycker är väldigt intressant är att mängden diagram som en del av allt detta har ökat relativt till antalet tabeller; det visas i panel D i diagrammet. 


Diagram 3 (inte visat här) visar att andelen labb-experiment också ökade, liksom diskussion om extern validitet.  Diagram A.IV visar att andelen av papers i applicerad mikro som diskuterar (kausala) mekanismer ökat från 20 procent till 60 procent i NBER WP-serien, och till 70 procent i topp 5-artiklarna. Diagram 4 diskuterar användningen av fyra specifika metoder: diff-in-diff, regression discontinutity, event studies, och bunching. Deras historiografi här är intressant:

"Figure IV drills down on specific quasi-experimental methods: difference-in-differences, re-
gression discontinuity, event studies, and bunching. These methods have all become more popular over time, in roughly the order named. The use of difference-in-differences was virtually non-existent until 1990 and then starts growing. The first papers that mention difference-in-differences estimators in our data are Ashenfelter and Card (1985) and Card and Sullivan (1988), which appeared as NBER working papers in 1984 and 1987, respectively. As far as we are aware, the very first paper to use a difference-in-differences approach is Ashenfelter (1978), although that paper did not use the difference-in-differences language. It is quite striking that, today, almost 25 percent of all NBER working papers in applied micro make references to difference-in-differences.
Regression discontinuity approaches start gaining popularity around 2000, following the early contributions by authors such as Angrist and Lavy (1999) and Hahn, Todd, and Van der Klaauw (2001), which were circulated as NBER working papers a couple of years prior.
Event studies and bunching approaches are more recent, having taken off during the last decade. Both of these approaches are closely linked to the increased use of administrative data sources, which are critical to the effective implementation of these data-demanding approaches. Over time, event studies have become almost synonymous with difference-in-differences: It is now rare to use difference-in-differences without showing an event study graph, and conversely it is rare to show event studies without a control group. As a result, the sharp rise in the use of event studies over the last ten years goes hand in hand with the increased slope of the difference-in-differences series during this time period. The modern bunching approach starts with Saez (2010), although the NBER working paper version of that paper appeared more than ten years prior."

 De nya metoderna har inte ersatt äldre kausala metoder som instrumentvariabler eller fixed effects; "The fact that old and new methods appear to be complements rather than substitutes suggests that another outgrowth of the credibility revolution is the rise of the “collage” approach to empirical work. Authors no longer hang their hats on a single method or dataset, but attempt to make a case based on a more multi-pronged approach." Diagram 6 visar på spridningen av fyra fenomen, av ganska blandad karaktär: binscatter plots som blivit populära sedan de användes i Chetty et al (2011, “How Does Your Kindergarten Classroom Affect Your Earnings? Evidence from Project STAR”, QJE); preanalysis plans; maskinlärning; och textanalys.

 


Så långt Currie, Kleven och Zwiers. Goldsmith-Pinkham tar vid där de slutade, med motsvarande metod men med ett mycket större sample: 44 000 NBER WPs från 1982 till 2025 och 12 300 artiklar från elva topptidskrifter inom nationalekonomi och finans [1] från 2011 och 2024. Medan Currie et al begränsade sin analys till mikroekonomin så utvidgar Goldsmith-Pinkham fokus till nationalekonomin som helhet, just för att kunna studera om samma metoder som dominerar inom applicerad mikro också blivit populära t ex inom makro och finans. 

Goldsmith-Pinkham sammanfattar sina resultat i tre steg. Ett, finans och makro är metodologiskt sett fortfarande annorlunda än applicerad mikro. Två, utanför applied micro är det differences-in-differences som dominerar trovärdighetsrevolutionen; här säger G-P lite syrligt att "This reliance on a single method is striking given the recent econometrics literature highlighting sensitivities in DiD designs (Roth 2022; De Chaisemartin and d’Haultfoeuille 2020; Callaway, Goodman-Bacon, and Sant’Anna 2024)." (s. 1) Och tre, det finns en stor skillnad mellan de metoder som diskuteras i ekonometrikernas egna Journal of Econometrics -- där dominerar icke-parametriska beräkningar, bootstrap-metoder och asymptotisk teori -- och de metoder som dominerar bland praktikerna, diff-in-diff och identifikationsstrategier. PGP: "The tools powering the credibility revolution and the theoretical literature developing new estimators occupy largely separate methodological spaces."

Huvudresultaten syns för NBER WP-serien i Figur 3 som jag klistrat in ovan: frekvensen av diskussion om "identifikation", användning av experimentella och kvasi-experimentalla metoder, och användning av administrativa data i working papers sedan 2000, uppdelat på tre typer av nationalekonomi: applicerad mikro, finans, och makro/annat. 

Figur 4 fortsätter med mer detaljerad nerbrytning på metoder: differences-in-differences inklusive event studies i panel A; syntetiska kontrollmetoder i panel B; Bartik och shift-share instrument i panel C; instrumentvariabler i panel D; experimentella metoder i panel E, och regression discontinity i panel F. Diff-in-diff är vanligast, mellan 20 och 35 procent av alla WPs idag beroende på fält, medan instrumentvariabler är allra starkast inom ett särskilt fält, med runt 30 procent inom applicerad mikro sedan 2010 (diff-in-diff har däremot ökat mycket snabbt, från "bara" 10-15 procent inom mikro runt 2010), medan IV "bara" ligger runt 15-20 procent inom de andra fälten. Syntetiska kontroller är mycket ovanligare, runt 3 procent, Bartik/shift-share någonstans mittemellan liksom RD runt 8-9 procent, och experimenten mycket vanliga inom mikro (25 procent) men inte så vanliga i de andra fälten (runt 10 procent).

Resultaten för tidskrifterna är överlag liknande med en stor ökning över tid, högre nivåer inom mikro än inom andra fält, och en mycket stark ställning för diff-in-diff-designer. [2] Undersökningen av Journal of Econometrics ger mer kontrasterande resultat:

"Most credibility revolution methods—DiD, event studies, RD, RCTs, administrative data, synthetic control, Bartik instruments, binscatter, and heterogeneous treatment effects—appear far less frequently in the Journal of Econometrics than in applied journals. DiD appears in approximately 19% of applied journal papers but under 4% of Journal of Econometrics papers; event studies show a similar gap. The exceptions are identification language and instrumental variables, where the Journal of Econometrics matches or exceeds applied journals—reflecting the theoretical literature on identification and IV estimation that is a core focus of the journal." (s. 16)

Goldsmith-Pinkham har undersökt vad det är för metoder som diskuteras inom JoE istället:

"Asymptotic theory and Monte Carlo simulation top the list—appearing in 86% and 65% of papers respectively—but these reflect the standard toolkit for deriving and validating estimators; applied papers rely on asymptotic theory implicitly even when they do not use the term. The more informative contrasts involve substantive methods: nonparametric estimation (58%), time series models (54%), structural/GMM/MLE methods (54%), and Bayesian methods all appear at far higher rates in the Journal of Econometrics than in applied journals. These are the estimation and inference techniques that form the theoretical infrastructure of econometrics—important in their own right, but distant from the day-to-day practice of most applied economists." (s. 17) 

Från denna diskussion om heterogenitet inom nationalekonomin rör Goldsmith-Pinkham sig till frågan om det så att säga borde ske en konvergens. Det är inte hans argument, säger han: 

"Many questions in macroeconomics are fundamentally about general equilibrium, and the applied micro toolkit—built around partial equilibrium and local treatment effects—may not be the right tool for every setting. The same is true in asset pricing, where the object of interest is often an equilibrium price rather than a treatment effect. The more relevant distinction is between fields where quasi-experimental methods are feasible but underused—corporate finance, for example, has abundant natural experiments—and fields where the questions themselves call for different approaches. Nakamura and Steinsson (2018, “Identification in macroeconomics”, JEP) offer a thoughtful example of how credibility revolution thinking can be adapted to macroeconomic settings without simply importing the applied micro playbook." 

I slutsatsdelen har Goldsmith-Pinkham en intressant reflektion om ifall resultaten är drivna av hans metod. Metoden är ju att med en maskininlärningsmodell läsa en stor mängd text och räkna omnämnande av olika metoder och upplägg. Hade resultaten varit annorlunda om man t ex hade kollat på citeringar till klassiska papers ur identifikationsrevolutionen?

"One limitation of this analysis is that keyword mentions measure the diffusion of methodological language but not the quality of adoption or influence of methods. Validation against LLM classification (Appendix A) shows that keyword precision varies across categories—exceeding 90% for regression discontinuity and lab experiments, but falling below 50% for DiD and event studies, where many mentions reflect discussion rather than use as a primary research design. Cross-field comparisons should therefore be interpreted with caution for categories where precision is lowest, as some of the measured gap may reflect differences in vocabulary rather than uptake. A complementary approach would track citations to foundational credibility revolution papers—Angrist and Krueger ( “Does compulsory school attendance affect schooling and earnings?”, QJE, 1991), Angrist and Pischke (Mostly Harmless Econometrics: An Empiricist’s Companion, 2009), Imbens and Lemieux (“Regression discontinuity designs: A guide to practice”, J of Econometrics, 2008)—across fields. If finance and macro cite these works at comparable rates but describe methods differently, the measured gap would partly reflect writing conventions rather than substantive methodological differences. If citation rates also differ, this would reinforce the keyword evidence." (s. 21)

I Appendix finns en stor mängd ytterligare resultat. Jag fastnar särskilt för diagrammet som fångar "den grafiska revolutionen", motsvarande Currie, Kleven och Zwiers Figur 2D: alltså ration av diagram till tabeller, här i NBER WPs. Diagrammet nedan visar att i makro så använde man vid 2000-talets början och mitt ungefär 50-75 procent mer diagram än tabeller, och den övervikten har nu ökat till ungefär 200 procent! Inom mikro är trenden faktiskt mindre häftig, från runt 25 procent till runt 125 procent, och inom finans är trenden liknande. Den totala trenden (svart streckad linje) visar att vid 00-talets början gick det ungefär 1,5 diagram på varje tabell, vid 2010-talets mitt ungefär 1,75 diagram per tabell, och idag ungefär 2,4 diagram per tabell.

 


 

 

referenser

Janet Currie, Henrik Kleven, och Esmée Zwiers (2020) "Technology and Big Data Are Changing Economics: Mining Text to Track Methods", American Economic Review Papers and Proceedings.

Paul Goldsmith-Pinkham (2026) "Tracking the Credibility Revolution across Fields", NBER Working Paper 35051, april 2026.

fotnot

[1] Dessa tidskrifter: "three general-interest economics journals (AER, QJE, JPE), the four American Economic Journals (Applied, Policy, Macro, Micro), three top finance journals (Journal of Finance, Review of Financial Studies, Journal of Financial Economics), and the Journal of Econometrics." (s. 2)

[2] "AEJ Applied Economics and AEJ Economic Policy show the highest rates of credibility revolution methods—unsurprising given their explicit focus on applied empirical work. Among the general-interest journals, AER and QJE show higher rates than JPE, reflecting differences in paper composition. The finance journals show moderate adoption of DiD and identification language but lower rates of RD and experimental methods—echoing the NBER findings at the journal level." (s. 14-15)

onsdag 15 april 2026

Dekomponeringsmetoder inom nationalekonomin

Nationalekonomerna Nicole Fortin (University of British Columbia, UBC), Thomas Lemieux (också UBC) och Sergio Firpo (Insper, Brasilien) börjar sitt kapitel om dekomponeringsmetoder inom nationalekonomin, publicerat i en Handbook of Labor Economics, på ett rakt och effektivt sätt:

"What are the most important explanations accounting for pay differences between men and women? To what extent has wage inequality increased in the United States between 1980 and 2010 because of increasing returns to skill? Which factors are behind most of the growth in US GDP over the last 100 years? These important questions all share a common feature. They are typically answered using decomposition methods. The growth accounting approach pioneered by Solow (1957) and others is an early example of a decomposition approach aimed at quantifying the contribution of labor, capital, and unexplained factors (productivity) to US growth. But it is in labor economics, starting with the seminal papers of Oaxaca (1973) and Blinder (1973), that decomposition methods have been used the most extensively. These two papers are among the most heavily cited in labor economics, and the Oaxaca-Blinder (OB) decomposition is now a standard tool in the toolkit of applied economists."

I fallet Solows (1957) produktionsfunktion så var den: Q = F(K,L;t) där Q stod för kvantiteten output, K för input av kapital, L för input av arbete, och t för teknisk utveckling. Den ökning av Q som inte kan härröras till ökning av K eller L ansågs då kunna förklaras av en (icke observerad) förändrad i t, den så kallade Solowresidualen. Hos Oaxaca (1973) var framställningen mer teknisk, inställd på att förklara skillnaden mellan mäns och kvinnors löner på urbana arbetsmarknader och hur mycket som förblev oförklarat efter att man kontrollerar för erfarenhet, utbildning och andra relevanta variabler som facklig/ickefacklig, sektor osv. Den oförklarade residualen kunde då ses som ett mått på omfattningen av diskriminering av kvinnor. Det var alltså en regressionsbaserad dekomponering. [1] (Se också Blinder 1973.)

Fortin et al kommenterar att dekomponeringsanalyserna alltså ofta är väldigt ambitiösa: att förklara ekonomisk tillväxt, eller könsdiskriminering på arbetsmarknaden, och liknande stora frågor. Detta betyder, säger de, att man ofta använder stora antaganden för att göra analysen möjlig. Framför allt så måste man göra "allt annat lika"-antaganden och alltså göra delvisa jämviktsanalyser snarare än allmänna jämviktsanalyser: redan Gregg Lewis (1963) påpekade att när man för att estimera fackets effekt på de fackligt anslutna arbetarnas löner genom att dekomponera skillnaderna mellan de fackligt anslutna och de fackligt icke anslutna och tillskriva residualen (efter kontrollen för andra relevanta variabler) till facket, så gör man antagandet att fackets existens inte har några effekter på de icke anslutna -- vilket det säkerligen har. Kapitlet kommer framför allt använda delvis jämviktsapproachen, men diskutera allmänna jämviktsaspekter i slutet, säger Fortin et al.

Dekomponeringsanalysens andra stora begränsning, säger de, är att även om man med dekomponering kan belägga vilka faktorer som spelar roll, så kan man inte säga något om mekanismerna genom vilka de spelar roll. Vad man däremot kan göra är så klart att "provide useful indications of particular hypotheses or explanations to be explored in more detail. For example, if a decomposition indicates that differences in occupational affiliation account for a large fraction of the gender wage gap, this suggests exploring in more detail how men and women choose their fields of study and occupations." (s. 3)

De skriver historien om dekomponeringsmetodernas plats i nationalekonomin ungefär så här. Hos Oaxaca och Blinder i det tidiga 1970-talet var utfallsvariabeln som skulle dekomponeras framför allt medelvärdet av en variabel, t ex lönen för en kvinna och för en man. Med Richard Freemans papers i det tidiga 1980-talet skiftade intresset till olika delar av fördelningen. Men det var framför allt på 1990-talet som dekomponeringsmetoderna tog riktig fart, med studierna av inkomstojämlikhetens utveckling i USA. Här kom Juhn et al (1993) och DiNardo et al (1996) med nya dekomponeringsmetoder.

På 1990-talet utvecklade sig dekomponeringsmetoderna också i dialog med vad de kallar "the program evaluation literature", alltså forskningen inom offentlig ekonomi och arbetsmarknadsekonomi som arbetar med att med kausala metoder beräkna effekterna av olika policies. Med influenserna därifrån har dekomponeringslitteraturen arbetat hårdare på flera element, säger de: "to (i) clarify the assumptions underneath popular decomposition methods, (ii) propose estimators for some of the elements of the decomposition, and (iii) obtain formal results on the statistical properties of the various decomposition terms. As we explain below, the key connection with the treatment effects literature is that the “unexplained” component of a Oaxaca decomposition can be interpreted as a treatment effect. Note that, despite the interesting parallel with the program evaluation literature, we explain in the paper that we cannot generally give a “causal” interpretation to the decomposition results." (s. 4)

De förklarar grundmodellen så här:


Det stora här är alltså skillnaden mellan de två huvudposterna, den delen av variationen som förklaras av variationer i vilka värden grupp A och grupp B har på kontrollvariablerna X ("explained") och den andra delen, "unexplained", som t ex skulle kunna vara diskriminering i Oaxacas (1973) fall eller teknologiska framsteg i fallet Solow (1957).  Att dela upp ΔµO i de två komponenterna ΔµS och ΔµX kallar de för en "aggregate decomposition" och med "detailed decomposition" syftar de på att dela upp både ΔµS  och ΔµX i "the respective contributions of each covariate". 

Sedan 1990-talet, säger de, har mycket fokus varit på att inte bara dekomponera medelvärden. Man tog sig an metoder från program evaluation-litteraturen för att dekomponera också per kvantiler och liknande (Hirano et al 2003; Firpo 2007). [2]

 

Efter att ha introducerat huvuddragen i dekomponeringsmetodernas utveckling så går de över till sektion II som presenterar dekomponeringarnas teori på ett lite mer avancerat sätt; Fortin et al menar att dekomponeringarnas stringens har underskattats eftersom litteraturen varit så praktiskt inriktad och inte diskuterat antaganden och teori på något utförligt sätt, och därför blir det särskilt viktigt att göra det här. De ägnar också ungefär 25 sidor åt detta. (s. 10-36) 

 

Jag skippar den mer tekniska delen och går till del III. I praktiken är det enkelt att göra en Oaxaca-Blinder-dekomponering, säger de. Tabell 2 visar de underliggande estimaten för en O-B-dekomponering av könslönegapet i USA år 2000. "The composition effect is computed as the difference between the male and female means reported in column (1) multiplied by the male coefficients reported in column (2). The corresponding wage structure effect is computed from the difference between the male and female coefficients reported in columns (2) and (3)." Kompositionseffekten förklarar 0.197 (0.018) logpoäng av 0.233 (0.015) genomsnittligt log-lönegap mellan män och kvinnor. "When the male wage structure is used as reference, only an insignificant 0.036 (0.019) part of the gap (the wage structure effect) is left unexplained."


I samband med exemplet med löneskillnaden män-kvinnor för de också intressanta resonemang om vad för kontrafaktiska fördelningar man kan använda. Hade kvinnor haft männens lönestruktur om könsdiskrimineringen inte hade funnits? En rad studier  (Reimers, 1983; Cotton, 1998; Neumark, 1988; Oaxaca and Ransom, 1994) har föreslagit en "weighted average expression" β∗ = ΩβA + (I − Ω)βB, där Ω = I sammanfaller med β∗ = βA, och Ω = 0 sammanfallermed β∗ = βB, och där Ω = ω. Om Ω = 1 är männens fördelning och Ω = 0 är kvinnornas. Dekomponeringen är obalanserad på så sätt att om man utgår från kvinnornas lönestruktur för att bedöma männens så ger det ett resultat, och om man omvänt använder männens för att bedöma kvinnornas så ger det ett annat resultat. Om man varierar Ω kan man spela med detta förhållande. Man kan också använda en reweighting-approach där man "omskapar" t ex kvinnornas fördelning med värdena på X från männen, t ex i inverse probability weighting. Då kan man göra dekomponeringen i komposition (skillnader i X) och struktur (skillnader i avkastning på X) utan att anta att effekten är linjär (som när man bara kollar på medelvärdet). I relation till detta diskuterara de också att Barsky et al (2002) dekomponerade hur etniska skillnader i förmögenhet i USA är icke-linjärt beroende av löneskillnader med mera, och därför gick ifrån en parametrisk approach (linjär, loglinjär etc) till en icke-parametrisk approach där de mer direkt modellerar variationen i data. Så här förklarar de approachen:


En annan utveckling av dekomponeringsmodellerna är att förklara binära utfallsvariabler, t ex arbetskraftsdeltagande. (s. 51-52)

 

Nästa stora sektion handlar om dekomponeringar av andra dimensioner av fördelningen än medelvärdet. Diskussionen börjar med variansen i (loggade) löner, som Richard Freeman (1980, 1984) analyserade i sina papers på 1980-talet. Freeman visade att medan facket i USA ökar ojämlikheten mellan fackligt anslutna och icke anslutna arbetare genom att höja de fackligt anslutna arbetarnas löner, så minskar de ändå den totala ojämlikheten eftersom fackets negativa effekt på ojämlikheten bland de fackligt anslutna kvantitativt dominerar effekten på skillnaden mellan de två grupperna (de anslutna och icke anslutna). Andra forskare på 1980-talet som Cowell (1980) och Shorrocks (1980, 1984) visade att man också kunde dekomponera ojämlikhetsmått som Gini och Theil med samma tekniker. Det är ju egentligen denna typ av dekomponeringar som jag är intresserad av, så jag citerar Fortin et als diskussion om dessa mera utförligt:

"Note that the between vs. within decomposition is quite different in spirit from the aggregate or detailed OB decomposition discussed in the previous section. There are advantages and disadvantages to this alternative approach. On the positive side, looking at between- and within-group effects can help understand economic mechanisms, as in the case of unions, or the sources of inequality growth (Juhn et al., 1993).On the negative side, the most important drawback of the between vs. within decomposition is that it does not hold in the case of many other interesting inequality measures such as the interquartile ranges, the probability density function, etc. This is a major shortcoming since looking at what happens where in the distribution is important for identifying the factors behind changes or differences in distributions. Another drawback of the between vs. within approach is that it does not provide a straightforward way of looking at the specific contribution of each covariate, i.e. to perform a detailed decomposition. One final drawback is that with a rich enough set of covariates the number of possible groups becomes very large, and some parametric restrictions have to be introduced to keep the estimation problem manageable." (s. 53) 

Just dessa problem ledde till nya innovationer på 1990-talet:

"In response to these drawbacks, a new set of approaches have been proposed for performing aggregate decompositions on any distributional statistic. Some approaches such as Juhn et al. (1993), Donald et al. (2000), and Machado and Mata (2005) can be viewed as extensions of the variance decomposition approach where the whole conditional distribution (instead of just the conditional variance) are estimated using parametric approaches. Others such as DiNardo et al. (1996) completely bypass the problem of estimating conditional distributions and are, as such, closer cousins to estimators proposed in the program evaluation literature."  (s. 54)

De börjar den substantiella diskussionen i sektionen med variansdekomponeringen. Medelvärdes-dekomponeringarna antar att: E(Y |X) = Xβ. Alltså att värdet på Y ökar linjärt med värdena på X. "This follows directly from the linearity and zero conditional mean assumptions introduced in Section 2. Using the law of conditional expectations, it then follows that the unconditional mean is E(Y ) = E(E(Y |X)) = E(X)β." Man kan utvidga denna logik från medelvärdet till variansen:

 

Variansen delas i den första kedjans sista led in i två delar. spridning i löner givet samma egenskaper, alltså within-group-ojämlikheten. β′Var(X)β är istället spridningen i löner som beror på skillnaden i grupptillhörighet, alltså between-group-ojämlikheten. Länge ner har vi ΔV=ΔXV​+ΔSV​ där, återigen, delta V alltså är hela variansen, delta XV variansen som beror på skillnader i X, och delta SV variansen som beror på skillnaden i struktur. De diskuterar ett mycket intressant metodproblem med att beräkna vA(X) och vB(X), alltså variansen i de två grupperna A och B. De säger med referens till en tidigare studie av Lemieux (2006) att ännu tidigare studier utgick från att feltermerna i regressionerna för att skatta vA(X) och vB(X) var homoskedastiska (alltså ingen variation i feltermen relaterat till värdena på X) men att Lemieux visade att med heteroskedastiska fel så kan skillnader mellan σA^2 och σB^2 göra att dekomponeringen tillskriver strukturen (delta VS) effekter som egentligen är kompositionseffekter (delta VX). "Lemieux (2006b) has shown this was a major problem when looking at changes in residual wage inequality in the United States since the late 1980s."

Nästa subsektion handlar om att dekomponera andra ojämlikhetsmått än variansen. De resonerar mycket intressant om att många faktorer som vi teoretiserar påverkar ojämlikheten inte påverkar alla delar av fördelningen lika mycket, utan tvärtom lämpar sig för metoder som låter oss utforska heterogena effekter. De förklarar detta så här:

"An important limitation of summary measures of dispersion such as the variance, the Gini coefficient or the Theil coefficient is that they provide little information regarding what happens where in the distribution. This is an important shortcoming in the literature on changes in wage inequality where many important explanations of the observed changes have specific implications for specific points of the distribution. For instance, the minimum wage explanation suggested by DiNardo et al. (1996) should only affect the bottom end of the distribution. At the other extreme, explanations based on how top executives are compensated should only affect the top of the distribution. Other explanations based on de-unionization (Freeman, 1993; Card, 1992; DiNardo et al., 1996) and the computerization of “routine” jobs (Autor et al., 2003) tend to affect the middle (or “lower middle”) of the distribution. As a result, it is imperative to go beyond summary measures such as the variance to better understand the sources of growing wage inequality." (s. 57)

Med dessa metoder vill man kanske t ex dekomponera gapet i inkomst mellan percentil 90 och percentil 10. De diskuterar olika antaganden och metoder man kan göra för att göra detta, med början i Juhn et als approach från 1993.

Nästa sektion handlar om reweighting-metoder. (s. 63ff) Nästa därefter om metoder "based on estimating the conditional distribution". (s. 69ff)

Nästa stora sektion, sektion 5, handlar om "DETAILED DECOMPOSITIONS FOR GENERAL DISTRIBUTIONAL STATISTICS". (s. 74-87) Den sista sektionen handlar om tre extensioner. "We first consider the case where either the ignorability or the zero conditional mean assumptions are violated because of self-selection or endogeneity of the covariates.We next discuss the situation where some of these problems can be addressed when panel data are available. We conclude the section by discussing the connection between conventional decomposition methods and structural modeling."

Slutsatssektionen börjar: "The development of new decomposition methods has been a fertile area of research over the last 10-15 years." (s. 96) De avslutar med att diskutera relationen mellan dekomponeringsmetoder och strukturella modeller.

"The literature on inequality provides some useful hints on how this connection can be useful and improved upon. In this literature, decomposition methods have helped uncover the most important factors behind the large secular increase in the distribution of wages. Those include the return to education, de-unionization, and the decline in the minimum wage, to mention a few examples. These findings have spurred a large number of more conceptual studies trying to provide formal economic explanations for these important phenomena. In principle, these explanations can then be more formally confronted to the data by writing down and estimating a structural model, and using simulation methods to quantify the role of these explanations.
This suggest a two-step research strategy where “off-the-shelf ” decomposition methods, like those discussed in this chapter, can first be used to uncover the main forces underlying an economic henomenon of interest. More “structural” decomposition methods could then be used to better understand the economics behind the more standard decomposition results. We expect such a research strategy to be a fruitful area of research in the years to come." (s. 96-97) 

 

referens 

Nicole Fortin, Thomas Lemieux och Sergio Firpo (2011) "Decomposition Methods in Economics", i Orley Ashenfelter och David Card (red.) Handbook of Labor Economics, Volume 4a. Elsevier. 


fotnoter
[1] Efter att ha presenterat sina regressionsresultat säger Oaxaca: "The effects of discrimination are approximated by the residual left after subtracting the effects of differences in individual characteristics from the overall wage differential. The calculations based on the full-scale wage regressions are presented in Table 3. As a simple average of the two estimates obtained, discrimination accounts for 58.4%o of the logarithmic wage differential for whites and 55.6%o for blacks. The average value of the discrimination coefficient is .29 for whites and .25 for blacks. Table 4 presents the effects of discrimination calculated from the personal characteristics wage regressions. Predictably, the estimated effects of discrimination are larger than those reported in Table 3: Discrimination accounts for approximately 77.7%o of the wage diffferential for whites and 93.6%o for blacks." I slutsatserna till artikeln säger han att: "As in other studies we find the sex differential to be quite large. We are in agreement with other researchers that unequal pay for equal work does not account for very much of the male-female wage differential. Rather it is the concentration of women in lower paying jobs that produces such large differentials. Our results suggest that a substantial proportion of the male-female wage differential is attributable to the effects of discrimination.
The effects of discrimination are estimated as the residual left after adjusting the sex differential for differences in various characteristics. This methodological technique is found in other studies as well and may take the form of regression analysis or standardization analysis. There are some difficulties with this general approach which should be mentioned. " (s. 708) 

[2] De diskuterar det så här, där IPW står för Inverse Probability Weighting: "While most of the results in the program evaluation literature have been obtained in the case of the mean (e.g., Hirano et al., 2003), they can also be extended to the case of quantiles (Firpo, 2007) or more general distribution parameters (Firpo, 2010). The IPW estimator originally proposed in the decomposition literature by DiNardo et al. (1996) or matching methods can be used to perform the decomposition under the assumption of ignorability. More parametric approaches such as those proposed by Juhn et al. (1993), Donald et al. (2000) and Machado and Mata (2005) could also be used. These methods involve, however, a number of assumptions and/or computational difficulties that can be avoided when the sole goal of the exercise is to perform an aggregate decomposition. By contrast, IPW methods involve no parametric assumptions and are an efficient way of estimating the aggregate decomposition." (s. 7)

tisdag 14 april 2026

Lorenzkurvan som ojämlikhetsmått


 

Rolf Aaberge, statistiker och nationalekonom vid Statistisk Sentralbyrå i Oslo börjar en artikel från 2007 med att enkelt konstatera att många studier av inkomstfördelningen använder Lorenzkurvan. Lorenzkurvan kan ses som en kumulativ distributionsfördelning (CDF) och Aaberge har själv i en tidigare artikel (i Social Choice and Welfare, 2000) använt denna egenskap för att förespråka en variant där man fokuserar på de första momenten av kurvan. Med "första moment" syftar han här på kurvans första karakteristika, i enlighet med matematikens momentbegrepp. Jag citerar Wikipedia om detta:

"Moments of a function in mathematics are certain quantitative measures related to the shape of the function's graph. For example, if the function represents mass density, then the zeroth moment is the total mass, the first moment (normalized by total mass) is the center of mass, and the second moment is the moment of inertia. If the function is a probability distribution, then the first moment is the expected value, the second central moment is the variance, the third standardized moment is the skewness, and the fourth standardized moment is the kurtosis."

Men approachen har, säger Aaberge, sina brister, framför allt att den inte lägger tillräckligt mycket vikt på vad som händer i den nedre delen av fördelningen:

"However, considered as a group these measures suffer from a drawback since none of them in general are particularly sensitive to changes that concern the lower part of the income distribution. The reason why the moments of the Lorenz curve in most cases are more sensitive to changes that take place in the central and upper part rather than in the lower part of the income distribution is simply due to the fact that the Lorenz curve has a convex functional form. Thus, even though the first three LC-moments in many cases jointly provide a good description of the inequality in an income distribution it would for informational reasons as well as for the sake of interpretation be preferable to employ a few measures of inequality that also prove to supplement each other with regard to sensitivity to transfers at the lower, the central and the upper part of the income distribution. To this end Section 2 provides arguments for using a specific transformation of the Lorenz curve, the scaled conditional mean curve, rather than the Lorenz curve as basis for introducing and justifying application of a few measures for summarizing inequality in income distributions." 

Aaberge argumenterar alltså för att använda en anpassad variant av Lorenzkurvan, som han kallar "the scaled conditional mean curve". Detta mått har flera attraktiva egenskaper, säger han. För det första, en bekväm och transparent tolkning. För en viss nivå på u är M(u) ration mellan medelinkomsten för den fattigaste 100 * u andel av befolkningen och medelinkomsten överlag. Liksom Lorenzkurvan har den också en enkel, lättläst "jämlikhetskurva" -- vi ser båda i diagrammen ovan. För det andra:

"Second, the scaled conditional mean curve of a uniform (0,a) distribution proves to be the diagonal line joining the points (0,0) and (1,1) and thus represents a useful additional reference line. Thus, when a M-curve intersects the diagonal line once from above (single intersection) the corresponding distribution exhibits lower inequality than a uniform (0, a) distribution below the intersection point and higher inequality than a uniform (0, a) distribution above the intersection point. Note that incomes are uniformly distributed over (0, a) if any income in this interval occurs equally frequently."

För det tredje: de olika måtten i M-familjen är bundna av en enhetskvadrat

Aaberge säger utifrån diagrammen 1 och 2 ovan att vi ser att M-måtten reagerar mer på förändringar i botten av fördelningen än vad Lorenzkurvan gör. [1] Han diskuterar också hur M lever upp till det klassiska kriteriet för ett ojämlikhetsmått, the Pigou-Dalton principle of transfers, som säger att en överföring av inkomst från en fattigare till en rikare person alltid ska öka den mätta ojämlikheten. (s. 309-310) Från detta går han över till diskussionen om vad han kallar "Lorenzfamiljen av ojämlikhetsmått", alltså en uppsättning mått som kan genereras ur en Lorenzkurva. Lorenzfamiljen är starkt relaterad till en del av "the extended Gini Family" som tidigare diskuterats av Donaldson och Weymark ("A single parameter generalization of the Gini indices of inequality", J of Economic Theory, 1980) och av Yitzhaki ("On an extension of the Gini inequality index", International Economic Review, 1983).

Han diskuterar relationen mellan de olika måtten. Diskussionen är teknisk och mycket tät men han säger bland annat att: "Aaberge [2] demonstrated that the Lorenz family of inequality measures as well as the 
Bonferroni coefficient can be given explicit expressions in terms of social welfare and moreover are members of the “illfare-ranked single-series Ginis” introduced by Donaldson and Weymark [18] and discussed by Bossert." Och att de olika måttens sätt att vikta observationer från olika delar av fördelningen kan karakteriseras så här:


 


 

Tabellen presenterar alltså vilken vikt de tre måtten lägger vid förändringar i relationerna mellan inkomsterna på olika platser i fördelningen: (a) mellan 5:e percentilen och medianen, (b) mellan den 30:e percentilen och medianen, och (c) mellan den 95:e percentilen och medianen. Så i enkelt språk: tycker vi att det är viktigast med förändringar i botten av fördelningen (a) eller i toppen (c)? Alla tre mått i tabellen fäster faktiskt större vikt vid förändringar i botten än förändringar i toppen, men Bonferroni har en extrem preferens för lägre delar av fördelningen medan Ginin gör lite jämnare betoningar. [2]

Aaberge diskuterar utvecklingar av detta, och går sedan också vidare med att visa hur inkomstfördelningen i Norge 1986-1998 utvecklades enligt de tre måtten. Med C1 ökade ojämlikheten med 7,14 procent, med C2 (Gini) med 9,07 procent, och med C3 med 10,96 procent -- så vi förstår att mer hänt, relativt sett, i toppen av fördelningen eftersom ökningen av C3 blir större än den i C1. 

Nästa sektion heter "Estimation and asymptotic distribution results" och går vidare till fördelningen som en CDF. Detta är en mycket matematisk sektion (s. 316-320) som jag skippar här. I sina slutsatser säger Aaberge att:

"This paper proposes to use a specific transformation of the Lorenz curve, called the scaled conditional mean curve, rather than the Lorenz curve as basis for choosing a few summary measures of inequality for empirical applications. The scaled conditional mean curve turns out to possess several attractive properties as an alternative interpretation of the information content of the Lorenz curve and furthermore proves to provide essential information on polarization in the population. The discussion in Section 3 demonstrates that the inequality measures C1, C2 and C3 define the first three moments of the scaled conditional mean 
curve. Thus, jointly they may give a good summarization of inequality in the scaled conditional mean curve and consequently act as primary quantities for measuring inequality in distributions of income. Moreover, since C2 is the Gini coefficient and C1 and C3 prove to supplement the Gini coefficient with regard to focus on the lower and the upper part of the income distribution, it should be justified to call the group formed by these three inequality measures the Gini’s Nuclear Family. The paper also provides asymptotic distribution results for the empirical scaled conditional mean curve and the related family of empirical measures of inequality, including Gini’s Nuclear Family." (s. 320) 

 

 

referens 

Rolf Aaberge (2007) Gini’s nuclear family, Journal of Economic Inequality.

fotnot

[1] Här refererar han också återigen till Lorenzkurvans konvexa form: "In contrast to the Lorenz curve, which always is a convex function, the shape of the scaled conditional mean curve proves to be strongly related to the shape of the underlying distribution function. ..." (s. 309)

[2] Aaberge diskuterar själv tabellen så här: "As suggested by Table 1 W1 (C1) is more sensitive than W2 (C2) to changes in the 
income distribution that concern the poor, whereas W2 (C2) is more sensitive than W3 (C3) to changes that occur in the lower part of the income distribution. For example, the weights in Table 1 demonstrate that the social weight of an additional Euro to a person located at the 5% decile is 4.3 times the weight of the median income earner when C1 (W1) is used as a measure of inequality (social welfare), whereas it is only 1.3 times the weight of the median earner when C3 (W3) is used as a measure of inequality (social welfare). As is suggested by Table 1 and is easily verified from Eq. 8, C1, C2 and C3 preserve first-degree M-curve and 
Lorenz dominance and thus satisfy the Pigou–Dalton principle of transfers. However, to deal with situations where M-curves or Lorenz curves intersect a more demanding principle than the Pigou–Dalton transfer principle is required. An obvious idea is to introduce a principle that places more emphasis on a given transfer the lower it occurs in the income distribution. Kolm [33], [34] and Mehran [35] proposed two alternative versions of such a principle; the principle of diminishing transfers which requires the income difference between receivers and donors to be fixed and the principle of positional transfer sensitivity which requires a fixed difference in ranks between receivers and donors." (s. 313)

måndag 13 april 2026

Brittisk arbetslöshet under mellankrigstiden

Den höga arbetslösheten är säkerligen en av de saker som folk associerar allra mest med mellankrigstiden i Europa. Det brukar då ofta handlar om 1930-talet och den stora depressionen, med bilder av Wall Street-kraschen, soppkök och arbetslösas demonstrationer, men ekonomisk-historiker vet att 1920-talet i många länder (t ex i Sverige) såg lika stor arbetslöshet [1], framför allt under och efter den våldsamma deflationen vid mitten av decenniet. Diagrammet ovan, från ekonomisk-historikern Meredith Paker (då vid Grinnell College, nu i Oxford), visar att arbetslösheten i Storbritannien år 1926, året för storstrejken, var runt 15 procent, medan den 1931-1932 nådde höjdpunkter mellan 20 och 25 procent. [2]

Paker förklarar syftet med sin artikel, publicerad i European Review of Economic History 2024, rakt och enkelt: "The aim of this paper is to explore the gender, industrial, and spatial concentration of interwar unemployment. Is there significant heterogeneity across these lines, and if so, who benefited and who lost out?" Hennes artikel bygger på finfördelad månadsvis statistik på arbetslösheten 1923-1926, uppdelat på 100 branscher och på kvinnor och män, från Ministry of Labour och publicerad i Labour Gazette, antagligen motsvarande Sociala Meddelanden i Sverige.

Hennes resultatdiskussion börjar med att konstatera att år 1931 (då en folkräkning utfördes) befann sig 5,6 miljoner kvinnor i arbetskraften. De var därmed 30 procent av den totala arbetskraften, men kvinnornas arbetslöshet har knappt diskuterats i litteraturen om mellankrigstidens arbetslöshet. Arbetslöshetsmönstret skilde sig åt för de två könen, som vi redan sett i diagrammet ovan: överlag var de försäkrade männens arbetslöshet högre än kvinnornas. En grundorsak till detta är förstås att kvinnorna var mindre benägna att befinna sig i arbetskraften, vilket man ju måste vara för att räknas som arbetslös: i folkräkningen 1931 var 90 procent av män arbetande eller arbetslösa, men bara 34 procent av kvinnorna.

Ett annat relevant genusrelaterat önster är skillnader i vilka branscher män och kvinnor jobbade. Paker presenterar en scatterplot med andelen kvinnor i sektorn på y-axeln och den genomsnittliga arbetslösheten 1923-1936 på x-axeln. Över 50 procent på y-axeln har vi en rad branscher som tillverkar kläder och textilier (dresses; blouses and shirts; hosiery; other textile; linen; cotton; jute) och även tobaksindustrin (ungefär 2/3 kvinnor), choklad och godis, hotell, tvätterier, och "pottery, earthenware". Nära noll procent kvinnor hade gruvorna, stenbrotten, spårvagnarna (!), hamnarbete, stål och varven. De flesta branscher var koncentrerade mellan 10 och 25 procent arbetslöshet men det ser ut att finnas en svag korrelation från uppe-vänster till nere-höger, alltså att de mer mansdominerade branscherna hade större arbetslöshet. Detta drivs av stål, hamnarna och varven, medan juteindustrin är en outlier åt andra hållet (många kvinnor och hög arbetslöshet). Paker gör en analys där hon simulerar hur arbetslösheten hade utvecklats per sektor om fördelningen kvinnor/män hade varit samma i alla sektorer; skillnaderna är inte så stora.

En sektorsvis analys av arbetslösheten säger att 20-30-talens höga arbetslöshet inte bara drevs av en nedgång för "staple industries" (kol, bomull, järn och stål, varven, osv) som dominerade 1800-talets industrialisering; det handlade alltså inte bara om en strukturkris som ledde bort från dessa "gamla" branscher. (s. 489-491)

Regionalt sett så var arbetslösheten större i norra England, Wales och Skottland än i Midlands och södra England. En hypotes är att detta beror på sektorssammansättningen av ekonomin regionalt sett: kanske jobbade särskilt många i stålindustrin, hamnarna och på varven just där? Paker visar utifrån Census 1931 att södra England hade relativt större andelar anställda i handel och tjänstesektorn. Midlands var särskilt starkt i bilindustri, mer avancerad textilproduktion och järnvägar. Norra England och Wales var koncentrerade i gruvindustrin och traditionella textilier som bomull och ull. Paker beräknar ett Herfindahl-Hirschman-index för industrins sammansättning; indexet visar att västra Midlands hade den mest diversifierade regionala ekonomin medan södra Wales var den mest specialiserade regionen. Korrelationen mellan HH-indexet (alltså sektorskoncentration) och arbetslöshet var svagt positiv (0.22), alltså att mer specialiserade regioner hade större arbetslöshet.  Paker använder också sektorssammansättningen och de sektorsvisa arbetslöshetsandelarna för att göra ett slags shift-share-analys, en kontrafaktisk analys av hur mycket arbetslöshetens utveckling formades av sektorssammansättningen. I södra England och London var arbetslösheten ännu lägre än man skulle förvänta sig av sektorssammansättningen, och i norra England och Wales var arbetslösheten högre än man skulle förvänta sig: det fanns alltså regionala effekter bortom själva sektorssammansättningen.

 

referens

Meredith M. Paker (2024) "Industrial, regional, and gender divides in British unemployment between the wars", European Review of Economic History 28: 475-516.

fotnot

[1] Paker talar i sin bakgrundssektion om en "global depression" 1921. (s. 477) 

[2] Det är viktigt att beakta att statistiken här bara handlar om arbetare som var med i en arbetslöshetsförsäkring. En del sektorer var i Storbritannien under perioden uteslutna ur a-kasse-systemet eftersom man ansåg deras risk för arbetslöshet som låg: jordbruk, skogsbruk, trädgårdsarbete, husliga tjänster, den offentliga sektorn, armén och skolorna. Den offentliga statistiken, som bygger på de som var med i försäkringen, överskattar alltså arbetslösheten något. (s. 480) Detta liknar situationen i Sverige: se t ex Jakob Molinders working paper "Why Was Unemployment so Low in Postwar Sweden? An Analysis with New Unemployment Data by Manufacturing Industry, 1935-1948" (2019).

måndag 6 april 2026

Första världskriget och kvinnors arbetskraftsdeltagande


Man pekar ofta på att världskrigen ökade kvinnornas möjligheter på arbetsmarknaden i Europa och USA: eftersom männen i stridför ålder var borta i militären, eller till och med döda, så behövde andra grupper, som yngre män, äldre män eller kvinnor, fylla arbetskraftsbehoven på hemmafronten. Nationalekonomerna Jörn Boehnke (UC Davis) och Victor Gay (Toulouse) presenterar i en artikel från 2022 i och för sig analysen av ökat kvinnligt arbetskraftsdeltagande över tid som att det framför allt i Claudia Goldins anda fokuserat på teknologi som långsiktig drivkraft (s. 1210), men det verkar långsökt att hävda att inte många studier också fokuserat på krigen. I sin litteraturöversikt diskuterar de också en rad sådana studier, framför allt om USA och andra världskriget: Goldin 1991; Acemoglu, Autor, and Lyle 2004; Goldin and Olivetti 2013; Doepke, Hazan, and Maoz 2015. Evan Rose (2018, JEH) visar i en nyare studie, säger de, att resultaten inte verkar varit omedelbara och inte så starka som tidigare studier sagt.

Franska historiker har också varit skeptiska mot idén att WW1 fungerade som en befrielsefaktor (engine of liberation) för kvinnor, säger de med referens till Thébaud 2013 som hävdar att hundratusentals kvinnor visserligen arbetade i industrin under kriget, men att detta var en "parantes" och att de därefter gick tillbaka till hushållsarbetet. [1]

 

Ekonomisk teori om hushåll säger att när det råder en brist på män så kommer det implicita marknadspriset på kvinnors hushållsarbete faller, vilket gör det mer attraktivt för dem att arbeta på arbetsmarknaden (Chiappori 1992; Grossbard 2014). Detta har ekonomer utforskat med variationer i kohortstorlek, utvandringsmönster och liknande, och förstås så innebar också WW1, där 1,3 miljoner franska män dog i strid, att könsbalansen försköts i det franska samhället. Figur 2 visar att regioner (de har data för 87 regioner) som led större förluster i kriget såg större ökning av kvinnors förvärvsarbete mellan folkräkningarna 1911 och 1921, medan de inte såg någon sådan trend före kriget, 1901-1911. Figur 3, kartan som jag klistrat in längst upp, visar fördelningen av dödligheten.

Det är visserligen inte så, säger de, att sannolikheten att dö i kriget var slumpmässig i förhållande till ens hemregions ekonomiska karakteristika, för den franska staten tog ut fler män från mer agrara regioner, för att inte hämma den för kriget viktiga industrin allt för mycket. (s. 1217-1218) Men mönstret är, och det är det viktiga, inte korrelerat med förändringar i kvinnors arbetskraftsdeltagande före kriget. De belägger också detta på ett mera formellt ekonometriskt sätt (avsaknad av pre-trends). De använder också en instrumentvariabeldesign som använder arméns olika träning av olika kohorter och hur detta påverkade dödligheten. (s. 1225-1228)

Deras kvantitativa resultat säger att "In départements that experienced military death rates of 20 percent rather than 10 percent, female labor force participation increased by 11 percent relative to pre-war levels." (s. 1238) Denna skillnad består under mellankrigstiden och de menar att den beror på krigets effekter på demografin (det blev svårare för kvinnor i mer drabbade regioner att gifta sig) snarare än på efterfrågan i företagen (att man ersatte män med kvinnor). De avslutar med en intressant diskussion om vad som är kontextspecifikt med resultaten och i vilken grad resultaten kan överföras till andra kontexter:

"the response of female labor to sex ratio imbalances we identify was arguably amplified by the historical context in which it occurred—most women were not in the labor force at the time, and low-skilled jobs in the manufacturing sector were increasingly available because of the transition toward Taylorism during the interwar period (Downs 1995). As a result, changes in marriage market conditions profoundly affected the extensive margin of female labor. Analyzing the impact of WWI military fatalities on female labor across countries with different characteristics might be crucial to better understand dependencies between the mechanisms we highlight and the historical context and to gauge the external validity of our findings." (s. 1238) 

Några år senare kom Carl P Kitchens och Luke P Rodgers, nationalekonomer vid Florida State University, med en ny artikel i frågan. Här handlar det dock inte direkt om krigets dödlighet utan om effekter på demografin och kvinnors arbete av den prisboom på mat som kriget ledde till. Kitchens och Rodgers studerar perioden 1910-1930, en period när fertiliteten föll med 29 procent i USA, en ungefär lika stor förändring som baby boomen efter WW2, fast i andra riktningen. Detta relaterar de alltså till jordbrukets utveckling med en mer än fördubbling av jordbrukspriserna och mer än 70 procents ökning av intäkterna i jordbruket i det sena 1910-talet. Prisboomen ledde till optimism bland bönder och jordpriserna steg (en avspegling av förväntad god avkastning i framtiden), men efter kriget och Versaillesfreden kom en (för bönderna och för många företagare) brutal deflation igen.

Kitchens och Rodgers har -- vad jag kan se -- lagt ner stor möda på att skapa ett dataset som ger hur beroende varje county i USA var av olika jordbruksprodukter och deras prisutveckling. Detta relaterar de till  demografiska datata, först födslar sedan 1910 på county-nivå, sedan 1930 årss folkräkning som ger varje vuxen kvinnas historia av att föda barn (eller inte), och folkräkningarna 1910 och 1920 som tillsammans med den 1930 ger olika personers demografiska beteende, i counties med olika ekonomiska förutsättningar.  

Resultaten säger att de höga jordbrukspriserna skapade fler jobb för kvinnor i jordbruket och att detta ledde till att kvinnor, framför allt kvinnor från fattigare bakgrund, födde färre barn och gifte sig senare än vad kvinnor i mindre påverkade regioner gjorde (eller: förändrade sig åt det hållet). De avslutar sin artikel med en mild policyrekommendation för samtida utvecklingspolitik i fattiga länder: "As policymakers consider potential responses to the many challenges that declining fertility presents to existing social programs, the results of this paper serve as a reminder that gender-specific changes to opportunity costs are central to the discussion. Put another way, there is more to the relationship between income and fertility than just income effects." (s. 3003)



referenser

Jörn Boehnke och Victor Gay (2022) "The Missing Men: World War I and Female Labor Force Participation", Journal of Human Resources.

Carl T Kitchens och Luke P Rodgers (2023) "The Impact of the WWI Agricultural Boom and Bust on Female Opportunity Cost and Fertility", The Economic Journal, Volume 133, Issue 656, November 2023.

fotnoter

[1] De refererar här också studier om demografiska effekter: "Implications of WWI in France for marriage and fertility outcomes have also been the subject of recent research. Most related to our article, Abramitzky, Delavande, and Vasconcelos (2011) show that women in regions that experienced greater military death rates faced deteriorated post-war marriage prospects.4 To explain post-war patterns in fertility and female marriage choices, Vandenbroucke (2014) and Knowles and Vandenbroucke (2019) build and calibrate models of fertility choices and marital matching. All three studies rely on military fatalities data from Huber (1931, p. 426), which are only available across 22 regions and the accuracy of which has been challenged by historians (Prost 2008). Besides studying alternative consequences of the war over a longer time horizon, our analysis employs a measure of military death rates that builds upon the collection of 1.3 million individual military records (Gay and Boehnke 2020). Our measure is therefore more accurate than that in the literature as it varies across 87 units rather than just across 22. In fact, we show that variation in the Huber (1931) data is insufficient to precisely identify the effect of WWI military fatalities on female labor force participation."