tisdag 19 februari 2013

Dynamiska modellspecifikationer

En avgörande och intressant fråga i tidsserieekonometri är: inom vilken tidsram tror vi att våra oberoende variabler har effekter på den beroende variabeln? Tror vi att hela effekten är omedelbar, inträffar i period 1, och sedan försvinner? Eller, vilket oftare är rimligt, tror vi att effekten kommer spelas ut över ett par perioder? För att ta ett exempel från min egen forskning. Om jag har hypotesen att facklig anslutningsgrad (FA) har en positiv effekt på löneandelens storlek (LA), eftersom stärkt förhandlingsposition för de anställda gör att de kan skansa till sig en större del av inkomsterna, när ska denna effekt inträffa? Nivån på FA under år 1994, har den en effekt på LA år 1994? Eller, kanske mera troligt med tanke på att kollektivavtal som reglerar löner tenderar att slutas under år t men implementeras under år t+1 och t+2 (kanske t o m t+3), bör effekten förväntas under åren 1995-1997?

I applicerad samhällsvetenskaplig forskning med tidsserier och tidsserie-tvärsnittsdata har dessa viktiga frågor ofta sopats under mattan. Många artiklar har publicerats med substantiellt oproblematiserade specifikationsval, som bygger på statistiska "fixar" och tumregler (De Boef och Keele, 185). Den typer av tidsserier som samhällsvetare är intresserade av tenderar att trenda, så att värdet på variabeln år t är influerat av värdet på variabeln år t-1. Detta kallas autokorrelation och fixas ofta genom att man använder en laggad (t-1) version av den beroende variabeln bland de oberoende variabeln. (Denna typ av modell kan ses som ett specialfall av en ARMA-modell, en ARMA (1,0), som är ett stort fält i sig för stationära serier och diskuteras väldigt sällan i jämförande politisk ekonomi.) Koefficienten på denna laggade beroende variabel blir i samhällsvetenskapliga undersökningar ofta så hög som 0,9, vilket visar på stark persistens i serien. Faktum är att koefficienten är så stark att man kan misstänka att den i själva verket är 1, vilket skulle innebära att hela föregående årets värde skulle halka med och serien är icke-stationär vilket är ytterligare ett problem (jfr Pfaff, 6). Icke-stationäritet kan också formuleras som att serien har en enhetsrot (unit root) och det finns en rad tester för detta. Problemet är att unit root-testerna är notoriskt svaga, så att det i praktiken ofta blir svårt att avgöra om man har en serie med stark autokorrelation eller en icke-stationär serie. Har man en icke-stationär serie räcker det inte med en laggad beroende variabel för att lösa problemen, utan serien bör differentieras. Den enklaste typen av differentierad modell är en first differences-modell där man låter en förändring i Y bestämmas av förändringar i X-variablerna. Kruxet här är att man då utgår från att hela effekten är omedelbar: modellen har ingen laggstruktur. En differentierad modell som tillåter laggstruktur är den så kallade error correction-modellen.

Autokorrelationen kan man kolla på grafiskt genom att använda autokorrelationsfunktionen som visar hur starkt beroende serien tid år t är av sina värden under tidigare år. I diagrammet nedan syns autokorrelationsfunktionen för löneandelen i svensk industri (Edvinssons data, rensade för avskrivningar) 1850-2000. Är korrelationen utanför de blå streckade linjerna är den statistiskt signifikant på 95% nivån. (Diagrammet är gjort med kommandot adf i R -- motsvarande gör man i Stata med ac, jfr också corrgram.)

Vi ser att denna serie är extremt persistent, den har ett långt minne -- även efter 20 år dröjer minnet till synes sig kvar. Man kan fråga sig om serien inte rentav är icke-stationär. Det kan man testa t ex med Phillips-Perron-testet eller Dickey-Fuller-testet. Båda dessa tester visar i mitt exempel att serien är icke-stationär. Med ACF:n för en en gång differentierad serie kan man kolla om man då har blivit av med autokorrelationen. Detta syns i diagrammet nedan:


Det ser ut som att den en gång differentierade serien räcker för att bli av med problemet med icke-stationaritet. (Jfr Cowpertwait, 75.) Ett Dickey-Fuller-test med en trend inkluderad säger på 90% konfidensnivå att serien är trendstationär. Räcker det att dra slutsatsen att en first differences-modell fixar biffen? Nej, den må vara en statistisk fix men substantiellt tråkig eftersom slänger bort en massa information. Nästa steg i statistiskt fixande är då att pröva om den beroende variabeln är kointegrerad med de (också icke-stationära) oberoende variablerna, så att man kan använda en error correction-specifikation vars finess är att den kan skatta både kortsiktiga och långsiktiga effekter.

Det är denna typ av fix- och tumregels-tillvägagångssätt som statsvetarna Suzana De Boef och Luke Keele i sitt viktiga paper "Taking Time Seriously" från 2008 argumenterar emot. De hävdar att samhällsvetenskapliga tidsserieanalyser måste vara mer substantiella än så, mer fokuserade på själva teorin om hur variablerna egentligen förhåller sig till i tid. De menar att praktikern måste börja med en väldigt allmän modell för att därefter testa olika restriktioner och på så sätt komma fram till vilken specifikation som bäst passar data. De diskuterar två olika generella modeller som de visar är ekvivalenta när man jobbar med stationära data: ADL och ECM. I tabell 1 nedan syns bas-ADL-modellen och därefter olika mer restriktiva versioner.


I grundmodellen bestäms den beroende variabeln, Yt, av en konstant (αo), värdet av sig själv föregående period (α1), värdet av X-variablerna nuvarande period (β0) och värdet av X-variablerna föregående period (β1), plus en felterm (e). Vad de kallar "partial adjustment"-modellen är den som jag brukar kalla LDV/lagged dependent variable-modellen, den vanliga specifikation där man har X-variablerna bara samma period som Y, men också en Yt-1 med. Denna är som jag nämnt ovan väldigt vanlig eftersom användandet av LDV är en tumregelsrekommendation för att ta bort autokorrelation, och jag har bloggat om en rad papers som använder såna modeller, t ex Barnes (2012) (som dock har en bra diskussion om det, föredömligt nog).

EC-modeller infördes i statsvetenskapen 1992 av Ostrom och Smith och har framför allt använts för icke-stationära och kointegrerade data; De Boef och Keele vill dock slå ett slag för att de är användbara också för stationära data. Också för ECM presenterar de en allmän-till-specifik-approach för specifikationsval. Specifikationerna syns i tabell 2.


Utöver att förespråka ECM för stationära data är ett av De Boef och Keeles ärenden, och det som jag är mest intresserad av, att förbättra hur samhällsvetare tolkar koefficienterna i dynamiska modeller. De menar, liksom Williams och Whitten (2008, 2011) som fokuserar på tolkningar av ADL-modeller, att praktiker är för dåliga på den dynamiska aspekten och tar koefficienterna för långsiktiga effekter som de kommer ut ur programmet istället för att tolka dem ordentligt. Long-run multiplier (LRM) är ett nyckelbegrepp här. Det handlar alltså om något mer än om de βs som kommer ut i regressionstabellerna. Så här förklarar de LRM:
"We can think of the LRM as the total effect Xt has on Yt distributed over future time periods. In some cases, long-run equilibria and the LRM are of greater interest than shortrun effects." (191)
I en ECM får man direkt ut error correction-takten (α1), och den kortsiktiga effekten på Y av X omedelbart (β0). (Kortsiktig effekt av Xt-1 är β1-β0.)  Den långsiktiga effekten, som av någon anledning kallas k, räknas däremot ut som β1/-α1 (ibid). För denna får man inte automatiskt något standardfel, men detta kan räknas ut t ex med Bewleytransformationen. I en ADL-modell räknas k ut som k0 + k1, där k0 är α0/(1-α1) och k1 är (β0+β1)/(1-α1). Att använda en ADL eller ECM handlar alltså inte bara om att fixa statistiska problem -- autokorrelation, icke-stationaritet -- utan också att få en rikare förståelse av hur X påverkar Y, i tid (De Boef och Keele, 194, 199).


De Boef och Keele diskuterar utifrån detta "mean lag length" och "median lag length", som jag måste säga är två begrepp som jag knappt stött på tidigare. Medianlaglängden anger vid vilken lagg minst hälften av korrektionen mot jämvikt mellan variablerna har skett. Det är alltså ett mått på hur snabbt effekten av X på Y tonar bort. Är medianlagglängden 0 innebär det att halva effekten av X på Y skett redan i innevarande period. De Boef konstaterar själva att "median lag lengths are somewhat tedious to calculate and are typically given short shrift in political science" (192). Medellaglängden säger hur lång tid det tar att komma tillbaka till jämvikt.

De använder ett simulerat exempel med stationära data för att visa att ADL och ECM är ekvivalenta. I deras simulerade data är parametrarna: α0 är 0, α1 är 0,75,  β0 är 0,5 och β1 är 0,25. I tabellen nedan syns samma modell formulerad som ADL och som ECM.

I ADL-modellen ges kortsiktiga effekter av Xt och Xt-1 direkt som 0,53 och 0,25. I EC-modellen är koefficienten på ΔXt 0,53, samma som på Xt-1 i ADL-versionen. Den andra kortsiktiga effekten, av Xt-1, räknas ut som 0,77-0,53 vilket blir 0,24, nästan samma som i ADL-versionen. k räknas i ADL-modellen ut som (0,53+0,25)/1-0,75), vilket blir 3,12 och i EC-modellen som 0,77/-(0,25), vilket blir 3,08. Resultaten är lika varandra och nära det sanna värdet som är 3. Med stationära data är ADL och ECM ekvivalenta; fördelen med ECM är dels att den är teoretiskt tilltalande i många fall, dels att den eftersom den beroende variabeln är differentierad funkar bättre med starkt autoregressiva eller icke-stationära (195).

De tar två exempel ur litteraturen för att förtydliga fördelen med deras generell-till-specifik-modellspecifikationsapproach. Det ena handlar om amerikanska medborgares förtroende för Kongressen och intresserar mig inte så vidare substantiellt. Det andra exemplet tycker jag däremot är högintressant, det är t o m en artikel som jag bloggat om här: Swank och Steinmo (2002) om beskattningen i rika länder 1981-1995. Swank och Steinmo använder modeller med formen:

Yit = α1Yit-1 + β1X1it + β2X2it-1 + et

Alltså med en laggad beroende variabel och med X-variablerna under perioden t och perioden t-1. De Boef och Keele talar om "dynamic models mixing partial adjustment and dead-start effects". Swank och Steinmo räknar ut långsiktiga effekter, k, som β/(1-α1) vilket är bra, men anger inte standardfel för k. De Boef och Keele replikerar Swank och Steinmos analys fast med en ECM, och resultaten är rätt horribla:


Av de fyra variabler som hade statistiskt signifikanta effekter i Swank och Steinmos analys så är det alltså bara en som fortfarande har det i De Boef och Keeles replikation, och i gengäld har tre variabler som inte var signifikanta i originalet blivit det hos De Boef och Keele. Detta visar att resultaten kan bli väldigt olika beroende på vilken specifikation man använder, och att det är viktigt att testa en uppsjö olika sådana.


Referenser
Paul Cowpertwait och Andrew Metcalfe. 2009. Introductory Time Series with R. Springer.
Suzanna De Boef och Luke Keele. 2008. "Taking Time Seriously", American Journal of Political Science.
Bernhard Pfaff. 2008. Analysis of Integrated and Cointegrated Time Series with R. Springer.
Williams, Laron K. and Guy D. Whitten. 2008. “But Wait, There’s More! Maximising Substantive Inferences From TSCS Models”. Mimeo, Texas A & M University, September 2008.
Williams, Laron K. and Guy D. Whitten. 2011. “Dynamic Simulations of Autoregressive Relationships”. The Stata Journal 11(4): 577-588.

Inga kommentarer:

Skicka en kommentar