分享

TOP刊:10张图和1万字说清时间序列计量分析20年的进展!​

 计量经济圈 2022-11-23 发布于浙江

稿件:econometrics666@126.com

所有计量经济圈方法论丛的code程序, 宏微观数据库和各种软件都放在社群里.欢迎到计量经济圈社群交流访问.

十张照片中的二十年时间序列计量经济学

正文

关于下方文字内容,作者周宁哲, 武汉大学经济与管理学院,通信邮箱:inze_zhou@foxmail.com
作者之前的文章:1.Top金融,经济与会计期刊中的文本分析, 一项长达2万字的综述性调查,2.前沿: 解决内生性问题的无工具变量推断法,3.断点回归设计RDD的原理和实证指南, 年龄, 地理, 分数等断点应有尽有,4.AER, 中国大运河上的叛乱: 262年间的证据, 运用DID, CIC, SCM等方法!5.诚实双重差分法DID, 面板事件研究法和Bacon分解的经典应用文!6.平衡回归, 面板事件研究法和Bacon分解方法学习与应用前沿案例,7.公司和个体固定效应总是更好吗? 关于固定效应使用和解释的最全指南,8.计量TOP刊最全三重差分DDD估计指导!
Stock, James H., and Mark W. Watson. 2017. "Twenty Years of Time Series Econometrics in Ten Pictures." Journal of Economic Perspectives, 31 (2): 59-86.

This review tells the story of the past 20 years of time series econometrics through ten pictures. These pictures illustrate six broad areas of progress in time series econometrics: estimation of dynamic causal effects; estimation of dynamic structural models with optimizing agents (specifically, dynamic stochastic equilibrium models); methods for exploiting information in "big data" that are specialized to economic time series; improved methods for forecasting and for monitoring the economy; tools for modeling time variation in economic relationships; and improved methods for statistical inference. Taken together, the pictures show how 20 years of research have improved our ability to undertake our professional responsibilities. These pictures also remind us of the close connection between econometric theory and the empirical problems that motivate the theory, and of how the best econometric theory tends to arise from practical empirical problems.

二十年的时间序列计量经济学:过去、现在和将来

一、 引言

20年前,实证宏观经济学家认为,使用动态因果效应(dynamic causal effect)衡量冲击产生的影响(即,与一个特定的来源相关联的意外发生的自主变化)是合适的。从Sims(1980)之后,使用向量自回归(Vector Auto Regressions, VAR)来估计冲击对经济变量的动态因果影响成为了一种普遍做法。
逐渐,人们认识到,VAR模型由于对数据的结构限制较少,在对制度变化影响的识别上可能不尽如人意,而这一套方法也往往被该领域以外的研究者认为是不可靠的。此外,由于当时的模型尚未很好融入计量经济的推断上的内容,如何校准模型也是一大肘制。值此情境,加之数量来源的丰富、数据量的增大,进一步开发现有工具的动机便产生了。
本文将通过十张图片讲述过去20年时间序列计量模型的发展故事。这些图片包括时序计量中的六大重要领域:
① 动态因果效应估计(estimation of dynamic causal effects);
② 有优化的动态结构模型估计(estimation of dynamic structural models with optimizing agents)(尤指动态随机平衡模型,dynamic stochastic equilibrium models);
③ 经济时序中大数据下的信息分析方法(methods for exploiting information in “big data” that are specialized to economic time series);
④ 预测、监控经济的改良方法( improved methods for forecasting and for monitoring the economy);
⑤ 经济关系中针对时间变动的建模工具(tools for modeling time variation in economic relationships);
⑥ 统计推断的改良方法(improved methods for statistical inference)。
本文想说明的是,时间序列方法对于分析、解决现实世界中的问题仍有这相当大的作用。但回顾如此长的时期内的研究也需要我们作出一定的取舍。对此,本文更专注于经济学(而非金融);重点参考的理论也并非全是“知名”文献,而是我们认为代表着重要研究方向的文章,其中包括5篇20世纪90年代末至21世纪初的具有影响力的文章,4篇发表相对的近的做出一定突破的文章与1篇对未来研究有启示意义的文章。

二、 因果推断与结构向量自回归

实证宏观经济学领域持续关注的一个重要问题是:如何确定政策冲击带来的因果效应。例如,一个由外生冲击引起的货币政策目标利率的变化对产出、价格和其他宏观变量的影响是什么?
对识别造成干扰的根本问题是双向因果(simultaneous causality)。譬如,联邦基金利率(the federal funds interest rate)通过货币政策规定受实际GDP变化的影响,而联邦基金利率也会通过影响投资、消费和其他变量的方式作用于GDP。因此使用联邦基金利率(哪怕包含有其滞后项)作为GDP变化的解释变量不那么可信,而试图从中识别出因果效应的研究者应该设法剖离利率中的外生变动,这则需要一些额外的信息。
自Sims(1980)以后,向量自回归(VAR)一直是估计冲击对特定宏观变量的因果效应的标准工具。随研究深入,这一工具逐渐演变成了结构向量自回归(structural vector auto-regressions, SVAR),其基于这样一个核心假设:变量的非预期运动(即预测误差)是由结构性冲击引起的。SVAR模型通过施加足够的限制,以期能够识别一个或多个结构性冲击(structural shocks)。具体地,这些冲击被表示为预测误差的可估计线性组合。其分析结果可视为对因果效应动态路径的估计,在宏观经济学中被称为“结构脉冲响应函数(structural impulse response function, SIRF)”。
然而,在20世纪80及90年代流行的许多SVAR的应用并未经过严格论证。比如当时识别货币政策冲击的一个经典假设是,假定经济活动和价格对货币政策冲击的反馈具有滞后性,但货币政策却系统反映出同期其他变量所受的非货币冲击。根据这一假设,使用联邦基金利率滞后项以及其变量当期项与滞后项解释当期联邦基金利率的回归中,外生冲击能很好地被残差项所吸收。但当“其他变量”中含有诸如长期利率这种变量时,假设就无法满足了。
因此,这个领域中,一些致力于更准确的因果推断的新方法被发展出来。

(一)利用外部信息直接估计冲击影响

本文的第一张图片来自Kuttner(2001),该研究中Kuttner估计了货币政策冲击对长期利率的动态因果效应。
由于联邦基金利率受美联储调控,其最初被认为是外生的,但事实上联邦基金利率的变化也会受到经济活动变化的影响,在长期利率下这些影响得到较为明显的反应。
Kuttner研究的创新之处在于,利用外部信息来估计货币政策冲击(即利率变动中无法被经济活动变化解释的部分)。具体来说,他收集整理了美联储公开市场委员会(Federal Reserve Open Market Committee, FOMC)宣布其目标利率的特定时间节点,同时,已有证据表明美联储宣布的目标基金利率是对未来真实的基金利率的有效预测。因此,如果FOMC公告发布的窗口期内没有其他重大新闻出现,其发布前后联邦基金利率的变化即是与公告相关的货币政策冲击带来的影响。
Figure 1显示,目标基金利率变化的非预期部分(即基金利率在FOMC公告发布前后的变动)与五年期国债利率(five-year Treasury rate)的有关(右图);其中预期变化部分(即基金利率的目标调整减去非预期变动)则与国债利率无关(中间图);实际公布的目标利率和五年期国债利率之间也不相关(左图)。
以“工具变量(IV)”的角度来理解,这里相当于为一个内生解释变量(长期利率,即图中的五年期国债利率)找到了一个“工具”(目标基金利率变化的非预期部分)。利用这个工具,长期利率与基金利率间的双向因果路径起干扰作用的一条能够被有效“隔断”。
这一思路的目的是直接利用外部信息测量外生冲击,例如公告发布日期前后利率市场的变化。如果外生冲击确实可以被有效测量,那么结构性脉冲响应函数SIRF的估计就很简单了:因为该冲击足够外生,研究者可以简单地将一个感兴趣的变量回归到该冲击的当期值和滞后值上,由此估计出的系数即能够动态追踪因果效应。
当然,这样做需要有一个足够强外部信息使冲击可以被准确测量。

(二)利用工具变量识别影响

如果外部信息只成功地测量了部分冲击,或者对冲击的测量并不够准确,所得测量结果便无法直接用作研究者所关心冲击的代理。但,测量到冲击仍可以被理解为工具变量,而该测量的回归过程则成为了两阶段最小二乘法中的第一阶段。
可以说,迄今为止提出的许多估计外生冲击的措施都不算完美。在这种情况下,识别到外部冲击常作为工具变量使用。如果构建得当,这一变量将对其他结构性冲击而言外生,同时于真正关注的冲击保持相关。譬如Hamilton(2003)就曾使用过他测量到的国际石油冲击作为工具。
在VAR模型中,要考虑的内生变量往往来自预测误差而非原始变量本身。幸运的是,有效工具变量需要满足的两个假设(外生性、相关性)在此依然通行。在SIRF识别中使用工具变量的更多细节可以参考Stock & Watson(2012a),Mertens & Ravn(2013),以及Gertler & Karadi(2015)。

(三)利用异方差性识别影响

过去20年中发展出的另一种有效识别SIRF的方法则将目光投向冲击的方差。
假设有两个已知的制度(regimes),一种高波动(high-volatility),另一种低波动(low-volatility)。通过异方差(heteroskedasticity)进行识别的思路是为两种制度分别生成一组矩方程(moment equations)。虽然这两组方程都不能单独求解,但通过假设两个制度下的SIRF相同,两组方程能够联立求解,同时SIRF也能被确定。
这一方法的正式研究最早来自Rigobon(2003),其后Normandin & Phaneuf(2004)讨论了条件异方差下的识别问题,Lütkepohl(2013)提供了对此方法的综述性讨论。

(四)利用符号限制识别影响

在SVAR中,通过对脉冲响应(impulse responses)的符号施加限制也能够识别经济冲击。基于宏观经济学理论,许多经济冲击带来的影响的(正负)符号(至少在短期内)是可以判断的。
Uhlig(2005)开发出了基于符号限制的(最广泛应用的)识别方法。该文中,Uhlig要求在冲击发生时及未来五个月内,总体价格(overall prices)、商品价格(commodity prices)和非借贷储备(nonborrowed reserves)对收缩性货币政策冲击的响应不为正,联邦基金利率对其的响应不为负。
目前这种施加限制的方法的效果已得到验证。简单来说,在数学上,施加符号限制后,脉冲响应函数(IRF)将不在基于点识别(point-identified)而是集识别(set-identified)。
但,近些年研究者发现了IRF集识别中存在的一些推断问题。简言之,即使在大样本中,脉冲响应参数空间的未识别区域的先验分布也会强烈影响贝叶斯推断(the prior distribution over the unidentified region of the impulse response parameter space strongly influences Bayesian inference)。
因此,使用这种识别方式应该更加谨慎。关于该方法的进一步讨论,可以参考Fry & Pagan(2011)、Plagborg-Møller(2016),以及Stock & Watson(2016)。

三、 动态随机一般平衡模型的估计

动态随机一般均衡模型(Dynamic stochastic general equilibrium models, DSGE)是一个研究生活在易受外生冲击的经济环境中且具有前瞻性、最优化倾向的经济主体行为的模型。
目前,该模型在货币当局政策制定过程中起着重要作用。回顾其发展,最早对DSGE模型进行全系统(full-system)估计的是Ireland (1997),他用最大似然法(maximum likelihood)估计了一个三要素(GDP、价格和货币)系统。随着研究深入,DeJong, Ingram & Whiteman(2000)等一批学者探索了相较最大似然更有效率的贝叶斯(Bayesian)方法,并将其应用于小型DSGE模型。在这之后,Smets & Wouters(2003)研究发现,这些方法在大型DSGE仍能通行,大型DSGE模型涉及内容丰富,不久便成为现世货币政策分析的一个基础。
本文的第二张图片便取自Smets & Wouters(2003),用以代表过去20年中DSGE模型估计方面取得的突破。在他们的模型中,第一部分的“Calvo工资”参数是工人工资不发生变化的概率,第二部分的“Calvo价格”参数是公司价格不发生变化的概率。
Figure 2表示,贝叶斯方法克服了最大似然法等频率论方法(frequentist  methods)在拟合DSGE模型时遇到的计算问题。对于一些参数,如“Calvo价格”,数据结果显示出高度信息性:价格粘性比研究者的先验估计更大。而对于诸如“Calvo工资”的参数,信息量则小得多,先验与后验分布基本是重合的。
然而,在DSGE中,由于数据对某些参数是无信息的,即存在有一些识别性很差的参数,Bernstein–von Mises定理并不总是成立,因此其对不确定性的测量可能会受到先验形状的严重干预。
关于DSGE模型估计的文献非常多,近几年对DSGE的方法性研究大多集中在回避对数线性化(log-linearization)上。回避对数线性化可以提升分析风险(risk)和不确定性(uncertainty)的能力,但因其存在大量计算上的要求,实践中对数线性化依然普遍。Canova (2007)讨论了线性化、卡尔曼滤波、贝叶斯方法的标准处理方式,Herbst & Schorfheide(2015)提出了一种新的标准处理方式,并着眼线性化模型后验计算的效率,Fernández-Villaverde, Rubio-Ramírez & Schorfheide (2016)详细讨论了线性化的方法。

四、 大数据与动态因子模型

使用许多个序列来解释宏观经济波动并不是一件新鲜事,至少在上世纪20年代哈佛大学就进行过类似尝试,Burns & Mitchell(1946)则使用多达1277个时间序列来研究商业周期。
当大量的时间序列被加入模型,最重要的一个挑战就待估参数的激增。尽管上世纪60年代大型宏观经济模型(large macroeconomic models)就已被开发出来,但这些模型使用的减少参数的方式饱受争议,被部分学者视为“既没有统计学基础,也没有经济学基础”。
从上世纪90年代中期开始,VAR就已经成为一个标准的宏观经济学工具。但面对不断增加的变量数量,在技术上VAR也难以应对呈平方比例暴涨的参数,因此需要一种新方法来控制激增的参数。
动态因子模型(Dynamic factor models, DFM)是一种依照经验证据和现代理论施加参数限制的模型。
在DFM模型中,一个给定的可观测变量被写作一个共同分量(common component)和一个异质分量(idiosyncratic component)之和。共同分量指未观察到的(潜在的)共同变量(common variables),也被称为因子(factors),这些因子能够随时间的推移而变化。异质分量与共同分量无关,相互间关联也有限,主要作用于捕捉测量误差(measurement error)和影响不大的序列扰动(series-specific disturbances)。因此,DFM模型中,少量的因子起到了对宏观经济变量波动的绝大部分解释作用。

关于DFM模型,本文用第三张图片进行简单介绍。

Figure 3来自Stock & Watson(2012a),该图显示了从一个包含200个变量的6因子DFM模型中估计出的美国6大宏观经济变量预测值,预测值在图中被记为共同分量(common component)。这个DFM模型中的参数利用1959-2007年间数据拟合,2007年之后的共同分量则是伪取样本拟合(pseudo out-of-sample fit)。从图中结果也不难看出,DFM的预测与真实数据大都基本符合。
目前,DFM分析技术理论上可以处理任意多个时序的结合。而估计其中因子的一个基本方法是主成分分析(principal components analysis, PCA)。至于因子个数的决定,Bai & Ng(2002)提到的使用信息准则(information criteria)来估计因子个数的方式可以容易地扩展到任意多个序列的情况。事实上,DFM模型(以及其他一些高维模型)的出现为通常意义上的“维度诅咒(curse of dimensionality)”提供了一个“将诅咒变为祝福”的解决路径。
经过多年的应用与发展,DFM模型已经成为对大量经济时序数据进行联合建模的主要方法。值得注意的是,DFM也可以用来估计结构性冲击的影响,同时,为VAR开发的一些方法和识别思路也可以迁移到DFM中。通过使用大体量数据,DFM模型甚至比低维VAR更好地捕捉到宏观结构性冲击的效应,对此的详细讨论,可见Stock & Watson(2016)。
当然,DFM并不是唯一可用于高维建模的方法。使用贝叶斯先验分布(Bayesian prior distribution)的VAR模型也能应对高维问题。此外,有时候基于合理的理论对变量施加限制而后进行VAR分析也不失为一条可行路径,这种思路的一个例子参见Chudik & Pesaran(2016)。
对于高维建模的讨论最终也绕不开一个重要前提:数据可得。圣路易斯联邦储备银行( Federal Reserve Bank of St. Louis)开发的FRED数据库为经济学研究者提供了一个获得数据的路径。目前,其推出了一个包含128个主要经济指标的时间序列月度数据集FRED-MD,同时也有一个季度测试版FRED-QD。另外,费城联邦储备银行(Federal Reserve Bank of Philadelphia)维护有一个更专业的数据库,其会对实时经济数据进行存档和整理。

五、 宏观经济监控与预测

对于浮沉政商两界的宏观经济学家而言,跟踪经济状况和预测经济走向是其两大重要任务。在上世纪60-70年代,这两项职能的实现主要靠专业人士的推断。到了上世纪80-90年代,研究时序分析的经济学家尝试将将宏观经济监管和预测置于更科学的基础之上,即使用透明可复制的、具有良好解释效力的量化方法。取得了众多成果的同时,这些方法仍有一些问题需要完善,包括量化预测的不确定性、扩展可容纳(序列)数据量的问题以供实时监测成为可能、考虑经济演变因素在内的建模问题等等。这一节,我们讨论前两个,即预测的不确定性和宏观经济监控问题。

(一) 估计和传递预测的不确定性

部分经济变量的预测准确性较低始终是经济预测中一个重大难题,尽管数据可得性、经济理论以及计算能力在过去几十年间都有着长足的进步,经济预测准确的大幅提高却迟迟没有到来(这里的预测不单单指点估计,更包含待预测变量在未来的可能范围或分布)。
本文的第四张图作为过去20年里密度预测(density forecasts)发展应用的一个代表展出。Figure 4 来自挪威银行2016年12月的货币政策报告(Bank of Norway’s Monetary Policy Report)。该图通过预测序列未来可能的数值分布((distribution of possible future values of the series))刻画并预测挪威消费价格通胀率(consumer price inflation)的不确定性(uncertainty)。
对密度估计的综述性讨论可见Corradi & Swanson(2006)以及Elliott & Timmermann(2016)。
除此之外,过去20年间研究者们也在预测方法评估(methods for evaluating forecasts)、预测变量选择(selecting variables for forecasting)以及预测错误检验(detecting forecast breakdown)等领域不断探索。这些探索都围绕这一个核心目标展开:通过开发可靠的模型、可信的方法来减少预测时需要作出的“判断(judgment)”(虽然判断必不可少,但一个显而易见的道理是判断越多出错的风险也就越大)。对此的具体讨论可以参看Elliott & Timmermann(2013)以及上文提到过的Elliott & Timmermann(2016)。

(二) 宏观经济监控

在二十多年前,经济学家通常使用回归模型并结合对经济发展形式的判断来实时监控经济走势。虽然这种方法利用了数据,但在可复刻、公信力、一致性等方面都不太能称得上科学。
随时代发展,实时监控经济走势对政策制定而言显得越来越重要,为了更加有效的达到这一目的,时间序列计量经济学家们为之付出了大量努力。

本文的第五张图片试图说明宏观经济监控的一个核心思路:使用大型模型(如DFM),传入实时数据,令经济监控具有内部一致性(internally consistent)。Figure 5 来自纽约联邦储备银行(Federal Reserve Bank of New York)于2017年2月10日更新的GDP即时预测(Real-Time Nowcast)结果。纽联储使用的模型基于DFM,结合36个主要经济指标的实时数据每周对季度GDP增长进行一次估计。

由图易见,8月份时预测的年增长率略高于2%,到了10月7日,已跌至1.3%。但当零售销售(retail sales)和住房开工数据(housing starts data)被公布后,11月18日的预测上升到2.4%。之后疲软的工业生产数据,以及在12月16日更新前不到两小时发布的不景气的房产数据(housing data),将增长率推低至1.8%。
纽联储的这套模型利用实时添入其中的指标数据(当然,不同指标的添入时间不一致)更新对单个指标的估计,进而产生对GDP增长的估计的更新。该模型能够保证每类指标的公布被内部一致地、有规律地、科学地利用起来,而不不必基于多个彼此框架不统一的判断。
纽联储基于DFM的报告是提供关于经济实况的几个著名报告之一。此外,由经济政策研究中心(Centre for Economic Policy Research)和意大利银行(Bank of Italy)维护的EUROCOIN指数是一个实时的月度指数,它使用有大约145个变量,主要用以估计欧元区的月度GDP增长情况。芝加哥联储的全国活动指数(The  Chicago Fed National Activity Index)、费城联储的Aruoba-Diebold-Scotti指数以及亚特兰大联储的GDPNow模型也都发挥着类似作用。
使用DFM进行实时宏观经济监控可以追溯到Stock & Watson(1989)对经济指标构建的讨论。Bańbura et al. (2013)详细阐述了目前处理大型序列(large series)和复杂数据流(complicated data flows)的整套方法。而其他用于实时预测的方法中,一个流行的方法是MIDAS模型,该模型使用数据相关(data-dependent)的权重对高频数据流进行实时聚合(temporally aggregated)。另外,对混频数据(mixed-frequency data)的处理方法,可参看Foroni & Marcellino(2013)。

六、 模型的不稳定性和潜在变量

已有众多文献讨论了高维、低维时间序列模型中隐含的不稳定性(instability)。其中一个关键问题就是:如何使时间序列模型即是在不稳定的情况下也能发挥作用。
早期的应对方式是利用确定性状态转移(deterministic regime shifts)对不稳定性建模。这种方法在一定程度上有用,但不足够令人满意。因为其基于的单一断裂模型(single-break model)仅是一种近似(approximation),而且通常无法认定状态转移只发生一次。
另一种策略是允许模型参数基于随机过程(stochastic process)随时间变动(evolve over time)。如果将这些随时间变化的参数乘上可观测变量(observed variables),那么模型就有一个隐马尔科夫(hidden Markov)线性状态空间结构(linear state space structure),并且使用卡尔曼滤波(Kalman filter)可以计算出高斯似然(Gaussian likelihood)。而当时变参数乘上潜在变量(latent variables),模型结构就是非线性的(nonlinear)。这种策略下的模型估计存在一定困难,20年前流行的较初级的方式需要改进。
本文的第六、七幅图片即展示20年间非线性潜变量模型估计( estimation of nonlinear latent variable models)的发展。
Figure 6 来自Kim & Nelson(1999),该图刻画了美国50年间的实际GDP增长(实线表示),以及GDP的方差的一个中断的后验概率(posterior probability)(虚线表示)。基于此图,Kim & Nelson得出结论:美国GDP增长已经进入了一个低波动期,其时间上的界限最可能是1984年的第1季度。事实上,这种低波动的态势一直持续到2007年,而其间的一段时间(1984-2007)被后人称为大稳定时期(The Great Moderation)。

除了界定时期之功外,该文还标志着在处理带有潜变量的非线性或非高斯时间序列模型(non-Gaussian time series models with latent variables)方面的一个重要方法论发展。Kim & Nelson的模型允许GDP增长的均值和方差出现一次转移(one-time shift),并在Hamilton(1989)的随机状态转移模型(stochastic regime shift model)的基础上增添平均值的循环转移(recurrent shifts)。这一模型的估计难度在于识别潜变量的时间路径(time path of the latent variable),该问题又被成为“平滑问题(smoothing problem)”。对此,Kim & Nelson使用了马尔科夫链蒙特卡洛方法(Markov Chain Monte Carlo methods),该方法将他们复杂的非线性非高斯模型(nonlinear non-Gaussian model)分解为一系列使用较简单模型的蒙特卡洛模拟(Monte Carlo simulations using simpler models)。目前看来,马尔科夫链蒙特卡洛方法业已成为应对类似问题的一个广泛使用的估计工具。

Figure 7 则来自Cogley & Sargent(2015),该文模型考虑了将随机波动(stochastic volatility)纳入潜在状态变量(latent state variables)的情况。Cogley & Sargent使用了一个单变量模型(univariate model),将通货膨胀率(rate of inflation)分解为未观察到的固定(permanent)成分和实时(transitory)成分,这些成分的波动(方差)以潜在随机率过程(latent stochastic volatility processes)纳入模型。
从技术角度看,这与Kim & Nelson(1999)所面临的情况类似,即使用模型将观察到的数据表示为不可观察随机变量的非线性函数。虽然细节不同,但Cogley & Sargent的模型也能够使用马尔科夫链蒙特卡洛方法进行估计。
Cogley & Sargent的模型研究了1850年至2012年美国通货膨胀过程的演变,其对趋势通胀的后验估计显示靠上图片,对趋势变化的时变标准差的估计(time-varying standard deviation of changes in the trend)显示在靠下图片。

关于非线性或非高斯滤波(nonlinear/non-Gaussian filtering)的讨论丰富且复杂,一个较为标准的参考可见Durbin & Koopman(2012)。

七、 更可靠的推断方式

最后,在过去的20年里,旨在提高统计推断质量的工作也在不断进展。在20世纪90年代中期,研究者发现当时广泛使用的对时间序列的统计方法可能含有过高的拒绝率,即置信区间(confidence intervals)中包含真实参数值的概率并没有设想中的(一般是95%)那么高。因此,相关问题有必要进一步讨论,特别是在工具变量较弱、标注误序列相关以及回归元高度一致(regression with highly persistent regressors)时。

(一) 弱工具和弱识别

传统观点认为,弱工具变量(weak instrument)在估计中只会使得标准误过大,即仅能表达较少的变量信息。但是,上世纪90年代的一系列研究表明,弱工具变量的后果可能相当严重,其系数估计值可能有偏、传统标准误估计不准确,更严重的是,这些问题即是在非常大的样本量下依然可能出现。
本文的第八幅图展示了在工具变量方法中使用传统的渐进标准误差(conventional asymptotic standard errors)和置信区间方法时,工具变量较弱导致的问题。Figure 8 来自Mavroeidis et al.(2014),该图显示了新凯恩斯主义菲利普斯曲线(New Keynesian Phillips Curve)两个关键参数的置信度(confidence sets),其中纵轴为边际成本(marginal cost)系数、横轴为前瞻性理性预期( forward-looking rational expectations)的系数

图中结果使用1984-2011年间数据,依照Galí & Gertler(1999)的说法,将劳动力份额(labor share)作为边际成本的代理,使用边际成本和通货膨胀率波动(the change in inflation)的三期滞后作为工具变量。图中点估计结果使用广义矩估计法(generalized method of moments),点周围椭圆形黑线框为经典的渐进估计(textbook asymptotics)所得出的90%置信域。而相对不规则的灰色部分为使用了对弱工具变量具有稳健性的方法得出的90%置信域。很明显,两者范围有较大的差异,而这种差异被认为是由弱工具变量造成。

类似的弱识别问题在时序领域分析并不少见,诸如Stock & Wright(2000)的基于跨时消费的资产定价模型(consumption-based asset pricing models)估计,Consolo & Favero(2009)的使用广义矩量法的货币政策反应函数(monetary policy reaction functions)估计,以及Chevillon et al.(2016)的结构自回归(structural autoregressions)模型,乃至Andrews & Mikusheva(2015)的动态随机均衡模型(dynamic stochastic equilibrium models)中具有体现。
对该问题,在线性工具变量回归中,常用的诊断方法是检查检验两阶段最小二乘法中第一阶段工具系数估计的F统计量大小。经过Olea & Pflueger(2013)以及Andrews(2018)的研究,该方法在异方差下也能通行。但当使用的模型不那么标准时,尚待理论工作进一步深入。

(二) 序列相关和潜在异方误

许多时间序列回归都会表现出明显的异方差(heteroskedasticity)迹象,此时,普通最小二乘法的标准误差计算公式并便不再不适用,其原因自不必多言。
在实践中,最常用的处理具有异方差和自相关性的标准误(heteroskedasticity- and autocorrelation-robust)计算基于Newey & West(1987)以及Andrews(1991)开发出的方法。这类方法在计算标准误差时,用回归元与误差项的积的自协方差加权平均值(weighted average of the autocovariances)代替OLS中对回归元与误差项的积的方差估计,其中平均自协方差的数量由一个叫“带宽(bandwidth)”的参数指定。
然而,在宏观领域的计量经济应用中,这类方法构建的置信区间被认为是存在一定问题的。Den-Haan & Levin(1997)使用蒙特卡洛模拟研究了在原假设(null hypothesis)下使用这类标准误差进行统计检验的拒绝率,他们发现拒绝率应为5%的实验中实际拒绝率可能高达10%甚至20%。这显然造成了过度拒绝(over-rejection)的问题。
过去20年间,计量经济学家们对此展开了许多研究,Müller(2014)为此做过一个带综述色彩的研究。简言之,众多学者认为,为了使得拒绝率更接近预期,有必要使用比Newey-West或Andrews建议的“带宽”大得多的带宽。但这种大带宽方法会使得检验统计量不再具有通常意义的大样本正态分布(large-sample  normal distribution)。尽管如此,基于这一思路已经产生了许多新的方法创建。但奇怪的是,现在的实证研究中竟仍然以Newey-West或Andrews标准误为主。时序研究者们,也许是时候考虑效果更佳的新推断方法了!

(三) 长期关系、协整式和持久回归元

2003年诺奖得主Clive Granger对协整(cointegration)的一个基本看法是:多个持续的宏观经济变量(multiple persistent macroeconomic variables)在低频(low frequencies)下一同移动,即它们有共同的长期趋势(share common long-term trends)。尽管对这一理论的讨论曾在上世纪90年代前后掀起一阵高潮,但其后就显得有些不温不火。
本文的倒数第二张图来自Elliott(1998),其讨论了在一个有两个协整变量(cointegrated variables)的简单模型中作协整检验时,协整系数(cointegrating coefficient)的拒绝率(null rejection rate)。该检验假设每个变量都是一阶单整(integrated of order one)的,即拥有一个单位自回归根(a unit autoregressive root)。Figure 9 显示,对假设的微小偏离(文中使用参数c衡量,即真正的最大根与1之间的差值乘以样本量)会对该协整系数值的检验带来重大问题。图中拒绝率(显示于图中y轴)本应为5%的检验会具有离奇高的拒绝率,特别是在误差和回归元中的新息(innovations)的相关性(correlation)较大时(表现于x轴)。
因此,为协整模型开发的标准推断方法对实际上很难观测的偏离假设的情况而言并不稳健。虽然后续计量经济学家门提出了不少新的相反,但这些方法都各有劣势,无法得到一套完整可信的新程序。事实上,Figure 9 中记录的问题不单在Elliott此处研究的局部整体模型(Local-to-Unity Model)中存在,在回归元高度连续时,比如一些金融数据中,该问题可能也会发生。

对于该类问题的推断与建模,可能比设想中的更为复杂,也需要更多的工作在未来开展。

八、 前方的挑战

最后一节中,我们试图说明时间序列计量经济学尚存的一些研究挑战。
本文的第十张也是最后一张图片,被称为“预测错误之源(Mother of All Forecast Errors)”。Figure 10 显示了在金融危机前后几个季度,专业预测人士(Professional Forecasters)记录的非农就业对数(log of nonfarm employment)指标的实时预测中值(real-time median forecast)。

可见,即使在经济危机已经发生后,预测者的预测值仍然表现出温和平缓的态势。我们认为,造成这种错误大部分原因来自预测模型对冲击严重性和破坏性的估计失误。时序预测者当然不是在金融危机期间唯一误判的经济学领域研究者,但解决类似Figure 10 中的失误无疑称得上一种足够有意义、应被有限考虑的事项。

另一个未来挑战落在了大数据领域(big data sphere)。过去20年里的方法进步已经使得在预测系统中包含任意多的序列或纳入实时发布的数据成为可能。但有证据表明,使这些方法发挥作用的参数限制(parametric restrictions)可能会忽视潜在的重要信息。一些研究已经围绕此展开,如Carrasco & Rossi(2016)、Stock & Watson(2012b),但并没有一个足够统一、明确的结果。另一些问题在于发掘数据中可能可以利用的非线性结构(exploitable nonlinear structure),我们认为通过在经济理论指导下发展新的统计方法,未来将能够逐步利用起大型数据集中的额外信息(additional information)。
此外,还有一些与低频时序计量经济学(low-frequency time series econometrics)有关的重要问题。比如Figure 9 中提到的,当数据中明显存在低频共鸣(low-frequency co-movements)时,也许宏观经济学家需要一套工具来量化这些波动,而不是仅依赖于(不一定可靠的)特定模型。对于这些问题的一个讨论可见Müller & Watson(2016a,2016b)。
最后,通过使用微观经济数据中的信息丰富宏观模型的识别和估计也值得被探索。诸如对个人偏好( individual preferences)或企业行为(firm behavior)的微观估计,未尝不能加入到宏观模型中改善其监控和预测效果。

过去的20年中,时序分析方法得到了较大程度的发展,这些发展的核心驱动力是政策制定者需要考虑政策的效果、是政府与私营部门(private sector)需要了解经济的现状与未来方向。幸运的是,几乎可以肯定,这些需求在未来不会消弭,甚至可能愈演愈烈。尽管时序计量经济学家面临着重重困难挑战,但新的机遇也随之产生!

长按以上二维码即可阅读此推文的PDF


关于时间序列方法,1.时间序列分析的各种程序, 38页集结整理成文档,2.ARDL, ARIMA, VAR, (G)ARCH时间数据模型讲解及软件操作,3.R软件中的时间序列分析程序包纵览,4.时间序列分析的各种程序, 38页集结整理成文档,5.时间序列数据分析的思维导图一览, 金融经济学者必备工具,6.送书: 应用时间序列分析(经典),7.为啥时间序列模型比较难学?时间序列的正名路,8.面板数据单位根检验软件操作和解读全在这里,9.动态面板回归和软件操作,单位根和协整检验(Dynamic Panel Data),10.疫情期计量课程免费开放!面板数据, 因果推断, 时间序列分析与Stata应用,11.送书: 应用时间序列分析(经典),12.时间序列模型分解,季节调整分析基础,13.动态因子模型是什么, 又怎么去实现? 14.动态面板分位数估计怎么做?15.动态面板门槛回归程序公布, 使用方法介绍,16.把动态面板命令讲清楚了,对Stata的ado详尽解释,17.时间序列分析概览(今天的重点1),18.全面比较和概述运用机器学习模型进行时间序列预测的方法优劣!19.一文读懂“非平稳时间序列计量经济学分析”, 包括单位根检验, 结构突变检验等,20.中断时间序列分析ITSA是什么? 很流行的政策评估新范式!21.可以在面板回归分析中使用时间序列解释变量或被解释变量吗?22.ARIMA时间序列模型的步骤, 程序和各种检验, 附上代码并通过示例进行解读!
关于VAR方法,1.R软件中的时间序列分析程序包纵览2.时间序列分析的各种程序, 38页集结整理成文档3.时间序列数据分析的思维导图一览, 金融经济学者必备工具4.送书: 应用时间序列分析(经典)5.为啥时间序列模型比较难学?时间序列的正名路6.时间序列中的协整检验和VECM,以及回归后的系列估计操作7.时间序列模型分解,季节调整分析基础8.空间和时间的计量,关注二位国人9.TVP-VAR时变参数VAR系列文献和估计程序10.向量自回归VAR模型操作指南针,为微观面板VAR铺基石11.VAR宏观计量模型演进与发展,无方向确认推断更好12.应用VAR模型时的15个注意点,总结得相当地道13.面板数据单位根检验软件操作和解读全在这里14.动态面板回归和软件操作,单位根和协整检验(Dynamic Panel Data)15.面板向量自回归PVAR是什么? 数据, 程序和解读一步到位16.ARDL, ARIMA, VAR, (G)ARCH时间数据模型讲解及软件操作17.动态因子模型是什么, 又怎么去实现?18.SVAR模型的起源、识别、估计与应用, 系统讲述19.平滑转移自回归模型(STAR)应用与在R软件的操作20.Copula函数21.GVAR, 全局VAR模型是什么?该如何用软件实现, 有哪些研究文献和最新进展!22.前沿: BVAR, 贝叶斯VAR是什么, 为什么需要, 软件怎么做, 如何解读呢?23.结构性面板VAR是什么? 如何实现PSVAR呢?怎么解读?24.2021年AER上最新基于DSGE模型的宏观计量文章, 附上50篇时序, VAR模型文章!

下面这些短链接文章属于合集,可以收藏起来阅读,不然以后都找不到了。

4年,计量经济圈近1000篇不重类计量文章,

可直接在公众号菜单栏搜索任何计量相关问题,

Econometrics Circle




数据系列空间矩阵 | 工企数据 | PM2.5 | 市场化指数 | CO2数据 |  夜间灯光 官员方言  | 微观数据 | 内部数据
计量系列匹配方法 | 内生性 | 工具变量 | DID | 面板数据 | 常用TOOL | 中介调节 | 时间序列 | RDD断点 | 合成控制 | 200篇合辑 | 因果识别 | 社会网络 | 空间DID
数据处理Stata | R | Python | 缺失值 | CHIP/ CHNS/CHARLS/CFPS/CGSS等 |
干货系列能源环境 | 效率研究 | 空间计量 | 国际经贸 | 计量软件 | 商科研究 | 机器学习 | SSCI | CSSCI | SSCI查询 | 名家经验
计量经济圈组织了一个计量社群,有如下特征:热情互助最多前沿趋势最多、社科资料最多、社科数据最多、科研牛人最多、海外名校最多。因此,建议积极进取和有强烈研习激情的中青年学者到社群交流探讨,始终坚信优秀是通过感染优秀而互相成就彼此的。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多