新書推薦:
《
宋代冠服图志(详尽展示宋代各类冠服 精美插图 考据严谨 细节丰富)
》
售價:HK$
87.4
《
形似神异:什么是中日传统政治文化的结构性差异
》
售價:HK$
55.8
《
养育不好惹的小孩
》
售價:HK$
79.4
《
加加美高浩的手部绘画技法 II
》
售價:HK$
91.8
《
卡特里娜(“同一颗星球”丛书)
》
售價:HK$
89.7
《
伟大民族:从路易十五到拿破仑的法国史(方尖碑)
》
售價:HK$
193.2
《
古今“书画同源”论辨——中国书法与中国绘画的关系问题兼中国画笔墨研究
》
售價:HK$
135.7
《
《日本文学史序说》讲演录
》
售價:HK$
74.8
內容簡介:
本书从一元线性回归模型出发,基于设模型、估参数、论性质、推分布、做检验、做预测一般建模过程,详细介绍了小样本理论与大样本理论。以*小二乘法为主线,分析无偏性、有效性等参数的小样本性质,以及一致性、渐进正态性和渐进正态性等参数的大样本性质,兼顾分析矩估计方法、似然估计方法等算法的优劣,进而对时间序列数据的核心模型进行了简要剖析。本书适合作为高等院校金融学和管理学的高年级本科生及研究生教材,也可供大数据研究工作者参考。
關於作者:
倪宣明,分别于2005年、2011年和2015年获南开大学学士、北京大学硕士和清华大学博士学位。2017年从中科院数学与系统科学研究院数学博士后出站后,加入北京大学软件与微电子学院工作至今,主要从事金融科技、金融计量学及金融经济学的教学与研究。
目錄 :
第一章 金融计量学的一般步骤 1
第一节 金融计量学与计量经济学的关系 1
第二节 金融计量学的六个核心步骤 5
一、设模型 5
二、估参数 8
三、论性质 10
四、推分布 11
五、做检验 12
六、做预测 12
第三节 设模型 13
一、对模型整体的假设 13
二、对解释变量的假设 14
三、对随机误差项的假设 14
第四节 估参数 15
一、最小二乘法 15
二、最小一乘法 20
三、矩估计法 23
四、最大似然估计法与贝叶斯估计法 24
第五节 论性质 25
一、小样本性质:无偏性与有效性 25
二、大样本性质:一致性与渐近有效性 33
第六节 推分布 35
一、小样本:精确分布 35
二、大样本:渐近分布 37
內容試閱 :
金融计量学源于计量经济学,二者与金融科技一样,均属学科交叉领域。执教之初,笔者一直想为金融科技专业的研究生编写一本适用于该领域的金融计量学教材。
计量经济学创始人弗里希(Ragnar Frisch)是1969年第一届诺贝尔经济学奖得主,他在《计量经济学》(Econometrica)期刊的创刊词中,曾为计量经济学这样下过定义:经验表明,统计学、经济学和数学,这三者对于真正理解经济生活中的定量关系而言,都是必要条件而非充分条件。这三者的统一,构成了计量经济学。 这一定义在他1926年发表的论文《经济理论、数学和统计学的统一》中已具雏形。他使用econometrics一词来代表计量经济学,这种构词法借鉴了英国统计学家皮尔逊(Karl Pearson)创办的《生物统计》(Biometrika)期刊的刊名。计量经济学的早期发展,面临两个基本问题:第一,经济关系是大量个体的加总,难以完全用数据去证明理论;第二,经济中的数据不像自然科学实验中的数据那样具有可控性。弗里希的学生,1989年诺贝尔经济学奖得主,挪威经济学家哈维尔莫(Trygve Haavelmo)在1941年的博士论文《计量经济学中的概率方法》中,借助概率统计理论系统地解决了这两个问题,为计量经济学建立了严密的统计学基础。哈维尔莫指出统计理论可以估计经济理论的参数,进而检验经济理论并进行预测,该文于1944年发表在《计量经济学》期刊上。在吸收统计学和数学研究成果后,计量经济学的方法论逐渐发展完善。
如果说计量经济学是统计理论、经济理论与数学理论的交叉应用,那么金融计量学就是统计理论、经济理论与数学理论在金融领域的交叉应用。从狭义上看,金融计量学与美国经济学家恩格尔(Robert Engle)1982年在《计量经济学》期刊发表的论文中提到的自回归条件异方差模型(autoregressive conditional heteroskedasticity model,ARCH)联系紧密,因为金融学理论经常使用收益率的方差或标准差(波动率)来度量风险。恩格尔还与英国经济学家格兰杰(Clive Granger)一起提出了著名的恩格尔格兰杰因果检验,共同获得了2003年的诺贝尔经济学奖。不过,与恩格尔不同,格兰杰更关注期望。显然,期望与方差都是金融学、统计学与计量经济学的基本概念。以金融学为例,马科维茨(Harry Markowitz)1952年提出的投资组合理论,便是在均值方差的框架下建立的。因此从广义上看,很难界定金融计量学与计量经济学的边界,金融学本身就是经济学的分支之一。本书对金融计量学与计量经济学二者的差异不加以明确界定,在分析中则偏重金融学理论背景。
大数据(big data)时代的到来,为数据分析带来了新的方法论,也带来了应用上的挑战,在催生了金融科技(Fintech)这一概念的同时,为金融计量学增添了一个交叉领域:计算机科学。计算机科学领域的各类算法在金融科技中的使用,是对经典金融计量学的强有力补充。金融计量学与算法密不可分,金融计量学中最常用的最小二乘法(ordinary least squares,OLS)本身就是一种算法。1805年,法国数学家勒让德(Adrien-Marie Legendre)在《计算彗星轨迹的新方法》一文的附录中,首次使用了最小二乘法。样本的个数多于待估参数个数,例如天文观测的数据远多于彗星轨迹所需要估计的参数。参数如何进行估计,困扰了包括欧拉在内的许多学者。勒让德另辟蹊径,他假设存在一个理论值,用观测值与理论值之差的平方和最小来估计参数,此时对待估参数求导,就可以得到与参数个数相同的方程个数,从而求解出参数估计量。在计算估计量时,最小二乘法并不依赖于样本的分布,勒让德也仅仅将最小二乘法视为处理数据的一个算法。最小二乘法仅依赖于数据的便捷性,奠定了它在金融计量中的重要地位。
算术平均数是最小二乘法一个应用的特例,即最小二乘法包含了平均数思想,而真正为这种算法建立误差分析基础并展示其优越性的,是被誉为数学王子的德国数学家高斯。高斯声称自己1799年之后就开始使用这种方法,由此引起了最小二乘法的发明权之争,这是继牛顿和莱布尼兹的微积分发明权之争后,又一大影响深远的争论。高斯1809年之后的系列工作,将最小二乘法建立在正态误差理论基础之上,其中一个里程碑式的贡献就是高斯马尔可夫定理,只要样本满足一定的假设,最小二乘估计量就会是最佳线性无偏估计量(best liner unbiased estimator,BLUE)。这表明,在参数的所有线性无偏估计量中,最小二乘估计量精度最高,即估计量具有无偏性(unbiasedness)和有效性(efficiency)。他在研究误差时从另一个角度推导出了正态分布,因此正态分布又称为高斯分布,德国10马克纸币上就印着高斯的头像和正态分布曲线,以纪念他的贡献。在对随机误差项引入正态分布假设之后,可以对参数关系进行检验。一种算法,只要能够与数理统计建立某种联系,就能够对参数进行检验,就能爆发出惊人的生命力,最小二乘法就是其中的典型例子。
有最小二乘法也就有最小一乘法(least absolute deviation,LAD)。事实上,最小一乘法的出现比最小二乘法更早。1760年,意大利天文学家和数学家博斯科维奇(Ruggero Boscovich)在研究子午线长度问题时就是用该方法,比勒让德和高斯的最小二乘法早了约40年。最小二乘法是寻求一条拟合直线,使得各个样本点距离该拟合直线形成的残差的平方和最小。但是如果存在偏离拟合直线很远的异常样本点,该样本点的残差平方就会很大,为了降低残差平方和,就需要调整拟合曲线来将就这个点。显然,如果用残差的绝对值相加,异常样本点带来的影响就会小很多。算法受异常值的影响程度被称为稳健性(robustness)。寻求拟合直线使残差绝对值之和最小,就是最小一乘法。如果说最小二乘法蕴含了算术平均数思想,最小一乘法就蕴含了中位数思想,只是计算过程较为复杂而已,但稳健性要强于最小二乘法。
在高斯建立了正态分布基础后,英国统计学家高尔顿(Francis Galton)又引入了回归(regression)与相关两个概念。作为以《物种起源》闻名于世的生物学家达尔文的表弟,高尔顿的研究领域涉及气象学、力学、心理学、遗传学等诸多领域,而回归与相关,正是他在研究遗传学中发现的。在亲子两代的实验研究中,他发现亲子两代人的各自身高服从相同的正态分布,即具有均值回归性。如果父亲比较高,则孩子往往比父亲矮;如果父亲比较矮,孩子往往就会比父亲高,自然界的力量使得人类的身高远离极端值,向平均值靠拢,这就是均值回归性。金融计量学里讲回归,基本思想源于算平均数。为了去除实验数据量纲的影响,高尔顿还引入了相关系数(correlation coefficient)。此后,他的学生皮尔逊逐步发展并完善了这些概念。
皮尔逊因为他的论文使用了过多的数学,难以在生物学期刊上发表,由此创办了《生物统计》期刊并担任主编,统计学中的t分布就发表在该期刊上。1899年,也就是高斯声称自己开始使用最小二乘法的100年之后,英国统计学家哥塞特(William Gosset)当时还名不见经传,在爱尔兰的一家酿酒厂上班。他在分析数据时发现,如果总体服从正态分布,样本均值的分布虽然在样本量很大时接近正态分布,但样本量很小时,又和正态分布不太一样。例如,OLS下的参数估计量服从正态分布,其方差与随机误差项的方差相关,但后者却是未知的,这时候使用样本估计量进行替代,就不再是标准正态分布统计量。随后哥塞特与皮尔逊及英国的另一位统计学家费歇尔(Ronald Fisher)取得联系并展开讨论,最终的研究成果《均值的或然误差》于1908年发表在《生物统计》期刊上。在正态分布一统江湖的时代里,哥塞特以笔名Student谦虚地提出了新的分布,因此这种分布又被称为学生t分布或t分布。哥塞特的这种自谦,使得他与皮尔逊、费歇尔两人长期保持良好的关系。
t分布的出现,使得统计学出现了大样本与小样本之分。小样本的理论与方法出现在大样本理论之后,命名却在大样本理论前。小样本,顾名思义,样本数量有限,可以推导出参数估计量的精确分布,以哥塞特和费歇尔为代表;大样本,指样本数量趋近于无穷时的情形,此时可以推导参数估计量的渐近分布,以皮尔逊为代表。F分布的字母F,就是用来纪念费歇尔功绩的,而卡方分布尽管不是皮尔逊最先发现的,但与1900年皮尔逊的卡方拟合优度检验紧密联系在一起。一般而言,小样本以t分布和F分布的统计量为核心,例如在OLS中,检验单个系数是否显著,就会构造t统计量,而要检验估计量是否满足一组约束关系,就会构造F统计量;大样本则以标准正态分布和卡方分布为核心。标准正态分布是t分布的渐近分布,而F分布以卡方分布为基础,在样本量趋近于无穷时,F分布可以转化为卡方分布。t分布、F分布与卡方分布是统计学上所谓的三大分布,与正态分布一起,贯穿于本书始终。
在最小二乘法之后,皮尔逊与费歇尔分别发展出了矩估计方法(method of moments,MM)和最大似然估计方法(maximum likelihood estimation,MLE)。与勒让德和高斯的最小二乘法发明权之争类似,皮尔逊与费歇尔再次掀起了论战。在哲学层面,皮尔逊认为统计分布是实际数据集合的描述,但费歇尔则认为统计分布是抽象的数学公式,数据只能用于估计真实分布中的参数。在方法论上,皮尔逊在19世纪90年代发表的系列论文中提出了矩估计理论。在样本量趋近于无穷,即大样本的前提下,经验分布可以收敛至真实分布,此时从经验分布出发,基于矩条件构建的一组方程可以用来进行参数估计。但是,它不需要任何分布信息,也不使用总体矩之外的任何信息,而且因为使用的矩条件不同,得到的参数估计量也不同,这些是矩估计被攻击的根本原因。如果知道总体分布,最大似然估计一定是最佳选择。1912年,费歇尔发表了学术生涯的第一篇论文《关于频率曲线拟合的一个绝对准则》,重新发掘100年前高斯误差理论的相关研究工作,在此基础上提出了参数估计的最大似然估计方法。如果总体分布已知,最大似然估计量容易具备渐近有效性(asymptotic efficiency)和渐近正态性(asymptotic normality),大样本性质极佳。但是,对于一个随机变量,如果知道了它的分布,也就等于知道了这个随机变量的全部信息。因此,最大似然估计在某种程度上是一种循环论证,进行参数估计前就需要知晓总体分布的要求极为苛刻,这也是最大似然估计被攻击的原因。费歇尔对统计学的贡献还有很多,比如金融计量回归中常用的显著性检验。结合哥塞特的研究工作,费歇尔创立了在检验中最常用的t检验与F检验,这样就可以在样本量很小的情况,检验所关心的某项效应,即检验参数是否满足某种关系,这与皮尔逊的处理不同,后者受高尔顿的影响,习惯处理通过自然观测收集的大量数据。在皮尔逊、费歇尔和哥塞特等人研究的基础上,奈曼(Jerzy Neyman)与皮尔逊的儿子小皮尔逊(Egon Pearson)一起合作,建立似然比检验、无偏检验、置信区间等理论,形成并完善了当前经常使用的假设检验理论体系。
OLS、MM和MLE这三大算法,可以说都是根源于算平均数的思想,有时也被称为频率学派。与之对应的是贝叶斯学派的贝叶斯估计法(Bayesian estimation,BE),它也是数据处理中的常用算法。OLS、MM和MLE这三大算法,都将样本视为随机而待估参数视为固定,着眼点在样本空间,参数的分布基于样本的分布推导;贝叶斯估计法则完全相反,将待估参数视为随机而将样本视为固定,着眼点在待估参数的空间,在计算中虽然也用到样本分布,但这种使用是技术性的,仅是为了获得后验分布。这就使得对前三大算法而言,参数估计的精度与所利用的样本无关,例如OLS中,样本只要满足一定的假设,参数估计量就会是最佳线性无偏估计量。但是BE的精度是后验的,取决于所选用的样本,这在现实应用中显然更容易被接受。
这四大算法是金融计量学的四大支柱,相互取长补短,在发展的长河中交相辉映。除了OLS一枝独秀外,MM在20世纪上半世纪基本处于被MLE压制的状态,但在广义矩估计法(generalized method of moments,GMM)兴起后,矩估计量具备了唯一性和渐近有效性,又焕发起了新的生命力。BE虽然长期被频率学派压制,但在人工智能和机器学习等兴起后,又呈现出压制前三大算法的趋势。本书作为金融计量学的导论,则主要分析OLS,兼论各个算法的优劣。
笔者参照统计学及计量经济学的经典教材,结合金融科技的特点,编写了本教材。本教材具有以下几个方面的特点。
第一,以线性模型为基础。这主要源于金融理论背景,如果将国际金融领域归为宏观经济学,金融理论于1990年第一次获得诺贝尔经济学奖,获得者分别是马科维茨、夏普(William Shape)与米勒(Merton Miller)。作为马科维茨的学生,夏普基于马科维茨的投资组合理论发展出了资本资产定价模型(capital asset pricing model,CAPM),米勒则与莫迪利安尼(Franco Modigliani)共同提出了资本结构与公司价值的无关性定理,即以二人名字首字母命名的MM定理,由此经典的金融理论也就分为资产定价与公司金融两个主领域。
以资产定价领域为例,CAPM模型中,市场中任意资产的期望收益率是市场组合收益率的线性方程,这种精确定价模型对应于金融计量学里的单变量线性回归模型,即本书的第一章。但是,CAPM模型成立的前提假设极为严格,金融学家罗斯(Stephen Ross)放宽假设,构建了近似定价模型,即套利定价理论(arbitrage pricing theory,APT),也被称为线性多因子定价模型,这对应于金融计量学的多变量线性回归模型,即本书的第二章和第三章。在此基础上,对金融时间序列的常见模型进行基本解构,这构成了本书的第四章。
以线性模型为基础的另一个理由是便于预测。有规律且便于预测的最常用的曲线就是直线与正弦函数,以后者为基础的预测就是谱分析(spectrum analysis),但弱在可解释性上。以直线为基础的OLS兼备了解释性与预测性的两大优点,而且非线性情形也可以转化为线性模型进行分析。
第二,以样本数据假设为核心。本书从经典的单变量线性回归模型展开,基于最小二乘法,在参数估计及其分布的推导过程中,逐步引入变异性、同方差、无自相关等假设,使读者能够知晓该假设用于何处。而对随机项是否存在正态分布的假设,又是区分小样本和大样本的关键假设。
随机误差项如果给出分布假设,例如服从正态分布,就称之为小样本理论,核心结论归结为经典的高斯马尔可夫定理:在参数所有的线性无偏估计量中,最小二乘法下的参数估计量方差最小。这表明,OLS下的估计量的精度最高,即估计量具有有效性,这也是OLS的优越性所在,它不同于MM中依赖于经验分布的矩条件,不同于MLE中依赖于总体分布函数,也不同于BE所需要的先验分布,仅基于数据就可以计算出参数估计量,而且一定条件下,参数估计量满足诸多优良的性质。那最佳线性无偏估计量中的线性能否放宽呢?为放宽线性假设,引入了费歇尔信息量,证明了最小二乘法下的参数估计量不仅在线性无偏估计量中方差最小,而且还在所有无偏估计量中方差最小。基于随机项的正态分布,可以构造相应的t统计量与F统计量来对参数进行假设检验。这也是本书第二章的核心。在算法中,也经常使用均方误差(mean-square error,MSE)来度量估计量的精度。在估计量满足无偏性的前提下,均方误差就与估计量的方差一样,但如果放宽估计量无偏性的要求,均方误差可能比最小二乘估计量的方差更低,针对这一问题,第二章也进行了相关分析。
如果随机误差项的分布假设没有给出,不存在正态分布假设,则称之为大样本理论。尽管最小二乘法可以估出参数,但是无法构建以正态分布为基础的t统计量和F统计量来对参数进行检验。此时大数定理(law of large numbers,LLN)和中心极限定理(central limit theory,CLT)就有了用武之地。大数定理是指,在一定条件下,随着样本量的无限增加,样本平均值就会收敛到总体平均值,即样本矩在一定条件下收敛至总体矩(期望)。估计量如果收敛至真实值本身,就具有一致性。如果参数估计量不具有一致性,就被称为存在内生性。也就是说,无论样本容量有多大,参数估计量都无法收敛至真实值本身,这时候从统计逻辑讲,回归分析就没有意义。因此,控制内生性是任何一个计量模型都首先需要考虑的问题。中心极限定理是指,样本平均值渐近服从正态分布,这也被称为渐近正态性。一旦存在渐近的正态分布,就可以构建标准正态分布与卡方分布的统计量进行检验。这也是第三章与第二章的核心区别。
事实上,所有的数据都可以根据相依性、异质性和矩条件进行分类。例如,经常假设数据样本满足独立同分布,在这一简单情形中,矩条件要求稍弱,有时仅需要矩存在且有限就可以,但时间序列里面,数据彼此之间经常具有相关性,这时候就需要增强矩条件的限制,以保证可以使用大数定理和中心极限定理。
可以说,一致性是大数定理的应用,渐近正态性是中心极限定理的应用,渐近有效性是费歇尔信息量的应用。参数估计量要想具备一致性、渐近正态性与渐近有效性,本质上就是要将样本空间限制到能够使用大数定理、中心极限定理和费歇尔信息量的前提假设条件上。
第三,以实证六步为主线。本书始终按设模型、估参数、论性质、推分布、做检验、做预测的六个核心步骤展开,这也是进行金融计量实证分析的基本流程。包括选择模型在内,首先需要对样本进行一定的假设,以估计参数。OLS、MM、MLE和BE的假设出发点都不同,OLS从误差项平方和最小化出发,MM从矩条件出发,MLE从似然函数出发,BE从先验分布出发,模型选择不同,估参数的流程也不同。
在估出参数之后,需要讨论参数满足何种性质,如是否满足无偏性、有效性等,这同时表明,OLS等经典算法的参数精确度独立于样本之外。在此基础上,推导出参数相应的分布,再基于分布构建统计量就可以对参数关系进行检验。第二章的小样本分析中,以t统计量和F统计量为核心,而大样本则以标准正态分布统计量和卡方统计量为核心。
基于要研究的金融问题或金融现象,收集相应的数据,构建金融计量模型并检验该模型的有效性,最终目的是为了对金融问题进行解释并做出有效的预测。单纯的预测问题,是数学或统计学研究的问题,这时候预测过程只需要服从数学逻辑或统计逻辑即可。但是,金融计量学从金融理论和金融数据出发,除了需要统计逻辑,更需要金融逻辑,构建金融计量模型,除了需要对金融现象的发展前景进行预测,更需要对金融现象进行解释。一个好的金融计量模型,一定是统计逻辑与金融逻辑一致,模型既具备金融理论基础,又可以通过统计上的显著性检验,从而实现对所研究问题的解释和预测。但是,如果不满足统计逻辑,或者模型的显著性没有通过检验,也不能直接否认模型中蕴含的金融逻辑。金融逻辑与统计逻辑并不必然一致,这就是金融计量学与统计学的核心区别所在。
从金融逻辑出发,由数学逻辑完善,再经过统计逻辑检验,最后回到金融逻辑去解释和预测,这就是完整的金融计量学链条。
第四,以逻辑证明为切口。本书一个鲜明的特点是以逻辑证明为主,除了使读者知其然,更侧重使之知其所以然。第一章从简单的单变量线性回归模型出发,给出实证六步的完整证明,假设的严谨性也在证明过程中逐步加深。在对单变量线性回归模型建立直观理解的基础上,第二章直接引入矩阵,从矩阵代数的相关知识出发,给出OLS参数分布的完整推导,包括高斯马尔可夫定理的证明。对于统计量的构建及其分布的推导,也给出了完整证明。从第二章可以看出,随机误差项是否服从正态分布,对于小样本分析而言,至关重要。放宽正态分布假设后,就进入了大样本理论分析的领域。
第三章首先介绍了大样本理论基础的两大基石,即大数定理和中心极限定理。一致性和渐近正态性就是这两大定理的直接应用。本书随后给出了违反一致性而产生内生性的三大常见情形:联立性偏误、缺失相关解释变量和解释变量存在测量误差。对为克服内生性而形成的工具变量法等方法也做了简要介绍。同时,本章也依据相依性与异质性对数据进行了分类并简要讨论。如果数据不满足独立、同分布,则可以使用遍历性与平稳性来进行近似替代,同时加强对矩条件的限制。在此基础上,第四章对平稳时间序列、非平稳时间序列和条件异方差时间序列的基本模型进行了简要解构。当然,作为导论,本书并没有给出所有结论的证明,更强调它们所表达的含义与应用。
本书是笔者在讲授金融计量学课程中形成的,感谢我的研究生钱龙和沈佳瑜对本书的辛苦整理工作,感谢我的研究生王顺龙、张俊超、商同泽、沈心如、沈鑫圆、王江伟、张悦宁对本书的校稿工作,感谢他们加速了本书的成稿。感谢中国科学院数学与系统科学研究院李琳博士和武晨博士、中山大学赵慧敏副教授和张俊玉副教授、中央财经大学孙会霞副教授在本书成稿过程中有益的完善建议。由衷感谢我的导师黄嵩副教授,他的鼓励是我编写这本教材的动力。最后,最需要感谢的是我的家人,感谢他们在成书过程中对我的支持与照顾。
本书适用于金融计量相关专业的高年级本科生和研究生,也可以作为从事金融计量研究的同行的参考书。由于笔者的水平有限,书中错误在所难免,恳请同行专家与读者批评指正。
倪宣明
2020年3月