金融计量学与高频数据分析Word文档格式.docx
- 文档编号:16466581
- 上传时间:2022-11-23
- 格式:DOCX
- 页数:17
- 大小:39.75KB
金融计量学与高频数据分析Word文档格式.docx
《金融计量学与高频数据分析Word文档格式.docx》由会员分享,可在线阅读,更多相关《金融计量学与高频数据分析Word文档格式.docx(17页珍藏版)》请在冰豆网上搜索。
HuntandKennedy(2000)则侧重于定价实证方面的结果总结。
这里值得特别提出的目前一个重要的研究热点领域就是如何确定连续定价模型里的波动率参数,特别是如何将已有计量模型(如GARCH类模型)引入定价框架中。
Jin-ChuanDuan(1995,1997,1999)较为成功地得到GARCH离散资产定价公式,并研究相应的模型估计问题。
有关这方面的文献可参见GUO(2001)。
Sundaresan(2001)、Campbell(2001)是目前对整个连续金融领域研究最好的文献综述。
模型所依赖的假设似乎是理论工作者的“天敌”,他们一直热衷于对假设的检验和拓展。
对上述市场假设而言,对它的修正和改进产生了两个重要的研究领域:
行为金融和不完全市场研究。
Shiller(1984)和Summer(1986)是两篇行为金融领域开创性的文章,他们假设如果交易者是非理性的或具有怪异的效用函数,如果市场存在有限套利(limitedarbitrage),——即由于市场交易费用或制度限制的存在使得交易者无法对任何套利机会都可以实施套利,然后去研究交易者在这种市场中如何进行最优资产配置和定价。
Shiller(1999)和Shileifer(2000)初步系统化已有的主要行为金融方面的研究成果。
不完全市场的研究可能永远都会是金融领域的研究重点,因为理论模型不可能完全与现实相吻合。
Constantinides(1986)、DavisandNorman(1990)、Vayanos(1998)是研究带交易费用的最优资产配置比较有影响的文献;
CoxandHuang(1989)提出了一种新的鞅表示定理替代一般随机动态规划的方法来研究不完全市场中的资产配置问题。
HeandPages(1993)、Cuoco(1997)研究了在劳动收入与证券组合交易限制(如卖空)情形下的消费-投资问题。
Shapirol(1998)、Verorresi(1999)和XIA(1999)是最近研究不完全市场中资产组合和定价问题的代表作,常被引用。
需特别强调的是,Black(1992,1993)最早研究了在连续框架下的内部交易人(insiders)的交易策略问题,这显然要将微结构理论与不完全市场的研究结合起来。
对价格假设的检验和建模是现代金融理论最为重要也最为活跃的研究领域。
首先价格假设中最重要的莫过于EMH(有效市场假设)(Fama(1970))。
正如Samuelson所言,如果金融经济学是社会科学王冠上一个明珠的话,那EMH将占去它一半的光彩。
与EMH相联系的就是对价格过程的随机游走假设(RWH)和鞅假设,这两种假设都是刻画价格过程一阶矩的不可预测性的。
当然它们有不同的表现形式(Campbelletal(1997))。
尽管Reloy(1973)、Lucas(1978)成功地构造了一个满足EMH的模型,但不满足RWH,在成熟市场(如美国信用市场)人们一般还是将RWH作为EMH存在一个重要检验形式,但在中国这样的新兴市场,这两者之间存在巨大的差距(这一点似乎国内没有多少关注过!
)。
这里我们以成熟市场而言,并且限制仅对弱性EMH进行讨论(三种形式的检验是截然不同的!
仅从待检的单个证券的收益率变量出发,主要集中检验它是否满足RWH。
RWH隐含着收益率序列的不可预测性(仅对一阶矩而言)和等间隔等方差性。
目前已有大量文献结果但一直到现在依然很活跃。
FamaandFrench(1998a)、PoterbaandSummers(1988)从滞后收益率中得到了对当前收益率的有效预测;
对收益率可预测性的实证分析文章很多,如CampbellandShiller(1988a)、FamaandFrench(1988b)、Hodrick(1992)从D/P比(Dividend/Price);
CampbellandShiller(1988b)从E/P比(Earnings/Price);
Lewellen(1999)从市场背书比率(Book-to-marketratios);
Lamout(1998)从红利发放比率(Dividendpaymentratio);
Nelson(1999)、BarkerandWurgler(2000)从新的融资结构;
Campbell(1987)、Hodrick(1992)还从最近的短期利率变化;
LattauandLudvigson(1999a)从收入与财富的消费比例;
LattauandLudvigson(1999b)、FamaandFrench(1989)从商业周期循环的角度等。
这里不包括那些关于滞后很长时间(如2-3年)的均值回复(Mean-reverting)行为的研究。
其实在对收益率序列的预测性进行检验时,RWH认为序列增量是独立的,所以一般都去检验序列增量部分的相关性。
需要强调的是,上述检验文章都是依赖较低频(主要以月度数据为主)的交易数据库,而不同的数据库是完全可以得到迥然不同的结论的(Wood(2000))。
Campbell(1999)也发现了收益率的预测性在较低频数据中表现的要比较高频数据显著的多,比如用D/P比来预测的话,用月度数据与用年度数据和两年度数据相比,可预测性部分由2%提高到18%和34%。
所以高频数据的分析在这个领域也是必不可少的。
HeatonandLucas(1999)再次表明收益率在不同频率的数据下都存在可预测性部分。
对于高频数据的实证结果我们将在下节介绍。
对收益率可预测性检验还可以从多变量角度出发,也就是收益率的横截面数据分析。
对实证而言,如果能够构造一种交易策略,能比较显著地获得额外收益(与利息率相比),都将对EMH构成挑战,因为它“打败了市场”(BeattheMarket)。
DeBondtandThaler(1985)发现了目前良好或极差的证券在36个月后都会有相反的表现,他们把这归因于交易者的过度反应(Overreaction)。
Chopraetal(1992)在考虑市场风险和规模效应的情况下,再次证实他们的发现。
由DeBondtandThaler的发现就可以构造一个Contrarian策略——即卖出目前表现良好的证券,买进表现差的证券,那么在36个月后一定能获得超额利润(相对利息率而言)。
Lakonishoketal(1994)、Frankel(1998)进一步解释这种Contrarian策略存在的原因。
JegadeechandTitman(1993)发现另外一种非常奇怪的“momentumeffect”现象,就是在过去3-12个月中具有高收益的证券未来趋于表现差。
相应地就可以构造一种momentum交易策略。
目前对这一现象讨论得非常激烈。
Rouwenhorst(1998)实证了国际金融市场上的momentum交易策略广泛存在性;
MoskowitzandGrinblatt(1999)意图从公司的产业背景来解释momentum现象;
Chuietal(2000)从产权结构加以诠释;
JegadeechandTitman(2000)评价了各种对momentum现象的解释理论,再次证实了momentum策略赢利性。
有趣的是,Hong(1999)居然得到上述两种奇异现象的统一的理论模型。
如果从横截面分析的公共因子的角度来看,FamaandFrench(1992,1993)建立的因子模型是这方面研究的基础,目前因子模型讨论的文章很多,最新的进展可参见FamaandFrench(1998)、Rouwenhorst(1999)、TitmanandXie(2000)等。
对收益率的建模研究一直在计量经济学占据很重要的位置。
显然对于一阶矩的刻画单从模型角度而言是没有什么意义的,所以人们将注意力都放在了对二阶矩的建模上。
也就是对收益率波动率的计量建模。
正如Bollerslev(2001)所言,ARCH模型和GMM估计是过去20年内金融计量学发展中最重大的创新。
目前所有的波动率模型中,ARCH类模型无论从理论研究的深度还是从实证运用的广泛性来说都是独一无二的,尽管还有一些如SV模型、Switch-regime模型等较为重要的波动率模型。
目前比较好的文献综述型文章有Bollerslevetal(1992)、Engle(1995)、Ghyselsetal(1998)和Shephard(1996)。
这里需要特别指出两个重要的研究成果:
其一是DrostandNijman(1993)、DrostandWeker(1996)建立的基于不同频率数据上的弱GARCH模型的一致性结果,开始从理论上讨论如果数据频率改变的话,所建立GARCH模型之间的内在关系。
第二是Nelson(1990)所建立的GARCH模型的SDE描述的极限形式和Nelson(1996a,1996b)证明了即使GARCH模型不是真实的数据刻画模型,也会得到一致的波动率估计。
Nelson的结果一方面针对GARCH的稳健性,另一方面也为也为离散计量模型与连续SDE刻画的模型之间联系提供一个研究方法。
这两个结果直接和GARCH模型在高频数据中运用有着直接的关系。
附带提一下,一般GARCH模型都是对日数据建模最为合适,Engle(1982)用的英国季度通货膨胀数据建模。
与Engle(1982)同一年在同一杂志(Econometrica)上发表的Hansen(1982)提出GMM估计,尽管最初它只是一篇理论性的文章,但到现在GMM估计已成为计量经济学(特别是金融计量学)中最重要的估计方法之一,主要原因在于GMM估计不要求变量分布函数形式同时又能给出较精确的估计。
在GMM基础上,Gourieroxetal(1993)提出间接推断的估计方法;
GallantandTauchen(1996,1998)提出有效矩估计方法(EMM)。
EMM估计在Singleton(1999)、Gallantetal(1999)得到了很好的估计结果,Tauchen(2001)给出了一个简短的EMM总结。
Bollerslev(2001)认为这几种估计方法将是以后金融计量学(特别是高频数据建模估计)中起到支柱性的作用。
最新的波动率模型有Boudoukhetal(1998)的HYBird模型、EngleandManaganeli(1999)的CAViaR模型、和Embrechtsetal(1997)、McnielandFrey(2000)的尾部极值理论估计等。
现在还不清楚这几种模型与GARCH类模型的之间在ARCH特征刻画方面到底差多少。
在波动率模型未来的研究中,显然有两个重要的发展方向:
多元模型与高频模型的建立、估计检验以及其他性质研究。
Engle(2001)也着重强调了这个发展方向。
的确在过去的金融计量学中,多元GARCH模型一直没有突破性的进展,特别在处理“维数祸根”方面几乎是一筹莫展,也可以说正因于此,多元模型的研究一直处于停顿状态,但多元模型的实际经济意义的不言自明的。
高频数据模型的迅速发展使一元模型的找到了新的发展领域,一者是因为目前计算机的能力和数据的可获得性已为高频模型发展提供了条件,二者也的确为现实的市场参与者的所需要,与之密切相关的是另一个欣欣向荣的金融研究领域:
市场微结构理论——一个以研究市场价格形成过程为目的的研究领域。
从上面对金融计量学的框架分析中,我们粗略可以感受到金融计量学的两大特点:
一是其实证性,也就是要知道目前市场是什么样子以及它是如何演变成这个样子的;
二是其模型化,通过计量模型的建立可以更加精确刻画目前的市场状况从而预测未来金融市场的发展变化。
在微结构理论中,这两点都得到了充分的体现。
如果说GARCH模型是在说明价格过程伴随的波动率是什么样子的话,那微结构理论的核心在于探索已有的价格过程是如何形成的。
自然市场机制设计、不同类型交易者(如Insiders、informedtraders、noisetrader)对市场价格的影响等都是微结构理论的重要研究内容,显然高频数据分析是它主要的研究工具。
O`Hara(1995)是第一本也是目前唯一比较系统地论述一些比较成熟理论成果的专著,Hodrick(1995)和Pagan(1996)给出了某些重点研究领域的总结。
微结构理论其实还是属于金融计量学的价格假设范畴,它对资产配置与定价理论有什么影响呢?
O`Hara(2001)认为这正是未来微结构理论发展的重要方向,她甚至还指出微结构理论与公司财务、宏观福利经济学等之间联系也是重要的研究方向。
下一节中我们将从高频数据分析的计量工具角度在一定程度上回顾这一理论一些经典结果。
二(超)高频数据分析
高频数据即指日与日内的数据,主要针对以小时、分钟或秒为采集频率的数据。
而超高频数据则指对交易过程实时采集的数据(显然是不等间隔的数据)。
一般而言,金融市场上的信息是连续性影响证券价格变化过程,离散模型必然会造成信息的丢失,数据频率越低,则信息丢失就越多。
Wood(2000)详细讨论了国外金融研究中所用的不同频率数据库的历史和对未来实证研究者的数据采集建议。
中国目前(据我们所知)日内数据很难得到,更不用谈超高频数据了。
但是作为一种先进的数据分析工具,高频数据分析迟早都将被中国的理论研究者和金融市场的管理者所接纳。
一般如GARCH等计量模型模型不能解释波动率的驱动因素到底是什么,只有通过高频数据分析才会发现许多市场的微结构因素如实时交易的不等间隔(Engle(2000b))、交易规则和指令流(O`Hara(1995))、和一些交易者的行为因素(Shileifer(2000))等是真正的价格产生波动的原因。
而这些发现无疑在理论研究或在政策建议方面都具有重要的研究价值。
下面我们将把高频数据和超高数据分开讨论,因为它们之间在模型分析而言存在着质的区别。
(一)高频数据分析
对一些成熟市场如美国市场的高频数据实证分析已经得到一些典型的日内数据特征,主要有:
1、波动率日内“U”型走势
也就是说一般每日内的波动率都是开盘与收盘时高,中间交易时间低。
Woodetal(1985)利用分钟数据发现这一点,Harris(1986)也证实的确存在这种现象,AdmatiandPfleiderer(1988)从理论模型出发证明了这一现象的合理性。
JainandJohn(1988)、McinishandWood(1990、1991a、1992)有分别实证了其他交易变量如交易频率、交易量、买卖价差等都具有这种“U”型走势。
2、波动率具有日历性
日历性指周一到周五市场的波动率变化具有很强的“季节性”运动,比如基本都是一样的“U”型走势。
这个结果在1中的文献里也有所涉及。
AndersonandBollerslev(1994)研究了日历性与波动率的持续性之间的关系,他们证明了如果将数据中的日历性剔除,则大大降低较低频率数据中的持续性。
AndersonandBollerslev(1995,1998)进一步研究了日历性的主要影响因素,除了时间刻度,假日、午间休市等影响因素外,规律性的宏观经济信息发布也是重要的日历性的产生原因。
3、价格序列具有极高的峰度
在较低频率的数据中,GARCH模型是可以刻画一些峰度较大的数据特征的,但如果峰度达到了100以上,那GARCH模型就远远不能刻画了。
AndersonandBollerslev(1998)实证表明随着日内数据频率的增加,其数据的峰度也是随之增加的,到分钟数据,峰度就已经得到了100以上了。
4、价格序列一阶负相关性
GoodhartandFigliuoli(1991)、MainishandWood(1991b)实证了日内价格序列是具有负的一阶相关性的,特别在出现一些跳点的情况下。
BollerslevandDomowitz(1993)再次从买卖寻价的数据中找到了这一特征。
LowandMuthusuamy(1996)用5分钟的频率数据验证序列的负相关性,并进一步证明了这种相关性具有非线形的特征。
除了以上4个主要的特征外,高频数据自然还具有一般的ARCH特征(如宽尾,非正态、波动率聚集等)。
对于高频数据的计量建模,目前还没有一种被大家普遍认可的模型框架,就如在较低数据建模中的ARCH模型一样。
但理论界还是存在几类研究比较活跃的高频数据模型。
其一为主要针对日历性的模型。
Dacorognaetal(1993,1994)认为时间纬度是产生日历性的主要原因,在此基础上提出了一种时间变换模型(TimeDeformationModels),有原先的物理时间纬度变成一种他们称之为υ时间刻度下,在进行波动率估计。
BeltrattiandMorana(1998)提出了一种怪异的随机波动率模型(SV模型),这种模型具有类似弱GARCH模型具有的时间聚集性的性质(DrostandNijman(1993,1996)),同时对市场的信息分布也作了一种灵活的处理。
MoranaandBeltratti(2000)进一步推广了这种模型。
在日历性模型中影响最大的要属Anderson和Bollerslev最近几年所作的工作。
AndersonandBollerslev(1994,1995)提出了用一种FFF回归建模框架(FourierFlexibleFormregressionframework),在这种框架下估计量假设没有方差,从而可以在二步法分析中得到真实的波动率值。
但正如PaganandUllah(1988)分析那样,二步分析法对估计量的方差非常敏感。
AndersonandBollerslev(1998b,1999)进一步修正和拓展了他们的估计方法。
ANNetal(2001)利用他们的结果实证分析了香港证券市场情况,效果相当不错。
Baietal(2000)拓展了他们的结果去研究在高频数据波动率估计的依存性和非正态性问题。
其二为对GARCH模型的拓展。
由于GARCH模型在较低频率数据的成功表现,很自然让人们考虑如何将它移植高频数据建模中来。
但到目前为止,就我们所知这方面还没有重大突破性的进展,当然也有一些阶段性的研究成果。
FrancqandZakoian(2000)在DrostandNijman(1993,1996)的弱GARCH模型的基础上,提出了一套弱GARCH模型的估计检验方法,但还没有实证的例子。
Daccorogetal(1996,1998)提出了HGARCH(HeterogeneousGARCH),在GARCH模型的条件异方差项引入时间刻度变换(TimeDeformation)处理技术。
但实证中也没有表现出很强的优越性。
最后就是一些非线形模型。
DunisandBinZhou(1998)收集了主要的一些参数和非参数的非线形处理方法。
这里需要特别提出的是ZhouBin提出F一致性的思想。
经典统计学中一致性是指随样本量无限增大时,统计量所具有的一种良好的大样本性质。
但如果考虑数据频率的不断细分而是样本量无限增大(这和一般统计学中增大样本量存在本质区别!
),那F一致性是指统计量的性质不会随着数据频率改变而改变。
在非参数领域,神经网络、遗传算法和DataMining中近邻分析技术等已在高频数据分析得到一定的应用。
从上面模型介绍中,我们可以看出,目前高频数据的计量建模还处于初步探索阶段,具有很大的研究空间。
相对而言,超高频数据的建模工作似乎更加难上加难,目前主要研究成果基本都是在最近5年内的事情。
(二)超高频数据分析
对于象年度、月或周等较低频率的数据而言,数据的采集时刻和其在相应的在计量模型中所代表的时间可以完全一致的。
但对于日数据就不太可能了,比如每周有两个星期休假日(无交易数据),所以上周五交易日的数据和下周一的数据实际是相差了两个交易日,不同于其他相邻交易日数据之间的时间间隔。
如果象在中国市场上碰上“五一”、“十一”等长假,那前后交易数据之间间隔时间就相差更大了。
可以把这称之为“模型时间与实际时间的不一致性”。
对于日内数据而言,这种不一致性就进一步“恶化”了,即使在日内交易数据之间也会出现这种不一致性。
而对于超高频数据,还会产生另外一种时间的不一致性:
“时间时间和交易时间的不一致性”,也就是说,同一时刻的交易可能会因为交易系统或数据传输等原因从而在不同的时刻发布出去;
而不同时刻的交易也可能在同一时刻被合并称同一数据被发布。
而这些都造成超高频数据的交易不等间隔的随机性,所以也可称超高频数据是一组在随机时刻发生的不等间隔交易数据,这就构成了超高频数据的首要数据特征。
它的第二大特征在于其数据的取值离散性。
一般我们在处理价格过程时,都是假设其为连续变量,从而等价变换成对收益率过程进行考察。
但在超高频数据中,一般每次的价格变化都是离散取值的,而且象NYSE市场都显著集中在1/8$附近(Harris(1986)),显然这就需要一种能够刻画这种价格离散状态(Pricedisceteness)的特别计量模型。
下面我们将集中从上述两个超高频数据的主要特征入手综述目前已有的重要计量模型结果。
1随机时间效应与ACD模型
对于超高频数据中随机时间效应实证分析主要集中从两个角度:
非同步性交易(NonsynchronousTrade)和随机交易间隔(StochasticDuration),其实这只是一个问题不同的角度看而已。
Campbellatal(1997)对非同步性交易的实证分析作了较为详细的描述和总结。
一般可认为非同步性交易可以导致较低频数据中:
(1)一阶滞后横截面相关;
(
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 金融 计量学 高频 数据 分析