加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

Solvency II和DFA的国际研究前沿综述和分析

(2008-10-06 21:46:23)
标签:

保险

dfa

建模

财经

分类: 精选

保险研究博客圈期待您的参与! 点击加入

 

    在当前国际保险研究领域,有两个相互关联的动向值得关注,其一是欧盟国家保险监管的统一框架Solvency II的进展,其二就是公司层面新的分析工具——动态财务分析(DFA: Dynamic Financial Analysis)的采用和发展。Solvency II的重要性不仅在于它激发了人们对全球多种监管模式的反省和思考,尤其对美国模式的反思;更重要的是,在持续的发展和完善之后,它很有可能成为全球保险业的Basel II,即不成文的、但在事实上又是全球监管当局遵循的规范。这就使得Solvency II的研究与我国保险业息息相关。DFA的流行和发展,新的监管模式的浮现是其中的一个重要动因,该方法灵活、全面、动态、多情景的特点是它在近年来受到国际大型保险公司青睐的根本原因。DFA能够处理包括偿付能力分析与预测、资本充足测试、资本测试、再保险决策等重大决策问题。可以说,DFA是当前很多大型国际保险公司保持竞争力的重要工具之一,而在将来,它可能会成为各大保险公司必须掌握的分析手段之一。
    一、监管层面:Solvency II的主体内容和若干前沿问题
    Solvency II 是正在建设中的欧盟的统一保险监管框架。它的“前传”是2004年1月生效的Solvency I。Solvency I的主要目的是欧盟多个监管组织之间的协调、建立起最小资本要求的基本框架;而Solvency II的关键任务是建立起以资本标准为核心的保险公司整体风险管理体系。Solvency II的基本时间表是2007年提出Solvency II指令的讨论稿;2010年之前完成细化工作并形成正式文件;大约在2011年左右正式实施。Solvency II受到研究者密切关注的原因不仅是因为它涉及多组织协调,激发了人们对当前世界上多样的保险监管模式的比较和反思,还因为它有可能在发展和完善之后成为类似Basel II那样的非强制的、但在实质上是全球保险监管遵循的“统一”标准。
    1.Solvency II的程序与主体内容
    Solvency II的制定和完善是在欧洲议会—欧盟委员会—CEIOPS(Committee of European Insurance and Occupational Pensions Supervisors)的领导下有组织地进行的,它的修改和制定遵从著名的Lamfalussy立法程序(见表1)。迄今,它的发展经历了两个阶段。第一阶段是2001年5月到2003年4月,建立总体框架;第二阶段是2003年12月到现在,细化规则和指导原则。已发布了两份重要的研究报告,一是KPMG报告(KPMG, 2002),关键的结论是:建议采用类似Basel II的“三大支柱”框架。二是 “夏玛报告”(Sharma Report, 2002),提出“三点建议”(资本充足与偿付能力、早期预警、管理能力与内部控制保障),成为Solvency II中第二支柱的实际指导原则(Linder, Ronkainen, 2004)。经过多轮讨论和征求意见,已于2007年7月10日发布了Solvency II 指令讨论稿(Solvency II Directive Draft)。

Solvency II的立法程序

1 

Solvency <wbr>II和DFA的国际研究前沿综述和分析

注:EIOPC=欧洲保险和职业养老金委员会;CEIOPS=欧洲保险和职业养老金监管者委员会。

    Solvency II的主体内容可以概括成为“三大支柱”与“双层资本计算”(Linder, Ronkainen, 2004)。第一支柱采用定量的模型确定最低资本要求(minimum capital)和目标资本要求(target capital)。资本计算中考虑的风险主要分成4大类(European Commission,2004;International Actuarial Association,2004):承保风险(underwriting risk);信用风险(credit risk);市场风险(market risk)和操作风险(operational risk)。第二支柱主要是关于保险公司风险管理内部控制体系,实际上是确定建立起配套的保险公司内部风险控制的组织、制度、报告系统以及现场监管的指导原则。第三支柱是关于建立透明的信息披露制度的指导原则,即所谓的市场约束(market discipline)。而双层计算,是指最低资本要求和目标资本要求的计算采用不同的模型。最低资本通常采用基于标准准则的简单计算方法(EU Directive 2002/13/EC for nonlife insurers and EU Directive 2002/83/EC for life insurers)。以非寿险公司来说,计算最低资本要求的基准是基于保费的边界值:保费小于5 000万欧元的,取18%;多于5 000万欧元的部分取16%;两者求和。再计算基于赔付的边界值:赔付小于3 500万欧元的,取26%;多于3 500万欧元的部分,取23%,两者求和。取两类边界值的大者作为最小资本要求。而目标资本在理论上等同于Basel II中的经济资本,也就是要将风险控制在一个高的置信水平上(如99.9%),须设置多大的资本以应对该置信水平下的非预期损失。目标资本的计算可以采用两类方法,一是内部模型法,二是标准法。正如内部评级法是Basel II的最大创新一样,内部模型法是Solvency II的最大创新,它们的共同特征就是能够使得基于内部模型(或评级)计算得到的目标资本(或经济资本)是激励相容(incentive-compatible)的,避免“监管套利”现象的出现。相对于Basel II而言,Solvency II中目标资本计算的标准法还很不完善,目前甚至还没有一个统一的模型。德国保险协会开发的一套标准法模型被认为是目前最好的模型之一(German Insurance Association,2005)。
    2.Solvency II的若干前沿问题
    (1)风险整合。Solvency II区别于Basel II的一个显著的特点是对多种风险进行整合计量、采用的是整体风险管理框架(holistic risk management approach),而不是对每类风险进行单独的计量和管理。这其实也是由保险公司的特点决定的,保险公司经营的实际上就是“风险”,它涉及到的风险类型要比银行更加繁多,风险之间的关联也更加密切,采用风险整合的方法进行计量和管理更加合适。Rosenberg, Schuermann(2006)讨论了银行背景情况下,如何用Copula函数获得信用风险、市场风险和操作风险整合在一起的总体风险度量,可以借鉴。在保险研究领域Wang (2002)也系统地讨论了如何使用Copula和蒙特卡洛模拟方法相结合度量整体风险。但是Copula方法涉及到繁复的计算,这给操作层面的推广带来了较大的困难。
    (2)保证资本要求的“激励相容性”。解决这个问题的关键是找到一个合适的风险度量指标。自Artzner et al. (1999)的著名论文发表以来,人们开始对十分流行的风险度量指标VaR(value at risk)特别小心,因为它不具备次可加性(subadditivity)的性质,因而不是一个一致性(coherent)的风险度量指标。一个一致性的风险度量是激励相容的风险管理行为的基本条件。然而,在最近的一个研究中,Dhaene et al (2008)却又指出,一些常用的一致性风险度量方法(如条件VaR)却因“太具有次可加性”而导致风险管理行为的效率降低。次可加性、一致性与激励相容的风险管理行为之间的关系,激励相容的风险管理是否一定需要一致性的风险度量指标,一致性与激励相容性在风险管理中谁的优先等级更高,这些基本的理论问题还没有答案,值得深入地研究。
    (3)合适的“监管度”。监管严格程度的把握是需要高度技巧和丰富经验的。如果监管过于严格,可能有利于市场效率的促进。但同时也可能会削弱保险公司的竞争力,因为需要多出“效率前沿”的资本。更重要的是,还可能会导致价格的上升,损害消费者的福利(Cummins, Nini, 2002)。Harrington (2004)指出:“基于风险的严格资本监管,即使在最好的条件下,也常常是不准确的,它的益处极其有限。”目前,还没有度量监管体系的实际成本与收益的正式研究(Eling, Schmeiser, Schmitt, 2007)。
    (4)保险公司失败预警模型的建立。这方面的研究主要集中于影响因素的研究和模型的选择两个方面。分析关键影响因素的代表性的文献如Pottier, Sommer(1999),它利用1678家P/L的评级结果和相关数据,采用顺序概率模型进行研究,分析了三家代表性的保险信用评级公司(Best,S&P,Moody),确定保险公司信用等级时考虑的关键因素,同时还比较了它们评级结果的差异及其原因。Grace, Harrington (1994) 认为结合了FAST指标和风险资本充足率指标的Logistic模型能够更有效地识别出保险公司的偿付能力风险。第二类研究侧重于预警模型的建立和比较。已使用过的建模方法包括线性回归模型(Harrington,Nelson,1986),多分类线性判别(Trieschmann, Pinches,1973)、多分类Logistic回归(Florez-Lopez, 2007)、顺序概率模型(Pottier, Sommer,1999)、危险比例模型(Lee,Urrutia,1996)、人工神经网络模型(如Brockett, Copper,Golden and Pitakong, 1994;Kramer,1995)、基于机器学习的模型(Gestel,etal.,2007)。Brockett, Golden, Jang and Yang (2006)利用得克萨斯州保险局1991~1994年的数据,采用4套评价指标和两类评价标准对神经网络模型和统计模型的效果做了比较,认为神经网络模型要优于统计模型。Lee, Urrutia (1996)则对Logistic模型和危险比例模型做了比较,认为Logistic模型的效果要比危险比例模型好。
    (5)监管体系的比较。目前十分需要对几类典型监管体系(主要包括:美国的基于风险的资本监管体系、瑞士的体系、荷兰以及英国的体系、德国建议的体系)效率与效果进行深入的、正式的比较研究。通过比较可以看出Solvency II值得学习的经验和教训。现有的经验表明,美国式的基于风险的资本监管方法并不成功,而德国保险协会提出的模型、瑞士模型以及英国和荷兰使用的模型可能更值得借鉴(Eling,Schmeiser,Schmitt,2007)。同时,基于美国的实证研究证据,还可以得出一个有意思的结论:监管的效果并不是与模型的复杂程度成正比(Cummins et al.,1995;Grace et al.,1998;Pottier and Sommer,2002)。
    (6)支柱3。即如何建设与国际会计准则接轨的高质量的数据库,以提高保险公司信息披露的透明度。以提高透明度、及时披露为核心内容的第三支柱“市场约束”对提高监管的效力有着十分重要的作用。Harrington (2004)甚至指出:市场约束在创造一个强健的、偿付能力充裕的保险业方面发挥的作用常常比严格的监管更大,这是因为透明度的提高将会给保险公司带来很大的来自市场的压力,使它必须将风险控制在合适的水平上。提高信息的透明度,需要在第三层次上的3个监管委员会(Committee of European Securities Regulators (CESR), Committee of European Banking Supervisors (CEBS),以及 CEIOPS)之间的协调和信息共享。
    二、公司层面:动态财务分析(DFA)的框架和若干重要问题
    为了应对新的监管要求、日益加剧的市场竞争和最优投资决策要求,DFA方法的重要性在近年来愈加凸显(Eling,Parnitzke,2007),是近年来保险公司管理研究的热点问题。动态财务分析方法的基本思想是在不同情景设置下,对保险公司的现金流建模,以分析保险公司的资产价值、负债的价值和损失概率以及整体盈亏情况(Casualty Actuarial Society,1999;Blum,Dacorogna,2004)。在过去几年中,越来越多的保险公司采用DFA作为强有力的分析工具。其关键原因是,DFA是一种能够解决偿付能力分析与预测、资本充足测试、资本测试、再保险决策等重大问题的有效手段。在目前监管者鼓励保险公司利用内部模型确定风险资本的背景下,DFA得到很多一流保险公司的青睐。可以预见的是,随着基于风险的资本监管逐渐得到世界各国监管当局的认同,并逐步付诸实践,保险公司在不久的将来将会更多地倚重于基于DFA等分析方法的内部模型。
    关于DFA这个术语,有两个相近的词:资产负债管理(ALM:Asset Liability Management)和资产负债表管理(BSM:Balance Sheet Management)。它们实质是相近的方法,一般对非寿险保险公司,用DFA这个术语;对寿险公司用ALM这个术语;对银行用BSM这个术语(Blum,Dacorogna,2004)。本文主要对DFA进行综述。
    DFA的发展起源于实际工作的需要,它的发展历史还很短,一般地将1990年代末看成它的开端(Casualty Actuarial Society,1999;Blum,Dacorogna,2004)。它的主要推动者是北美非寿险精算协会(CAS:Casualty Actuarial Society),该协会成立了专门的动态风险研究委员会 (Committee on Dynamic Risk Modeling),致力于包括DFA在内的研究。该委员会已经发布了关于DFA的两本手册,第一本是1999年的《DFA研究手册》,第二本是正在进行中的新版《DRM研究手册》。
    1.DFA的框架
    图1给出了一个DFA的一般性框架。总体上,DFA分为建模(modeling)、模拟(simulation)、分析/决策(interpretation)、验证(verification)四个主要的阶段(Eling, Parnitzke, 2007)。
    (1)建模阶段。须将保险公司简化成若干关键变量及其随机影响因素,同时还要考虑到外部环境因素。从财务的角度来看,保险公司可以抽象成资产和负债。资产方主要包括股票投资、债券投资、其他类型投资等,对应的随机影响因素有:股价的波动、利率的波动与期限结构、通货膨胀。提供保险保障永远是保险公司第一位的职能,因此负债(主要是承保业务)方的建模是DFA的核心,也是区别于其他金融机构建模的关键。负债方建模的核心内容是损失分布、预期的赔付支出。同时,再保险的影响也在这个部分体现。夏玛报告和Solvency II第二支柱都深刻地揭示了管理在保险公司中至关重要的作用。因此,在保险公司建模时,必须要体现出管理的影响,但这是一个比较困难的问题。同时,保险公司作为一种金融组织,它必然生长于一定的金融、经济甚至政治、文化生态之中,外部环境因素的影响是不容忽视的。主要的外部因素包括:竞争者、监管(如:投资限制、税收、会计准则等)、资本与货币市场(如:利率、汇率等)。另外,建模阶段还有一个十分重要的工作,即“校准”(calibration),就利用可靠的历史数据,确定模型中主要参数的“基准值”,作为后面情景模拟(scenarios simulation)的基础。
    (2)模拟分析阶段。这一阶段技术性很强,要使用到大量的现代金融工程和精算学的模型和方法。这个阶段的关键是设计建模阶段确立的随机影响因素的“发生器”(generators),也就是要设计这些随机变量变化的不同路径,而后计算不同路径(即情景)下我们关心的关键指标(如收益率、风险、经济附加值EVA、偿付能力指标、决策影响等)的值。如果模拟的情景足够多(通常至少在10 000次以上),就可以得到这些关键指标的分布。重要的发生器包括:利率发生器、汇率发生器、通货膨胀发生器、股价发生器、损失发生器。模拟阶段涉及很多的技术问题,还有很多问题需要继续深入地研究。
    (3)分析/决策阶段。很多时候,会将风险类与收益类的指标结合起来综合权衡,采用类似组合管理中的前沿面(frontier)分析方法(Kaufmann,Gadmer,Klett, 2001;Blum,Dacorogna,2004)。
    (4)验证阶段。即在根据模拟结果经过权衡做出决策后,经过一段时间的实际运行,对比实际发生的情景与模拟的情景,根据差异对模型进行优化设计,甚至可以重新进行模拟分析。

Solvency <wbr>II和DFA的国际研究前沿综述和分析

 

图1  DFA的一般框架 
注:根据Blum,Dacorogna,2004;Eling,Parnitzke,2007两者的结合,由本文作者绘制。

    2.DFA的若干重要问题
    (1)DFA的主要优缺点(见表2)

DFA的主要优缺点

 

Solvency <wbr>II和DFA的国际研究前沿综述和分析

    (2)负债的建模。首要的难题是如何选择合适的损失分布。一个非寿险公司可能会有多个产品线,有的产品的损失比较一致(如车辆事故),但有的产品的损失却有可能有很大的特殊性(如自然灾害),不同产品线的损失服从不同类型的分布,这给负债的建模带来了极大的困难和复杂性。负债中损失分布建模的大致步骤是:首先产生之间的均匀分布的随机数,用该随机数模拟损失发生的概率,通过求的反函数即可得到损失的模拟值。这其中关键的问题有:第一,要保证是真正相互独立的。由于DFA模拟的路径个数很大(有时会数以10万计),一些产生伪随机数的算法在这样的情况下容易出现循环的问题,因此需要进行伪随机数的“循环长度”(cycle length)和“一步系列相关”(one-step serial correlation)的检验(Bratley et al.,1987)。第二,损失分布的选择。首先要尽量找到能够很好拟合损失历史数据的统计分布,用极大似然等方法估计出它的参数,然后再用拟合检验的方法选择最合适的分布。如果不能得到有具体表达式的参数分布,可能尝试使用Monte Carlo模拟中的“分位点转换”(quantile transformation)方法(Frey, Nieben, 2001)或非参数、半参数的方法。
    巨灾损失的建模通常采用“频率—损失程度”(frequency-severity)的设置通过随机模型(stochastic models)进行模拟分析(Blum,Dacorogna,2004)。也可以考虑采用描述分布的尾部行为的方法对巨灾等极端损失进行模拟。常用的方法有Hill估计方法(Hill, 1975)及一些非参、半参数方法(Embrecht, 2003)。另外,目前已开发出一些专门的处理巨灾损失建模的软件,如CATrader(www.airboston.com), RiskLink(www.rms.com),EQEcat(www.eqecat.com)。
    负债建模的第二个难题是如何考虑再保险的影响。此时须同时考虑比例型再保险和非比例型再保险。而再保险的建模与前面的巨灾损失的建模又是相互关联的。Lowe, Stanard(1997)专门讨论了如何利用DFA进行再保险的建模和决策。Blum, et al.(2001)采用DFA方法研究了汇率风险对再保险决策的影响。而de Lange,et al(2004)则采用了随机规划的方法研究了再保险的确定。
    (3)主要影响因素建模。资本与货币市场的主要变量(包括利率、汇率、股票价格等)对资产方有着至关重要的影响,是DFA中情景设计的重要发生器变量。对它们建模的第一个困难是如何表达它们之间复杂的相关性,一个办法就是“Cascada模式”(Warthen III,Sommer,2001):即对这些变量进行逐步模拟。第一步,首先模拟一个主要变量(如短期利率)。接着,模拟其他变量,此时要考虑前面步骤中模拟的变量的影响(如Kaufman, 2001)。短期利率是最重要的影响变量,由于存在很多种利率模型,须根据数据的实际情况进行认真的选择。Rogers (1995)专门讨论利率模型的选择问题,提出了5条原则:灵活、简单、可估计、高拟合、均衡模型。利率模型的一个经典参考书是Jarrow(2002),较新较全面的介绍可见于Cairns(2004)。股票价格的模拟要充分地体现出均值反转(mean-reverting)、跳跃(jump)等特征,才能较好地反映其实际的运行规律。对股票价格的模拟更多地需要借助于随机过程的分析工具。这方面可以参考Rolski et al.(1999)和Hull (2003)。
    3.结论与建议
    (1)监管模式的演进和企业行为的适应性调整是全球保险业须面对的至关重要的战略性课题。Solvency II和DFA分别代表了这两个层面的发展动向。对这两个问题及早做出细致的研究、探讨、直至实质性的举措,将会是具有深远影响的战略举措。
    (2)关于Solvency II的研究。从政策借鉴的层面上看,以Solvency II为中心,展开多种监管模式正式的比较研究,梳理和总结不同模式的优缺点、经验和教训可能是当前最需要的。从学术研究的角度来看,最具吸引力的可能是多风险的整合度量及其对应的资本计算问题。
    (3)关于DFA的研究。就我国保险公司的操作层面上看,目前比较现实的选择是进行一些试探性的实验,通过这些实验分析DFA在我国实施的主要障碍,然后设法寻求解决的途径。从学术研究的角度来看,对我国而言,最大的挑战是外部随机变量发生器的设计,因为我国的资本与货币市场、外汇体制有很大局限性,适用于成熟市场的利率、汇率模型,对我国的情况是否适用、不适用如何调整,这是一个充满着暗礁与漩涡的深水域。

 

 

作者简介:石晓军,北京航空航天大学经济管理学院;郭金龙,中国社会科学院金融所。

来源:《保险研究》2008年第9期

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有