首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 125 毫秒
1.
非参数密度估计在个体损失分布中的应用   总被引:9,自引:0,他引:9       下载免费PDF全文
谭英平 《统计研究》2003,20(8):40-5
一、前言所谓个体损失 ,就是每一次保险事故中的损失数额 ,对个体损失分布性状的研究是风险决策理论的重要内容。已有的关于个体损失分布的研究大多着眼于传统的参数统计方法 ,其基本流程为 :获取数据→拟合参数模型→估计模型参数→指出拟合效果 ,也就是说 ,对于损失总体分布性状的了解是建立在确定参数模型的基础上的。自然 ,估计模型参数的方法有很多 ,包括矩估计、极大似然估计、最小距离估计等 ,最终确定的参数模型对个体损失分布通常会有较好的描述 ,能够提供精度较高的分析结果。但在实际操作中 ,这一过程显得太过冗长 ,且对不同样本…  相似文献   

2.
利用保险精算学中信度理论的思想,提出了通过构建以信度因子为权重的叠加分布模型拟合厚尾观测数据的方法。通过剩余期望函数以及P-P图和Q-Q图归纳了常用单一理论分布的尾部拟合性质,并总结了信度加权的叠加分布模型的建模流程。通过矩母函数定义和分析,给出了叠加分布的高阶矩解析式以及叠加分布模型中的四参数矩估计方法。实证分析结果表明信度加权的叠加分布模型比单一分布模型具有更好的拟合厚尾数据的能力。  相似文献   

3.
基于巨灾损失具有厚尾分布的特征,采用POT极值模型分别估计两个保险标的的边缘分布,并用二元Copula函数刻画这两个标的的关联性,同时应用Monte Carlo模拟方法估算巨灾再保险的纯保费。通过对洪水损失数据的实证分析表明:Clayton Copula函数能较好地反映两标的间的相关结构;起赔点的设定是影响纯保费的重要因素,且起赔点按条件分位点取值更优更合理。研究结果对保险人开发多元保险标的的巨灾再保险具有重要的参考价值。  相似文献   

4.
在财产保险中,关于损失分布建模的问题,大部分研究都是着眼于传统的参数统计方法,其基本流程为:获取数据→选择参数模型→估计模型参数→指出拟合效果。在模型的选择过程中,人们一般都会假定总体服从几种常见的分布函数,如Pareto分布、Gamma分布、Log-  相似文献   

5.
极值理论是一种研究极值事件统计规律的方法,文章利用我国火灾历年损失额的数据建立了极值模型.我们发现,利用传统方法描述火灾损失额的统计规律会忽略极值数据的存在,但结合极值分布的建模效果要明显好于传统方法.  相似文献   

6.
由于常用的线性混合效应模型对具有非线性关系的纵向数据建模具有一定的局限性,因此对线性混合效应模型进行扩展,根据变量间的非线性关系建立不同的非线性混合效应模型,并根据因变量的分布特征建立混合分布模型。基于一组实际的保险损失数据,建立多项式混合效应模型、截断多项式混合效应模型和B样条混合效应模型。研究结果表明,非线性混合效应模型能够显著改进对保险损失数据的建模效果,对非寿险费率厘定具有重要参考价值。  相似文献   

7.
财产保险中损失分布建模的方法性研究   总被引:4,自引:0,他引:4       下载免费PDF全文
王新军 《统计研究》2002,19(11):40-43
一、引言在财产保险中 ,保费计价、损失理赔是保险业务的核心问题 ,而保费的定价首先必须知道所考虑险种的损失分布。从大的保险范畴划分来看可以分为两类 :一类是寿险 ,另一类是非寿险。财产保险属于非寿险范畴 ,该险种不同于寿险的保费计价相对简单。因为寿命周期表提供了很大的帮助 ,各寿险公司均可参考利用。但是 ,财产保险就不同了 ,不同的保险标的 ,不同的灾情因素所服从的具体分布是不同的 ,即便是能够判断出所服从的损失分布其参数的确定也是相当困难的 ,有时同一个险种 ,同一个灾情因素随着时间和环境的变化其损失分布也在发生着不…  相似文献   

8.
农业指数保险是一种新型的农业保险产品,在农业风险管理中具有独特的优势和应用价值,但同时也在风险建模和费率厘定中面临着一系列挑战,近年来受到业界和学界的广泛关注。区域产量保险和天气指数保险是目前应用最为广泛的两种农业指数保险,它们在风险定价中面临的挑战主要包括经验数据不足、不同风险之间相依关系复杂、普遍存在基差风险等。通过对区域产量风险建模、天气指数构造及其分布拟合、农业相依风险建模、基差风险度量和控制等方面对相关研究成果的系统梳理和评述,指出了现有定价模型存在的不足和未来研究需要重点关注的问题,对于进一步完善农业指数保险的风险建模方法,提高农业指数保险定价结果的合理性和准确性具有重要现实意义。  相似文献   

9.
复合LINEX对称损失下Pareto分布形状参数的E-Bayes估计及应用   总被引:1,自引:1,他引:0  
在统计决策问题中,统计决策及参数估计的优劣性在很大程度上依赖于损失函数形式的选取.文章主要在在复合UNEX对称损失函数下,研究了Pareto分布在其尺度参数σ已知的情况下利用共轭先验分布求出其形状参数θ的E-Baves估计:并举出具体的数值例子说明其应用性.通过数值分析对其形状参数的Baves估计和E-Baye8估计进行比较,说明后者比前者较优.  相似文献   

10.
孟生旺  李政宵 《统计研究》2018,35(10):89-102
巨灾保险制度在很大程度上依赖于巨灾损失的建模分析。由于巨灾损失通常存在极端值,一般的统计分布很难对其进行有效拟合。本文以我国大陆地区1950-2015年期间的地震灾害为研究样本,基于二维泊松过程建立了地震灾害死亡人数的预测模型。根据地震死亡人数的分布特征,将地震灾害分为非巨灾事件和巨灾事件,分别用右截断的负二项分布和右截断的广义帕累托分布拟合死亡人数;用齐次泊松过程描述地震灾害在给定期间的发生次数;用Panjer迭代法和快速傅里叶变换计算地震死亡人数在特定时期的分布以及风险度量值;用蒙特卡罗模拟法测算我国地震死亡保险基金的规模和纯保费水平。与传统的巨灾模型相比,本文提出的方法同时考虑了地震灾害发生的时间和地震死亡人数两个维度,并用贝叶斯方法估计模型参数,对地震死亡人数的拟合更加合理,为完善我国地震死亡保险提供了一种新的思路。  相似文献   

11.
沈吉仁 《统计研究》2002,19(10):53-56
 在计划经济时期,生产由国家计划安排,产品由国家统购分配,生产企业和流通企业之间以计划为纽带,不存在市场问题,也不存在市场营销方式的选择问题,:买断包销制“的流通模式使我国的流通领域始终没有得到长足的进步和发展,流通企业基本上处于“小、散、差”的状况。从90年代开始,我国的物资流通企业陷入前所未有的困境,市场占有率骤降,经营亏损面不断扩大。究其原因,主要是以计划经济体制为主要特征的流通营销方式已经满足不了市场经济的发展要求,物资企业必须适应市场经济的需要,选择适合自身特点的营销方式,主动开拓市场,才能求的生存,求得发展。  相似文献   

12.
A variable delay process sampling procedure is considered in a Markov chain structure. The paper extends the basic sampling method given in Arnold (1970). Analytic properties of the process are developed for expected sample size and distribution of the sample size. A primary concern in the paper is the development of an objective function to enhance ability to select optimal sampling policies. The objective function involves cost due to sampling and protection costs for detecting undesirable conditions.  相似文献   

13.
引入持仓量的沪铜指数长记忆波动性研究   总被引:1,自引:0,他引:1  
通过协整关系检验、误差修正模型、向量自回归模型、格兰杰因果关系检验、脉冲响应函数证明了在建立模型时引入持仓量序列的必要性。运用修正R/S分析,建立了沪铜指数收益率波动的ARFIMA、FI-GARCH、ARFIMA-FIGARCH模型,并运用此种模型对沪铜指数的收益率序列rt、收益率波动序列|rt|及残差序列|εt|进行相关研究和分析,结果表明:ARFIMA(0,d1,0)-FIGARCH(1,d2,1)模型的预测效果比较好。  相似文献   

14.
购买力平价(PPP)测算方法研究评述与展望   总被引:1,自引:0,他引:1       下载免费PDF全文
王磊 《统计研究》2012,29(6):106-112
购买力平价(PPP)可为发行不同货币的国家间比较提供比汇率法更加可靠的数据基础,因此其在国际经济比较领域的应用日益广泛。本文对现有的PPP测算方法按照指数法和随机法两大板块进行了综述,包括了传统的EKS法、最小间隔树法、链式法、星形法、平均价格法、原始CPD法、CPRD法等基本方法,以及此后发展的加权EKS法、特征CPD法、空间CPD法和加权CPD法,简要评述了这些方法的基本思想及各自的优缺点。随后,本文详尽总结了两大类方法的发展脉络,深入探讨了这些方法的适用性问题,并作了研究展望。  相似文献   

15.
This case-study fits a variety of neural network (NN) models to the well-known air line data and compares the resulting forecasts with those obtained from the Box–Jenkins and Holt–Winters methods. Many potential problems in fitting NN models were revealed such as the possibility that the fitting routine may not converge or may converge to a local minimum. Moreover it was found that an NN model which fits well may give poor out-of-sample forecasts. Thus we think it is unwise to apply NN models blindly in 'black box' mode as has sometimes been suggested. Rather, the wise analyst needs to use traditional modelling skills to select a good NN model, e.g. to select appropriate lagged variables as the 'inputs'. The Bayesian information criterion is preferred to Akaike's information criterion for comparing different models. Methods of examining the response surface implied by an NN model are examined and compared with the results of alternative nonparametric procedures using generalized additive models and projection pursuit regression. The latter imposes less structure on the model and is arguably easier to understand.  相似文献   

16.
Abstract

In this article, we consider a panel data partially linear regression model with fixed effect and non parametric time trend function. The data can be dependent cross individuals through linear regressor and error components. Unlike the methods using non parametric smoothing technique, a difference-based method is proposed to estimate linear regression coefficients of the model to avoid bandwidth selection. Here the difference technique is employed to eliminate the non parametric function effect, not the fixed effects, on linear regressor coefficient estimation totally. Therefore, a more efficient estimator for parametric part is anticipated, which is shown to be true by the simulation results. For the non parametric component, the polynomial spline technique is implemented. The asymptotic properties of estimators for parametric and non parametric parts are presented. We also show how to select informative ones from a number of covariates in the linear part by using smoothly clipped absolute deviation-penalized estimators on a difference-based least-squares objective function, and the resulting estimators perform asymptotically as well as the oracle procedure in terms of selecting the correct model.  相似文献   

17.
The uniformly minimum variance unbiased, maximum-likelihood, percentile and least-squares estimators of the probability density function and the cumulative distribution function are derived for the generalized exponential-Poisson distribution. This model has shown to be useful in reliability and lifetime data modelling, especially when the hazard rate function has a bathtub shape. Simulation studies are also carried out to show that the maximum-likelihood estimator is better than the uniformly minimum variance unbiased estimator (UMVUE) and that the UMVUE is better than others.  相似文献   

18.
Constructing pair-copula using the minimum information approach is an appropriate and flexible way to survey the dependency structure between variables of interest. Minimum information pair-copula method approximates multivariate copula by applying some constraints between desired variables that are elicited from the data itself or experts’ judgment. In minimum information pair-copula, selecting basis constraints is a challenge. In this article, we apply genetic algorithms as a heuristic way to select basis constraints to optimize approximated pair-copula. The results gained show that our method optimizes model selection criteria and lead to better pair-copula approximation. Finally, we apply our proposed method to approximate pair-copula density in real dataset.  相似文献   

19.
Manufacturers are often faced with the problem of how to select the most reliable design among several competing designs in the stage of development. It becomes complicated if products are highly reliable. Under the circumstances, recent work has focused on the study with degradation data by assuming that degradation paths follow Wiener processes or random-effect models. However, it is more appropriate to use gamma processes to model degradation data with monotone-increasing pattern. This article deals with the selection problem for such processes. With a minimum probability of correct decision, optimal test plans can be obtained by minimizing the total cost.  相似文献   

20.
农民工是中国人力资源的重要组成部分。从智能、技能、体能和心能四个维度构建农民工可雇佣性模型,根据调查问卷收集数据,运用结构方程验证了农民工可雇佣性模型的合理性,研究了农民工可雇佣性及其各维度间的关系。结果表明,各维度对农民工可雇佣性影响程度依次为:技能、心能、智能和体能。农民工因年龄、文化程度不同,在可雇佣能力、技能、心能和智能方面存在显著性差异,但是在体能上没有显著差异。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号