首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 31 毫秒
1.
基于残缺的样本观测数据,文章讨论了双参数指数分布总体尺度参数的区间估计问题.给出了适用于残缺观测数据的构造置信区间的一种新方法,讨论了枢轴量的精确分布和大样本近似分布,得到了尺度参数的近似置信区间.这个结果还适用于样本中可能存在异常数据的情形,具有稳健性.  相似文献   

2.
文章首先定义了等级数据缺失形态,考虑了等级数据缺失形态下,两个多元正态总体的均值向量的推断问题.在假设两总体协差阵相等的前提下,提出了一类似于Hoteelling T2的枢轴量,并用等矩方法近似它的分布,利用该分布做检验与区间估计.近似的精确性通过蒙特卡洛数据模拟加以说明,模拟结果证明,即使对小样本,该近似结果也非常满意.  相似文献   

3.
文章针对大量复杂的靶场观测数据,通过构造初始拟合数据,利用B样条曲线的方法构造递推模型,使用基于样条平滑方法估计的判断门限对双向检验的结果数据是否异常进行判定,并且对满足修复条件的数据进行拟合修复,当双向检验的结果不同时,通过构造内推模型来进一步检验。实例分析表明:文章提出的方法相对其他方法能更有效地剔除异常数据,通过数据分段处理能更有效地检验那些可能产生阶段性跳跃的数据,使得模型具有更好的稳定性、更广的适用性和更高的异常数据剔除率。  相似文献   

4.
文章首先用小波Mallat算法对RMB/JPY汇率一阶差分数据进行了分解和单支重构,并对单支重构后的近似分量和细节分量进行检验,证实存在条件异方差性;然后,对近似分量和细节分量分别建立了条件异方差模型,同时检验了近似分量序列与原始差分序列的"杠杆效应",显示出一致的结论;最后,对各模型的均值和波动率进行了预测,结果显示结合小波后的预测效果要优于传统的预测模型.  相似文献   

5.
张瑾 《统计与决策》2005,(15):136-137
在大型的数据集中,通常包含一些数据对象,它们与数据的一般行为或既定模型表现不相一致,这些数据对象被称为异常数据.大部分数据挖掘方法将异常数据视为噪声或异常而丢弃;然而在一些数据探索中,如保险欺诈、信用卡欺诈、违规交易等检验中,罕见的事件可能比正常出现的事件更有意义.因此,在利用原始数据进行挖掘之前,有必要对其进行异常数据的查找和检验.  相似文献   

6.
基于经典计量模型的统计数据质量评估方法   总被引:6,自引:2,他引:4       下载免费PDF全文
刘洪  黄燕 《统计研究》2009,26(3):91-96
 本文以经济理论为基础,从整个经济系统出发,利用研究对象的相关影响因素构造计量模型,在既定模型下,运用异常值的检验方法及统计诊断原理进行数据质量的定量评估。通过选择合适的模型对考察对象的变化规律进行模拟,找出异常数据(离群值),判断异常数据是否显著异常,对异常数据进行多方查证和原因分析来进一步判断数据的质量,并对我国的统计数据质量进行了实证分析。  相似文献   

7.
王明进 《统计研究》2008,25(6):83-87
 本文考察了基于谱估计的拟合优度检验在判断时间序列鞅差性质方面的应用,提出了利用Wild Bootstrap来近似该类检验统计量渐近分布的方法,通过模拟试验揭示出新的方法改进了检验的水平并提高了其功效,最后比较了不同方法在分析实际金融数据时的不同效果。  相似文献   

8.
文章首先介绍了危机“传染性”计量检验的两种分析框架:基于潜因子的分析模型和结构回归分析模型,同时给出了一些具体的检验方法,主要包括:Forbes和Rigobon的可调节的相关检验和多元“邹”检验,Favero和Giavazzi的“异常点”检验,Pesaran和Pick的阀值检验等。为检验这些方法的有效性,采用随机单位根过程作为经济数据的变迁过程,发现“异常点”检验和阀值检验可以更好地捕捉到危机传染的时间特征。  相似文献   

9.
谭祥勇等 《统计研究》2021,38(2):135-145
部分函数型线性变系数模型(PFLVCM)是近几年出现的一个比较灵活、应用广泛的新模型。在实际应用中,搜集到的经济和金融数据往往存在序列相关性。如果不考虑数据间的相关性直接对其进行建模,会影响模型中参数估计的精度和有效性。本文主要研究了PFLVCM中误差的序列相关性的检验问题,基于经验似然,把标量时间序列数据相关性检验的方法拓展到函数型数据中,提出了经验对数似然比检验统计量,并在零假设下得到了检验统计量的近似分布。通过蒙特卡洛数值模拟说明该统计量在有限样本下有良好的水平和功效。最后,把该方法用于检验美国商业用电消费数据是否有序列相关性,证明该统计量的有效性和实用性。  相似文献   

10.
刘洪  黄燕 《统计研究》2007,24(8):17-21
 本文采用组合模型的形式对时间序列数据的变化特点建模,在模型通过各种检验、具有良好统计预测功能的基础上,从检验异常值的角度来分析预测值与实际值之间差异的程度,找出离群数据,利用数理统计中检验实验观测数据异常值的方法,对离群数据的误差进行统计上的显著检验,从而评估统计数据的质量。文章以我国国内生产总值(GDP)为研究对象,选取我国1978-2003年间的GDP作为样本,运用趋势模拟评估法来评估我国2004年国内生产总值的准确性。对我国经济指标的时间序列数据进行了实证分析。  相似文献   

11.
异常数据的存在通常会导致经济数量分析得出有偏误的甚至是错误的结论,因此必须进行数据质量的诊断。本文介绍并研究了一种多维经济数据诊断的有效方法——"投影寻踪法",并以中国"GDP增长-消费增长"数据为例进行了实践检验,证明了它不但可以诊断出数据中的异常值点,而且可以充分保留和利用多维数据的结构性和相关性关系。  相似文献   

12.
混合地理加权回归模型作为一类能简单有效解决空间非平稳问题的数据分析方法已经得到了广泛的应用.在利用该模型分析实际数据时,一个或多个特殊观测点的存在能导致估计结果发生较大改变.为了能有效检测出异常点,系统研究这类半参数模型的统计诊断与影响分析.首先基于数据删除模型定义了参数分量对应的Cook统计量,其次,基于均值漂移模型讨论了异常点的检验问题,构造了相应的检验统计量.  相似文献   

13.
Box-Pierce Q检验采用近似卡方分布分析时间序列的平稳性特征,其检验统计量的参数选取将影响到检验结果.文章多个Q值提取平稳性特征,在此基础上建立新的平稳性判定准则,该准则是自相关函数序列收敛的充分条件;采用欧氏函数作为平稳性特征的相似性度量,借助k-means聚类建立平稳性分类方法;该方法在平稳性分析过程中充分考虑了样本之间的关联性,避免了传统Box-PierceQ检验对统计分布和临界表的过度依赖.实验结果表明,新方法能有效地处理海量时间序列数据,且准确率高于Q检验和ADF检验.  相似文献   

14.
本期导读     
统计数据的准确性是统计数据质量钓最重要特征.怎样去判断其准确性呢?作者在<组合模型对统计数据准确性检验的适用性研究>一文中,以我国GDP数据的准确性为例,根据Cramer分解定理的基本理论,运用异常值检验法对2001~2007年我国GDP数据的准确性进行了检验和分析,证明了组合预测模型在统计数据准确性检验中的适用性总体上不强,并提出了模型改进应用的思路,可供参考.  相似文献   

15.
文章以GDP数据的准确性为例,根据Cramer分解定理的基本理论对我国GDP数据时间序列建立了确定性趋势模型,对模型得到的平稳残差序列拟合ARMA模型;将两种模型组合起来对我国GDP数据进行预测,用预测值代表"真值",考察了预测值与观察值之间的差异;用异常值检验法对2001~2007年我国GDP数据的准确性进行了检验和分析,证明了组合预测模型在统计数据准确性检验中的适用性总体上不强,并提出了模型改进应用的思路.  相似文献   

16.
基于ARIMA模型的中国煤炭消费量增长预测   总被引:2,自引:0,他引:2  
我国煤炭消费量序列是一组依赖于时间变化的随机变量,可用ARIMA模型予以近似描述。文章运用1965~2006年我国煤炭消费数据建立了ARIMA(2,1,4)模型,经诊断检验与实证检验发现,预测精度较高,可用于我国煤炭消费量预测。预测结果表明:2007~2010年我国煤炭消费量将不断增长,但增速会有所回落。科学的煤炭消费量预测结果可为国家合理规划煤炭生产和进出口提供重要依据。  相似文献   

17.
稳健MTS研究     
对于现实世界的研究问题,一般不可能找到描述它的严格模型,经典统计一般使用经典统计模型来近似.Box和Turkey分别从检验和估计角度以实例说明,一些常用的经典估计和检验方法在某些近似模型下变得很坏.Hampel指出,实际数据通常含有10%左右的过分误差(离群值).少量离群值可使一些经典统计方法分析结果变得毫无意义,有时甚至得出错误结论.在高维情形,由于无法图示和Mask效应等原因,用简单的统计方法甚至很难区分离群值.稳健统计的发展为解决经典统计模型的不足带来了希望.  相似文献   

18.
2000~2011年中国猪肉价格波动:特征、原因与调控对策   总被引:2,自引:0,他引:2  
猪肉价格的异常波动很大程度上影响了我国市场物价的稳定和居民生活的安定。文章选取我国2000年1月到2011年5月猪肉价格、玉米价格、仔猪价格月度数据,运用协整检验、误差修正模型和Granger因果检验分析三种价格之间的关系,探讨了猪肉价格波动的影响因素。  相似文献   

19.
刘田 《统计研究》2013,30(7):89-96
本文通过理论分析和蒙特卡洛仿真模拟,研究平稳性检验中选用的统计量与数据生成过程不一致时,非线性ESTAR、LSTAR与线性DF检验法能否得出正确的结论.研究表明,二阶LSTAR与ESTAR模型可用相同的检验方法,但前者的非线性特征更强.当数据生成过程为线性AR,或非线性ESTAR、二阶LSTAR模型时,使用DF或ESTAR检验法可得出大致正确的结论,但LSTAR检验法完全失败.数据生成过程的非线性特征越强,ESTAR较DF检验方法的功效增益越高;线性特征越强,DF的功效增益越高.当转移函数F(θ,c,zt)中θ较大导致一阶泰勒近似误差较大或c非0时,标准ESTAR与LSTAR非线性检验法失去应用条件.θ较大或c偏离0较远时,数据生成过程中线性成分增强,用线性DF检验可获得更好的检验结果.  相似文献   

20.
熊巍等 《统计研究》2020,37(5):104-116
随着计算机技术的迅猛发展,高维成分数据不断涌现并伴有大量近似零值和缺失,数据的高维特性不仅给传统统计方法带来了巨大的挑战,其厚尾特征、复杂的协方差结构也使得理论分析难上加难。于是如何对高维成分数据的近似零值进行稳健的插补,挖掘潜在的内蕴结构成为当今学者研究的焦点。对此,本文结合修正的EM算法,提出基于R型聚类的Lasso-分位回归插补法(SubLQR)对高维成分数据的近似零值问题予以解决。与现有高维近似零值插补方法相比,本文所提出的SubLQR具有如下优势。①稳健全面性:利用Lasso-分位回归方法,不仅可以有效地探测到响应变量的整个条件分布,还能提供更加真实的高维稀疏模式;②有效准确性:采用基于R型聚类的思想进行插补,可以降低计算复杂度,极大提高插补的精度。模拟研究证实,本文提出的SubLQR高效灵活准确,特别在零值、异常值较多的情形更具优势。最后将SubLQR方法应用于罕见病代谢组学研究中,进一步表明本文所提出的方法具有广泛的适用性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号