首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 562 毫秒
1.
纵向网络数据是较为常见的复杂网络数据,也是目前网络数据分析的热点之一。随机块模型是网络社区发现的经典模型,但是该模型无法直接用于模拟纵向网络数据。基于随机块模型,引入半参数比例风险模型去分析纵向网络数据,并利用随机块模型来描述复发瞬间链接间隔。结合变分EM算法,采用两步估计来分别估计模型参数和非参数部分,通过不同场景下的模拟试验来验证所提议模型的优良性,最后利用法国小学生的社交网络数据进行了实证分析。模拟和实证结果表明,在统计计算的时效和参数或非参数估计的精度上,本文所提出的网络数据模型和统计分析方法比现存文献的模型和方法具有较好的优势。  相似文献   

2.
现有文献中Nelson-Siegel模型大多将载荷因子λ提前固定为常数或作为待估静态参数,较少考虑载荷因子λ的时变化。本文基于得分驱动时变参数建模方法,在状态空间模型框架内考虑时变载荷因子λ,构建GAS-λ-DNS模型,并提取相应时变载荷因子。结果显示,时变载荷因子λt呈现出极强的波动性,同时与经济周期密切相关;将时变载荷因子λt应用于预测工业产出增速,发现载荷因子相比于传统宏观预测因子具有额外增量信息,引入λt可以显著提高模型预测精度。本文结论对Nelson-Siegel利率期限结构建模和宏观经济预测因子选取具有参考价值。  相似文献   

3.
文章从国债利率期限结构的无套利动态Nelson-Siegel模型估计方法入手,对卡尔曼滤波算法进行改进,以提升模型参数估计的精确度;同时提取模型中的动态因子,考察其与宏观经济信息之间的关联性;进一步利用我国国债2010—2021年债券交易数据进行实证研究。结果表明:基于改进估计算法的模型无论是样本内预测还是样本外预测,效果均优于传统卡尔曼滤波估计的结果,同时发现状态因子与宏观经济变量之间有较强的关联性,蕴含了较为丰富的宏观信息。  相似文献   

4.
在云模型、量子算法、神经网络算法等理论研究的基础上,设计了一种以量子比特神经元为信息处理单元的多层量子神经网络——基于云模型的混合量子神经网络算法。在标准数据集上进行的实验仿真表明:混合量子算法具有量子算法轨迹行为性能的优势;同时该混合算法可将提取的特征输入到量子神经网络中对数据集进行分类。该算法改进了量子神经网络的损失函数,提高了误差分析性能。最后,通过仿真实验验证了该混合量子算法在收敛速度和鲁棒性等方面均优于量子神经网络算法。  相似文献   

5.
文章根据结构方程模型(SEM)数学定义和偏最小二乘法(PLS)形式规范,构建具有两个潜变量的路径模型。在潜变量因子值和模型系数假设已知情况下,生成仿真观测数据。通过对PLS算法处理结果与假设数据之间偏差比较,分析PLS算法特性,结果发现:潜变量模式选择影响测量模型系数;结构模型系数比假设值偏小而测量模型系数比假设值偏大。根据该算法特性可以优化模型,以获得更好的模型解释与预测能力。  相似文献   

6.
基于投入产出技术,碳排放结构分解模型SDA在广泛应用中衍生出多种算法,对SDA模型的基本理论框架和各类型算法的结构、特点进行分析;利用中国2007年、2010年、2012年可比价碳排放投入产出表数据进行实证分析,比较解读各算法的应用,并基于适用性、有效性综合评价提出算法选择的信息,为相应理论与应用研究中的方法选择提供一定参考。  相似文献   

7.
文章在参阅国内外相关资料的基础上,利用SPSS软件和AMOS软件探讨了企业组织凝聚力的结构模型,得出了组织凝聚力的一因子、四因子及五因子模型。经比较研究发现,五因子模型是对企业组织凝聚力结构的最佳拟合模型。  相似文献   

8.
在中国社会科学领域研究中,统计模型泛化过程中的误用、滥用现象日益严重,模型应用中的种种失范行为违背了学术精神。统计模型应遵守的学术规范包括:模型的建立和调整要有理论依据,合理的模型是主观与客观的统一;实证分析中应重视数据质量以免错用滥用统计数据,建模中要避免命题不可证伪,陷入"数字游戏"误区等。通过学术规范彰显的学术精神应体现在对模型方法做出有价值有意义的创新或是根据模型结果论证新的命题。当前,中国应制定有关统计学的学术规范,并完善期刊的审稿制度来解决统计模型的学术失范问题。  相似文献   

9.
非参数加法模型的估计困难限制了其应用范围。对此,本文提出首先采用分片逆回归(SIR)方法提取高维数据中的有效成分,进而根据回退拟合算法对模型进行迭代估计。在实证中,将这一模型应用于我国外贸货物吞吐量的预测建模中,取得了较好效果。  相似文献   

10.
文章基于随机模糊环境对供应链中制造商和零售商博弈关系进行分析,利用集随机模糊模拟、粒子群算法、神经网络为一体的混合智能算法对构建了分散决策结构下的供应链模型和集中决策结构下的供应链模型,并列举模拟实例增强模型的适用性,从而为有效提高供应链中处于不同层级地位的生产商和零售商都能获得最大利益.  相似文献   

11.
苏治  傅晓媛 《统计研究》2013,30(5):54-62
 量化选股一直是金融领域研究的热点。随着人工智能技术的空前发展,量化选股方法取得了很大进步。本文构建了基于核主成分遗传算法改进的支持向量回归机人工智能选股模型(KPCA-GA-SVR),并基于沪深股市股票基本面及交易数据,分别从短期和中长期对其选股性能和预测精度进行了实证分析。主要结论为:①遗传算法(GA)改进的SVR较传统模型预测精度更高,且避免了过度拟合;②与采用主成分降维技术的PCA-GA-SVR模型相比,基于核主成分特征提取的KPCA-GA-SVR模型,具有更好模型稳健性及预测准确性;③中长期内该模型的预测误差随滑窗长度的增加有降低趋势,且一年期预测精度最高;短期内不同滑窗下,一周的预测效果最佳。本研究对个人投资者的投资决策及国家宏观监控股市动态变化都具积极意义。  相似文献   

12.
张波  范超 《统计研究》2020,37(1):110-128
本文基于再生核希尔伯特空间中的再生核,将核技巧与高斯-赛责尔迭代算法相结合,提出了具有核化函数的部分线性模型(PLMKF)及其算法收敛性条件等相关内容,具体包括:(1)基于OLS的PLMKF;(2)基于岭估计的PLMKF;(3)基于GLS的PLMKF;(4)基于多核学习的PLMKF。它们构成了PLMKF家族,具有一定的相互转化关系。在数值模拟中,本文验证了各个算法的有效性,比较了基于OLS与GLS、单核与多核的PLMKF模拟结果。实际应用中,在大幅外推情景下,PLMKF仍保持了良好的泛化能力,预测精度高于PLM、GAM和SVR。  相似文献   

13.
In its application to variable selection in the linear model, cross-validation is traditionally applied to an individual model contained in a set of potential models. Each model in the set is cross-validated independently of the rest and the model with the smallest cross-validated sum of squares is selected. In such settings, an efficient algorithm for cross-validation must be able to add and to delete single points quickly from a mixed model. Recent work in variable selection has applied cross-validation to an entire process of variable selection, such as Backward Elimination or Stepwise regression (Thall, Simon and Grier, 1992). The cross-validated version of Backward Elimination, for example, divides the data into an estimation and validation set and performs a complete Backward Elimination on the estimation set, while computing the cross-validated sum of squares at each step with the validation set. After doing this process once, a different validation set is selected and the process is repeated. The final model selection is based on the cross-validated sum of squares for all Backward Eliminations. An optimal algorithm for this application of cross-validation need not be efficient in adding and deleting observations from a single model but must be efficient in computing the cross-validation sum of squares from a series of models using a common validation set. This paper explores such an algorithm based on the sweep operator.  相似文献   

14.
唐晓彬等 《统计研究》2021,38(8):146-160
本文创新地将半监督交互式关键词提取算法词频-逆向文件频率( Term Frequency- Inverse Document Frequency, TF-IDF )与基于 Transformer 的 双 向 编 码 表 征 ( Bidirectional Encoder Representation from Transformers,BERT)模型相结合,设计出一种扩展CPI预测种子关键词的文本挖掘技术。采用交互式TF-IDF算法,对原始CPI预测种子关键词汇广度上进行扩展,在此基础上通过BERT“两段式”检索过滤模型深入挖掘文本信息并匹配关键词,实现CPI预测关键词深度上的扩展,从而构建了CPI预测的关键词库。在此基础上,本文进一步对文本挖掘技术特征扩展前后的关键词建立预测模型进行对比分析。研究表明,相比于传统的关键词提取算法,交互式TF-IDF算法不仅无需借助语料库,而且还允许种子词的输入。同时,BERT模型通过迁移学习的方式对基础模型进行微调,学习特定领域知识,在CPI预测问题中很好地实现了语言表征、语义拓展与人机交互。相对于传统文本挖掘技术,本文设计的文本挖掘技术具有较强的泛化表征能力,在84个CPI预测关键种子词的基础上,扩充后的关键词对CPI具有更高的预测准确度和更充分的解释性。本文针对CP 预测问题设计的文本挖掘技术,也为建立其他宏观经济指标关键词词库提供新的研究思路与参考价值。  相似文献   

15.
空间计量模型的选择是空间计量建模的一个重要组成部分,也是空间计量模型实证分析的关键步骤。本文对空间计量模型选择中的Moran指数检验、LM检验、似然函数、三大信息准则、贝叶斯后验概率、马尔可夫链蒙特卡罗方法做了详细的理论分析。并在此基础之上,通过Matlab编程进行模拟分析,结果表明:在扩充的空间计量模型族中进行模型选择时,基于OLS残差的Moran指数与LM检验均存在较大的局限性,对数似然值最大原则缺少区分度,LM检验只针对SEM和SAR模型的区分有效,信息准则对大多数模型有效,但是也会出现误选。而当给出恰当的M-H算法时,充分利用了似然函数和先验信息的MCMC方法,具有更高的检验效度,特别是在较大的样本条件下得到了完全准确的判断,且对不同阶空间邻接矩阵的空间计量模型的选择也非常有效。  相似文献   

16.
孙艳  何建敏  周伟 《统计研究》2011,28(8):103-110
 随机条件持续期(SCD)模型能有效刻画超高频时间序列中持续期的变化,但该模型假定期望持续期生成机制固定,且模型参数估计存在一定的困难。文章在不假定条件均值形式和冲击项分布的基础上结合核估计方法提出了非参数SCD模型及其迭代求解方法。然后,基于TEACD(1,1)模型生成的模拟数据,将非参数SCD模型与用卡尔漫滤波进行伪似然估计的参数SCD模型和用Gibbs抽样进行马尔科夫蒙特卡罗估计的参数SCD模型的拟合效果进行比较,实证表明在大样本条件下非参数SCD模型的拟合效果与用MCMC估计的参数SCD模型的拟合结果相差不大,但明显优于用QML估计的参数SCD模型的拟合结果,且非参数SCD模型能为参数SCD模型的参数设定提供参考。  相似文献   

17.
庄赟 《统计教育》2010,(7):16-20
关于提升大学综舍排名的竞争策略,可以运用累积Logit模型来研究各评价指标排名对大学综合排名的影响效应,通过提高那些对综合排名影响效应较大的指标排名,能更有效地促进综合排名的提高,从而确定有效的排名竞争策略。利用网大(www.netbig.com)“中国大学排行榜”的排名数据进行实证分析,得出排名越靠前的大学通过提升“声誉”和“学术成果”名次能最有效提升综合排名。而排名越靠后的大学则通过提升“学术资源”和“物资资源”名次能最有效提升综合排名等结论。  相似文献   

18.
对于一类变量非线性相关的面板数据,现有的基于线性算法的面板数据聚类方法并不能准确地度量样本间的相似性,且聚类结果的可解释性低。综合考虑变量非线性相关问题及聚类结果可解释性问题,提出一种非线性面板数据的聚类方法,通过非线性核主成分算法实现对样本相似性的测度,并基于混合高斯模型进行样本概率聚类,实证表明该方法的有效性及其对聚类结果的可解释性有所提高。  相似文献   

19.
ABSTRACT

Simplex regression model is often employed to analyze continuous proportion data in many studies. In this paper, we extend the assumption of a constant dispersion parameter (homogeneity) to varying dispersion parameter (heterogeneity) in Simplex regression model, and present the B-spline to approximate the smoothing unknown function within the Bayesian framework. A hybrid algorithm combining the block Gibbs sampler and the Metropolis-Hastings algorithm is presented for sampling observations from the posterior distribution. The procedures for computing model comparison criteria such as conditional predictive ordinate statistic, deviance information criterion, and averaged mean squared error are presented. Also, we develop a computationally feasible Bayesian case-deletion influence measure based on the Kullback-Leibler divergence. Several simulation studies and a real example are employed to illustrate the proposed methodologies.  相似文献   

20.
In this article, a state-space model based on an underlying hidden Markov chain model (HMM) with factor analysis observation process is introduced. The HMM generates a piece-wise constant state evolution process and the observations are produced from the state vectors by a conditionally heteroscedastic factor analysis observation process. More specifically, we concentrate on situations where the factor variances are modeled by univariate Generalized Quadratic Autoregressive Conditionally Heteroscedastic processes (GQARCH). An expectation maximization (EM) algorithm combined with a mixed-state version of the Viterbi algorithm is derived for maximum likelihood estimation. The various regimes, common factors, and their volatilities are supposed unobservable and the inference must be carried out from the observable process. Extensive Monte Carlo simulations show promising results of the algorithms, especially for segmentation and tracking tasks.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号