共查询到10条相似文献,搜索用时 15 毫秒
1.
针对不平衡数据的分类问题,文章利用焦点损失函数可以挖掘困难样本的特性,提出了一种新的逻辑回归算法。首先,定义逻辑回归模型新的损失函数;其次,基于牛顿迭代法,设计FL逻辑回归算法;最后,在比较实验中,运用随机森林进行特征选择,以阈值优化逻辑回归模型为分类模型进行实验。实验结果表明,与传统逻辑回归算法相比,改进后的算法提高了少数类样本的分类精度,增强了模型的整体分类性能。 相似文献
2.
3.
缺失数据是影响调查问卷数据质量的重要因素,对调查问卷中的缺失值进行插补可以显著提高调查数据的质量。调查问卷的数据类型多以分类型数据为主,数据挖掘技术中的分类算法是处理属性分类问题的常用方法,随机森林模型是众多分类算法中精度较高的方法之一。将随机森林模型引入调查问卷缺失数据的插补研究中,提出了基于随机森林模型的分类数据缺失值插补方法,并根据不同的缺失模式探讨了相应的插补步骤。通过与其它方法的实证模拟比较,表明随机森林插补法得到的插补值准确度更优、可信度更高。 相似文献
4.
5.
6.
综合Adaboost算法的自适应再加权和随机森林算法的未修剪随机变量划分树基模型,文章提出了用于自适应随机森林算法。通过实验数据发现,在训练集较大、贝叶斯误差较小时,模拟自适应再加权会起作用,从而,拟自适应随机森林算法会优于随机森林算法。 相似文献
7.
针对用户评分数据稀疏性问题,在对项目进行聚类基础上,文章提出了基于属性聚类的项目评分预测推荐算法。算法从项目属性特征相似性分析出发,利用K-Means聚类算法对项目进行聚类。对于未评分项目找到其所属的类簇;利用用户对类簇中其它项目的评分预测该用户对未评分项目的评分,达到降低数据稀疏性目的;最后结合协同过滤思想为用户提供推荐服务。实验结果表明,与基于项目评分预测的推荐算法相比,文章的算法推荐精度显著提高。 相似文献
8.
用于分类的随机森林和Bagging分类树比较 总被引:1,自引:0,他引:1
借助试验数据,从两种理论分析角度解释随机森林算法优于Bagging分类树算法的原因。将两种算法表述在两种不同的框架下,消除了这两种算法分析中的一些模糊之处。尤其在第二种分析框架下,更能清楚的看出,之所以随机森林算法优于Bagging分类树算法,是因为随机森林算法对应更小的偏差。 相似文献
9.