首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   6篇
  免费   0篇
综合类   6篇
  2008年   2篇
  2006年   3篇
  2004年   1篇
排序方式: 共有6条查询结果,搜索用时 15 毫秒
1
1.
针对BP神经网络学习速度慢、容易陷入局部极小的缺点,提出了一种基于改进免疫遗传算法的多层前向神经网络,将该算法用于多层前向神经网络的权值优化,扩大了神经网络的权值搜索空间,提高了网络系统的学习效率和精度。将该神经网络用于上证指数的趋势预测,仿真结果表明:该神经网络比BP神经网络具有更好的全局收敛性、更高的学习效率和预测精度。  相似文献   
2.
为了解决单个SVM可能产生的泛化能力恶化问题以及当SVM采用一对多组合策略解决多类分类时可能产生的误差无界情况,本文采用Bagging方法构造了一个基于SVM的多类分类集成模型,利用MIT KDD 99数据集进行仿真实验,通过实验探讨了其中的两个参数——训练样本数和单分类器个数对集成学习效果的影响,并将其与采用全部样本进行训练及部分样本进行训练的单分类器检测进行了比较。结果表明:集成学习算法能够有效降低采用全部样本进行训练所带来的计算复杂性,提高检测精度,而且也能够避免基于采样学习带来检测的不稳定性和低精度。  相似文献   
3.
提出了一种在基准EEG信号和视觉信号未知条件下,基于小波阈值去噪的方法来修正EEG信号中出现的视觉伪信号(OA)的新方法。这种方法实现了对原始EEG信号进行平稳小波变换(SW T);对低频系数进行两次阈值去噪;对去噪后的信号进行重构。实验结果表明:这种新方法在基准EEG信号和视觉信号未知条件下能有效去除OA,同时适用于眨眼和眼球运动所产生的伪信号。通过不同方法对采集的信号处理后进行比较,说明该方法的有效性。  相似文献   
4.
Poggio和Smale最近提出的学习理论的一个关键算法(Akeyalgorithm,KA)可用于非线性分类和回归,并避免求解二次规划,但几乎所有的样本是“支持向量“。为此提出了一种稀疏KA算法(SKA),通过设计特定的优化函数,SKA能有效减少“支持向量“,并具备良好的推广能力。将SKA应用于两个实际的模式识别问题,并与支持向量机(SVM)进行比较,验证了SKA的有效性。  相似文献   
5.
回归支持向量机的ε不敏感损失函数的参数寻优是一个重要的问题,它与支持向量机的行为特性有紧密关系。本文给出了一种基于粒子群优化算法的、对ε不敏感损失函数的ε参数寻优的方法,仿真结果表明:采用基于粒子群优化算法的寻优方法寻找ε参数,需要重复训练回归支持向量机模型的次数明显小于格点搜索方法,节省了大量的时间并且能找到较优的ε值。  相似文献   
6.
从最小二乘支持向量机的稀疏表达出发,构建高效的基于稀疏最小二乘支持向量机的网络入侵检测模型,提出了一种通过基于核空间近似策略的有效低秩逼近来有效减小原始训练样本集中的支持向量数来实现最终模型的稀疏表达。以MIT KDD99数据集为基础,对所提出方法进行有效性验证,并与利用剪枝策略通过递归过程中不断减少模型中支持向量个数的稀疏化方法、基本最小二乘支持向量机以及标准支持向量机方法的性能进行对比。结果表明:基于核空间近似的最小二乘支持向量机稀疏化与标准最小二乘支持向量机相当;此外稀疏最小二乘支持向量机能够提高入侵检测响应速度。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号