加载中…
个人资料
  • 博客等级:
  • 博客积分:
  • 博客访问:
  • 关注人气:
  • 获赠金笔:0支
  • 赠出金笔:0支
  • 荣誉徽章:
正文 字体大小:

SVM的发展、应用和研究热点

(2010-06-30 20:24:56)
标签:

杂谈

分类: SVM
 为了方便大家更好的挖掘资源,特将本站相关SVM、libsvm资源收集如下,如果大家有什么问题或建议,请直接留言或者和我联系(查看联系方式
(点击google广告,奉献一分爱心):
 
SVM-light 、SVM-struc                 "SVM-light"Installat
SVM分类器                           用LIBSVM做回归和预测的步骤
Libsvm 使用笔记                       libSVM 简易入门
支持向量机-LIBSVM Tools               SVM资料更新
Regression SVM                       SVM学习之六——SMO算法分析与程序实
SVM英文网页                         Libsvm软件的使用
LibSVM知识小计                      关于svm现有工具包的比较
 
……………………………………………………………………………………………………
更多资源请直接访问本站【人工智能】等相关栏目!

 

支持向量机的发展 

自从90年代初经典SVM的提出,由于其完整的理论框架和在实际应用中取得的很多好的效果,在机器学习领域受到了广泛的重视。其理论和应用在横向和纵向上都有了发展。

理论上:1.模糊支持向量机,引入样本对类别的隶属度函数,这样每个样本对于类别的影响是不同的,这种理论的应用提高了SVM的抗噪声的能力,尤其适合在未能完全揭示输入样本特性的情况下。

2.最小二乘支持向量机。这种方法是在1999年提出,经过这几年的发展,已经应用要很多相关的领域。研究的问题已经推广到:对于大规模数据集的处理;处理数据的鲁棒性;参数调节和选择问题;训练和仿真。

3.加权支持向量机(有偏样本的加权,有偏风险加权)。

4.主动学习的支持向量机。主动学习在学习过程中可以根据学习进程,选择最有利于分类器性能的样本来进一步训练分类器,特能有效地减少评价样本的数量。也就是通过某种标准对样本对分类的有效性进行排序,然后选择有效样本来训练支持向量机。

5.粗糙集与支持向量机的结合。首先利用粗糙集理论对数据的属性进行约简,能在某种程度上减少支持向量机求解计算量。

6.基于决策树的支持向量机。对于多类问题,采用二岔树将要分类的样本集构造出一系列的两类问题,每个两类构造一个SVM

7.分级聚类的支持向量机。基于分级聚类和决策树思想构建多类svm,使用分级聚类的方法,可以先把n-1个距离较近的类别结合起来,暂时看作一类,把剩下的一类作为单独的一类,用svm分类,分类后的下一步不再考虑这单独的一类,而只研究所合并的n-1类,再依次下去。

8.算法上的提高。

   Vapnik95年提出了一种称为”chunking”的块算法,即如果删除矩中对应Lagrange乘数为0的行和列,将不会影响最终结果。

         Osuna提出了一种分解算法,应用于人脸识别领域。

         Joachims1998年将Osuna提出的分解策略推广到解决大型SVM学习的算法

         Platt1998年提出了序贯最小优化(Sequential Minimal Optimization)每次的工作集中只有2个样本。

             9.核函数的构造和参数的选择理论研究。基于各个不同的应用领域,可以构造不同的核函数,能够或多或少的引入领域知识。现在核函数广泛应用的类型有:多项式逼近、贝叶斯分类器、径向基函数、多层感知器。参数的选择现在利用交叉验证的方法来确认。

 10.支持向量机从两类问题向多类问题的推广:

       Weston1998年提出的多类算法为代表。在经典svm理论的基础上,直接在目标函数上进行改进,重新构造多值分类模型,建立k分类支持向量机。通过sv方法对新模型的目标函数进行优化,实现多值分类。这类算法选择的目标函数十分复杂,变量数目过多,计算复杂度也非常高,实现困难,所以只在小型问题的求解中才能使用。Weston,Multi-class support vector machines

         一对多(one-against-rest----- Vapnik提出的,k---k个分类器,第m个分类器将第m类与其余的类分开,也就是说将第m类重新标号为1,其他类标号为-1。完成这个过程需要计算k个二次规划,根据标号将每个样本分开,最后输出的是两类分类器输出为最大的那一类。不足:容易产生属于多类别的点(多个1)和没有被分类的点(标号均为-1--不对,训练样本数据大,训练困难,推广误差***.

         一对一(one-against-one---Kressel 对于任意两个分类,构造一个分类器,仅识别这两个分类,完成这个过程需要k(k-1)/2个分类器,计算量是非常庞大的。对于每一个样本,根据每一个分类器的分类结果,看属于哪个类别的次数多,最终就属于哪一类(组合这些两类分类器并使用投票法,得票最多的类为样本点所属的类)。不足:如果单个两类分类器不规范化,则整个N类分类器将趋向于过学习;推广误差***;分类器的数目K随类数急剧增加,导致在决策时速度很慢。

         层(数分类方法),是对一对一方法的改进,将k个分类合并为两个大类,每个大类里面再分成两个子类,如此下去,直到最基本的k个分类,这样形成不同的层次,每个层次都用svm来进行分类------1r-1法,构建k-1个分类器,不存在拒绝分类区。

应用上:人脸检测,汽轮发电机组的故障诊断,分类,回归,聚类,时间序列预测,系统辨识,金融工程,生物医药信号处理,数据挖掘,生物信息,文本挖掘,自适应信号处理,剪接位点识别,基于支持向量机的数据库学习算法,手写体相似字识别,支持向量机函数拟合在分形插值中的应用,基于支持向量机的惯导初始对准系统,岩爆预测的支持向量机,缺陷识别,计算机键盘用户身份验证,视频字幕自动定位于提取,说话人的确认,等等。

0

阅读 收藏 喜欢 打印举报/Report
  

新浪BLOG意见反馈留言板 欢迎批评指正

新浪简介 | About Sina | 广告服务 | 联系我们 | 招聘信息 | 网站律师 | SINA English | 产品答疑

新浪公司 版权所有