支持向量机原理SVM.ppt
文本预览下载声明
Support Vetor Machine(SVM)简介 李洋 北京师范大学数学科学学院05级 Email:farutoliyang@ 主要内容 统计学习理论(Statistical Learning Theory)(SVM的理论基础) SVM分类基本思想 SVM主要算法过程 统计学习理论(Statistical Learning Theory) Vapnik与60-70年代提出了统计学习理论的基本思想,并在20世纪90年代中期不断发展和成熟 与传统的统计学相比,统计学习理论是一种专门研究小样本情况下机器学习规律的理论 该理论针对小样本问题建立了一套新的理论体系,在这个理论体系下的统计推理规则不仅考虑了对渐进性能的要求,而且追求在现有有限信息的条件下得到最优结果 统计学习理论(Statistical Learning Theory) 与传统的统计理论相比,统计学习理论基本上不涉及概率测度的定义及大数定律 统计学习理论为建立有限样本学习问题提供了一个统一的框架 它避免了人工神经网络等方法的网络结构选择、过学习和欠学习以及局部极小等问题 统计学习理论(Statistical Learning Theory) 近年来,基于该理论发展的支持向量机(Support Vector Machine)逐渐成熟并已在模式识别、函数估计等人工智能领域得到较好的应用。 SVM分类基本思想 升维 线性化 SVM方法的核心是支持向量(在后面可以看到最后求得的超平面的解析式可由支持向量完全决定) 求最优分类超平面等价于求最大间隔 最优分类函数的求解 引入 -不敏感误差函数(即误差小于 时视为无误差),则寻求最优分类超平面的问题转为一个二次凸规划问题: 采用Lagrange乘数法并应用KKT(Karush-Kuhn-Tucker)条件,可求得分类函数为: * 渐进性能(推广能力):人们将学习机器对未来输出进行正确预测的能力称作推广能力 * 渐进性能(推广能力):人们将学习机器对未来输出进行正确预测的能力称作推广能力
显示全部