支持向量机
Support Vector Machines SVM
监督学习,对数据进行二元分类的广义线性分类器,最大化决策超平面和训练集中的样本间的边界的算法
算法思想:找到集合边缘上的若干数据(支持向量),用这些点找出一个平面(决策超平面),使得支持向量到该平面的距离最大。
基本概述
假如数据是完全的线性可分的,那么学习到的模型可以称为硬间隔支持向量机。(硬间隔:完全分类准确,不能存在分类错误的情况;软间隔:允许一定量的样本分类错误。)
线性可分 SVM
任意超平面可表示为:
点
支持向量机的最终目的:最大化支持向量到超平面的距离
函数间隔:
几何间隔:
求几何间隔最大,SVM基本问题可以转化为求解:
线性不可分 SVM
软间隔
核函数方法
核函数:它可以将样本从原始空间映射到一个更高维的特质空间中,使得样本在新的空间中线性可分。使用原来的推导来进行计算,用核函数来替换当中的内积
常用核函数:
- 线性核函数
- 多项式核函数
- 高斯核函数
,高斯核函数需要调参
拉格朗日乘数法
拉格朗日乘数法:不等式约束、等式约束、无约束
Lagrange multiplier method
适用于求解带有等式约束条件的优化问题
目标函数:
拉格朗日函数的各个一阶偏导数与约束条件联立, 由此方程组求得
根据约束条件构造拉格朗日函数,约束条件有几个,就设置几个拉格朗日乘子,约束条件和拉格朗日的各个一阶偏导联立,求得可能的极值
目标函数:
构造拉格朗日函数: