支持向量机

Support Vector Machines SVM
监督学习,对数据进行二元分类的广义线性分类器,最大化决策超平面和训练集中的样本间的边界的算法
算法思想:找到集合边缘上的若干数据(支持向量),用这些点找出一个平面(决策超平面),使得支持向量到该平面的距离最大。

基本概述

假如数据是完全的线性可分的,那么学习到的模型可以称为硬间隔支持向量机。(硬间隔:完全分类准确,不能存在分类错误的情况;软间隔:允许一定量的样本分类错误。)

线性可分 SVM

任意超平面可表示为:wTx+b=0,
x=(x1,x2,,xn) 到超平面的距离为:|wTx+b|||w||||w||=w12++wn2
支持向量机的最终目的:最大化支持向量到超平面的距离 d ,则 {|wTx+b|||w||dy=1|wTx+b|||w||dy=1

函数间隔:d=yi(wTxi+b)
几何间隔:d=|wTx+b|||w||, 当数据被正确分类时,几何间隔就是点到超平面的距离
求几何间隔最大,SVM基本问题可以转化为求解:maxd||w||max1||w||min12||w||2s.t.yi(wTxi+b)1

线性不可分 SVM

软间隔

核函数方法

核函数:它可以将样本从原始空间映射到一个更高维的特质空间中,使得样本在新的空间中线性可分。使用原来的推导来进行计算,用核函数来替换当中的内积

常用核函数:

拉格朗日乘数法

拉格朗日乘数法:不等式约束、等式约束、无约束
Lagrange multiplier method
适用于求解带有等式约束条件的优化问题

目标函数:z=f(x,y) 约束条件:φ(x,y)=0 拉格朗日乘子:λ=fxφx=fyφy 构造辅助函数:拉格朗日函数 L(x,y)=f(x,y)+λφ(x,y)
拉格朗日函数的各个一阶偏导数与约束条件联立, 由此方程组求得 x,y,λ, 得到的 (x,y) 是在约束条件下的可能的极值点

{Lx(x,y)=fx(x,y)+λφx(x,y)=0Ly(x,y)=fy(x,y)+λφy(x,y)=0φ(x,y)=0

根据约束条件构造拉格朗日函数,约束条件有几个,就设置几个拉格朗日乘子,约束条件和拉格朗日的各个一阶偏导联立,求得可能的极值

目标函数: u=f(x,y,z,t) 约束条件:{φ(x,y,z,t)=0ψ(x,y,z,t)=0
构造拉格朗日函数:

L(x,y,z,t)=f(x,y,z,t)+λφ(x,y,z,t)+μψ(x,y,z,t){Lx(x,y,z,t)=0Ly(x,y,z,t)=0Lz(x,y,z,t)=0Lt(x,y,z,t)=0φ(x,y,z,t)=0ψ(x,y,z,t)=0