1919
2020## 支持向量机 原理
2121
22- ### 支持向量机 工作原理
22+ ### SVM 工作原理
2323
2424![ k_2] ( /images/6.SVM/k_2.jpg " k_2 ")
2525
28281 . 寻找最大分类间距
29292 . 转而通过拉格朗日函数求优化的问题
3030
31- ### 基础介绍
32-
33- * SVM有很多种实现,最流行的一种实现是: ` 序列最小优化(Sequential Minimal Optimization, SMO)算法 ` 。
34- * 下面还会介绍一种称为` 核函数(kernel) ` 的方式将SVM扩展到更多数据集上。
35- * 注意:` SVM几何含义比较直观,但其算法实现较复杂,牵扯大量数学公式的推导。 `
36-
3731
3832* 数据可以通过画一条直线就可以将它们完全分开,这组数据叫` 线性可分(linearly separable) ` 数据,而这条分隔直线称为` 分隔超平面(separating hyperplane) ` 。
3933* 如果数据集上升到1024维呢?那么需要1023维来分隔数据集,也就说需要N-1维的对象来分隔,这个对象叫做` 超平面(hyperlane) ` ,也就是分类的决策边界。
4034
4135![ 分隔超平面] ( /images/6.SVM/SVM_2_separating-hyperplane.jpg )
4236
37+ ### 寻找最大间隔
4338
44-
45-
46- ```
47- 优点:泛化(由具体的、个别的扩大为一般的,就是说:模型训练完后的新样本)错误率低,计算开销不大,结果易理解。
48- 缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适合于处理二分类问题。
49- 使用数据类型:数值型和标称型数据。
50- ```
51-
52- ## 支持向量机 项目实战
53-
54- ### 项目实战: 手写数字识别的优化
55-
56-
57-
58-
59-
60- ## 寻找最大间隔
61-
62- > 为什么寻找最大间隔
39+ #### 为什么寻找最大间隔
6340
6441```
6542摘录地址:http://slideplayer.com/slide/8610144 (第12条信息)
@@ -82,46 +59,48 @@ This is the simplest kind of SVM (Called an LSVM) Support Vectors are those data
82595. 通常它的工作非常好。
8360```
8461
85- ### 怎么寻找最大间隔
62+ #### 怎么寻找最大间隔
8663
8764> 点到超平面的距离
8865
8966* 分隔超平面` 函数间距 ` : \\ (y(x)=w^Tx+b\\ )
9067* 分类的结果: \\ (f(x)=sign(w^Tx+b)\\ ) (sign表示>0为1,<0为-1,=0为0)
91- * 点到超平面的` 几何间距 ` : \\ (d(x)=(w^Tx+b)/||w||\\ ) (||w||表示w矩阵的二范式=> \\ (\sqrt{w* w^T}\\ ), 点到超平面的距离也是类似的,需要复习一下向量的知识)
92- ![ 点到直线的几何距离] ( /images/6.SVM/SVM_4_point2line-distance.png )
68+ * 点到超平面的` 几何间距 ` : \\ (d(x)=(w^Tx+b)/||w||\\ ) (||w||表示w矩阵的二范式=> \\ (\sqrt{w* w^T}\\ ), 点到超平面的距离也是类似的)
69+
70+ ![ 点到直线的几何距离] ( /images/6.SVM/SVM_4_point2line-distance.jpg )
9371
94- > 拉格朗日乘子法的使用
72+ > 拉格朗日乘子法
9573
9674* 类别标签用-1、1,是为了后期方便 \\ (lable* (w^Tx+b)\\ ) 的标识和距离计算;如果 \\ (lable* (w^Tx+b)>0\\ ) 表示预测正确,否则预测错误。
9775* 现在目标很明确,就是要找到` w ` 和` b ` ,因此我们必须要找到最小间隔的数据点,也就是前面所说的` 支持向量 ` 。
9876 * 也就说,让最小的距离取最大.(最小的距离:就是最小间隔的数据点;最大:就是最大间距,为了找出最优超平面--最终就是支持向量)
9977 * 怎么理解呢? 例如: 如果把所有的点看作地雷,那么我们(超平面)得找到最近所有的地雷,并保证我们离它最远。
100- * 目标函数:\\ (arg: max\ \{ min\ [ lable* (w^Tx+b)/||w||] \}\\ )
101- * 1.如果 \\ (lable* (w^Tx+b)>0\\ ) 表示预测正确,也称` 函数间隔 ` ,\\ (||w||\\ ) 可以理解为归一化,也称` 几何间隔 ` ,我们始终可以找到一个阈值让 \\ (lable* (w^Tx+b)>=1\\ )
102- * 2.所以令 \\ (lable* (w^Tx+b)=1\\ ),我们本质上是求 \\ (arg: max\{ 关于w, b\} \ (1/||w||)\\ );也就说,我们约束(前提)条件是: \\ (lable* (w^Tx+b)=1\\ )
103- * 新的目标函数求解: \\ (arg: max\{ 关于w, b\} \ (1/||w||)\\ )
104- * => 就是求: \\ (arg: min\{ 关于w, b\} \ (||w||)\\ ) (求矩阵会比较麻烦,如果x只是 \\ (\frac{1}{2}* x^2\\ ) 的偏导数,那么。。同样是求最小值)
105- * => 就是求: \\ (arg: min\{ 关于w, b\} \ (\frac{1}{2}* ||w||^2)\\ ) (二次函数求导,求极值,平方也方便计算)
106- * 本质上就是求线性不等式的二次优化问题(求分隔超平面,等价于求解相应的凸二次规划问题。)
78+ * 目标函数:\\ (arg: max\left( min(lable* (w^Tx+b))* \frac{1}{||w||} \right) \\ )
79+ 1 . 如果 \\ (lable* (w^Tx+b)>0\\ ) 表示预测正确,也称` 函数间隔 ` ,\\ (||w||\\ ) 可以理解为归一化,也称` 几何间隔 ` 。
80+ 2 . 令 \\ (lable* (w^Tx+b)>=1\\ ), 因为-1~1之间,得到的点是存在误判的可能性,所以要保障min=1,才能更好降低噪音数据影响。
81+ 3 . 所以本质上是求 \\ (arg: max_ {关于w, b} \frac{1}{||w||} \\ );也就说,我们约束(前提)条件是: \\ (lable* (w^Tx+b)=1\\ )
82+ * 新的目标函数求解: \\ (arg: max_ {关于w, b} \frac{1}{||w||} \\ )
83+ * => 就是求: \\ (arg: min_ {关于w, b} ||w|| \\ ) (求矩阵会比较麻烦,如果x只是 \\ (\frac{1}{2}* x^2\\ ) 的偏导数,那么。。同样是求最小值)
84+ * => 就是求: \\ (arg: min_ {关于w, b} (\frac{1}{2}* ||w||^2)\\ ) (二次函数求导,求极值,平方也方便计算)
85+ * 本质上就是求线性不等式的二次优化问题(求分隔超平面,等价于求解相应的凸二次规划问题)
10786* 通过拉格朗日乘子法,求二次优化问题
10887 * 假设需要求极值的目标函数 (objective function) 为 f(x,y),限制条件为 φ(x,y)=M # M=1
10988 * 设g(x,y)=M-φ(x,y) # 临时φ(x,y)表示下文中 \\ (label* (w^Tx+b)\\ )
11089 * 定义一个新函数: F(x,y,λ)=f(x,y)+λg(x,y)
111- * a为λ,代表要引入的拉格朗日乘子(Lagrange multiplier)
90+ * a为λ(a>=0) ,代表要引入的拉格朗日乘子(Lagrange multiplier)
11291 * 那么: \\ (L(w,b,\alpha)=\frac{1}{2} * ||w||^2 + \sum_ {i=1}^{n} \alpha * [ 1 - label * (w^Tx+b)] \\ )
113- * 因为:\\ (label* (w^Tx+b)>=1, \alpha>0\\ ) , 所以 \\ (\alpha* [ label* (w^Tx+b)-1 ] > =0\\ ), \\ (\sum_ {i=1}^{n} \alpha * [ label * (w^Tx+b) - 1 ] > =0\\ )
114- * \\ (max \ { 关于\alpha\} \ L(w,b,\alpha) = \frac{1}{2} * ||w||^2\\ )
115- * 如果求: \\ (min \ { 关于w, b\} \ \frac{1}{2} * ||w||^2\\ ) , 也就是要求: \\ (min \ { 关于w, b\} \ [ max \ { 关于\alpha\} \ L(w,b,\alpha)] \\ )
92+ * 因为:\\ (label* (w^Tx+b)>=1, \alpha>= 0\\ ) , 所以 \\ (\alpha* [ 1- label* (w^Tx+b)] < =0\\ ) , \\ (\sum_ {i=1}^{n} \alpha * [ 1- label* (w^Tx+b)] < =0\\ )
93+ * 相当于求解: \\ (max _ {关于\alpha} L(w,b,\alpha) = \frac{1}{2} * ||w||^2\\ )
94+ * 如果求: \\ (min _ {关于w, b} \frac{1}{2} * ||w||^2\\ ) , 也就是要求: \\ (min _ {关于w, b} \left( max _ {关于\alpha} L(w,b,\alpha)\right) \\ )
11695* 现在转化到对偶问题的求解
117- * \\ (min \ { 关于w, b\} \ [ max \ { 关于\alpha\} \ L(w,b,\alpha)] \\ ) >= \\ (max \ { 关于\alpha\} \ [ min \ { 关于w, b\ } \ L(w,b,\alpha)] \\ )
96+ * \\ (min _ {关于w, b} \left(max _ {关于\alpha} L(w,b,\alpha) \right) \\ ) >= \\ (max _ {关于\alpha} \left(min _ {关于w, b}\ L(w,b,\alpha) \right) \\ )
11897 * 现在分2步
119- * 先求: \\ (min \ { 关于w, b\} \ L(w,b,\alpha)=\frac{1}{2} * ||w||^2 + \sum_ {i=1}^{n} \alpha * [ 1 - label * (w^Tx+b)] \\ )
98+ * 先求: \\ (min _ {关于w, b} L(w,b,\alpha)=\frac{1}{2} * ||w||^2 + \sum_ {i=1}^{n} \alpha * [ 1 - label * (w^Tx+b)] \\ )
12099 * 就是求` L(w,b,a) ` 关于[ w, b] 的偏导数, 得到` w和b的值 ` ,并化简为:` L和a的方程 ` 。
121100 * 参考: 如果公式推导还是不懂,也可以参考《统计学习方法》李航-P103<学习的对偶算法>
122- * ![ 计算拉格朗日函数的对偶函数] ( /images/6.SVM/SVM_5_Lagrangemultiplier.png )
123- * 终于得到课本上的公式: \\ (max\ \{ \alpha\} \ [ \ sum_ {i=1}^{m} \alpha - \frac{1}{2} \sum_ {i, j=1}^{m} label_i·label_j·\alpha_i·\alpha_j·<x_i, x_j>] \\ )
124- * 约束条件: \\ (a>=0,\ and\ \sum_ {i=1}^{m} a_i·label_i=0\\ )
101+ ![ 计算拉格朗日函数的对偶函数] ( /images/6.SVM/SVM_5_Lagrangemultiplier.png )
102+ * 终于得到课本上的公式: \\ (max\ \{ \alpha\} \ \left( \ sum_ {i=1}^{m} \alpha_i - \frac{1}{2} \sum_ {i, j=1}^{m} label_i·label_j·\alpha_i·\alpha_j·<x_i, x_j> \right) \\ )
103+ * 约束条件: \\ (a>=0\\ ) 并且 \\ ( \sum_ {i=1}^{m} a_i·label_i=0\\ )
125104
126105> 松弛变量(slack variable)
127106
@@ -131,38 +110,32 @@ This is the simplest kind of SVM (Called an LSVM) Support Vectors are those data
131110* 常量C是一个常数,我们通过调节该参数得到不同的结果。一旦求出了所有的alpha,那么分隔超平面就可以通过这些alpha来表示。
132111* 这一结论十分直接,SVM中的主要工作就是要求解 alpha.
133112
134- > SVM应用的一般框架
135113
136- ```
137- SVM的一般流程
138- 收集数据:可以使用任意方法。
139- 准备数据:需要数值型数据。
140- 分析数据:有助于可视化分隔超平面。
141- 训练算法:SVM的大部分时间都源自训练,该过程主要实现两个参数的调优。
142- 测试算法:十分简单的计算过程就可以实现。
143- 使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,对多类问题应用SVM需要对代码做一些修改。
144- ```
145- * 到目前为止,我们已经了解了一些理论知识,现在我们通过` Code ` 来实现我们的算法吧。
114+ ### SMO高效优化算法
146115
147- ## SMO高效优化算法
116+ SMO 是 SVM最流行的一种实现
117+
118+ * SVM有很多种实现,最流行的一种实现是: ` 序列最小优化(Sequential Minimal Optimization, SMO)算法 ` 。
119+ * 下面还会介绍一种称为` 核函数(kernel) ` 的方式将SVM扩展到更多数据集上。
120+ * 注意:` SVM几何含义比较直观,但其算法实现较复杂,牵扯大量数学公式的推导。 `
148121
149122> 序列最小优化(Sequential Minimal Optimization, SMO)
150123
151124* 创建作者:John Platt
152125* 创建时间:1996年
153- * SMO用途:用于训练SVM
154- * SMO目标:求出一系列alpha和b,一旦求出alpha,就很容易计算出权重向量w并得到分隔超平面 。
126+ * SMO用途:用于训练 SVM
127+ * SMO目标:求出一系列 alpha 和 b,一旦求出 alpha,就很容易计算出权重向量 w 并得到分隔超平面 。
155128* SMO思想:是将大优化问题分解为多个小优化问题来求解的。
156- * SMO原理:每次循环选择两个alpha进行优化处理,一旦找出一对合适的alpha ,那么就增大一个同时减少一个。
129+ * SMO原理:每次循环选择两个 alpha 进行优化处理,一旦找出一对合适的 alpha ,那么就增大一个同时减少一个。
157130 * 这里指的合适必须要符合一定的条件
158- * 1.这两个alpha必须要在间隔边界之外
159- * 2.这两个alpha还没有进行过区间化处理或者不在边界上 。
160- * 之所以要同时改变2个alpha;原因,我们有一个约束条件 : \\ (\sum_ {i=1}^{m} a_i·label_i=0\\ );如果只是修改一个alpha ,很可能导致约束条件失效。
131+ 1. 这两个 alpha 必须要在间隔边界之外
132+ 2. 这两个 alpha 还没有进行过区间化处理或者不在边界上 。
133+ * 之所以要同时改变2个 alpha;原因是我们有一个约束条件 : \\ (\sum_ {i=1}^{m} a_i·label_i=0\\ );如果只是修改一个 alpha ,很可能导致约束条件失效。
161134
162- ```
163- SMO伪代码大致如下:
135+ > SMO 伪代码大致如下:
164136
165- 创建一个alpha向量并将其初始化为0向量
137+ ```
138+ 创建一个 alpha 向量并将其初始化为0向量
166139当迭代次数小于最大迭代次数时(外循环)
167140 对数据集中的每个数据向量(内循环):
168141 如果该数据向量可以被优化
@@ -172,6 +145,25 @@ SMO伪代码大致如下:
172145 如果所有向量都没被优化,增加迭代数目,继续下一次循环
173146```
174147
148+ ### SVM 开发流程
149+
150+ ```
151+ 收集数据:可以使用任意方法。
152+ 准备数据:需要数值型数据。
153+ 分析数据:有助于可视化分隔超平面。
154+ 训练算法:SVM的大部分时间都源自训练,该过程主要实现两个参数的调优。
155+ 测试算法:十分简单的计算过程就可以实现。
156+ 使用算法:几乎所有分类问题都可以使用SVM,值得一提的是,SVM本身是一个二类分类器,对多类问题应用SVM需要对代码做一些修改。
157+ ```
158+
159+ ### SVM 算法特点
160+
161+ ```
162+ 优点:泛化(由具体的、个别的扩大为一般的,就是说:模型训练完后的新样本)错误率低,计算开销不大,结果易理解。
163+ 缺点:对参数调节和核函数的选择敏感,原始分类器不加修改仅适合于处理二分类问题。
164+ 使用数据类型:数值型和标称型数据。
165+ ```
166+
175167> SVM简化版:应用简化版SMO算法处理小规模数据集
176168
177169代码可参考 svm-simple.py
@@ -181,7 +173,7 @@ SMO伪代码大致如下:
181173代码可参考 svm-complete_Non-Kernel.py
182174* 优化点:选择alpha的方式不同。
183175
184- ## 在复杂数据上应用核函数
176+ ## 核函数(kernel) 使用
185177
186178* 对于线性可分的情况,效果明显
187179* 对于非线性的情况也一样,此时需要用到一种叫` 核函数(kernel) ` 的工具将数据转化为分类器易于理解的形式。
@@ -192,10 +184,21 @@ SMO伪代码大致如下:
192184* 如果觉得特征空间很装逼、很难理解。
193185* 可以把核函数想象成一个包装器(wrapper)或者是接口(interface),它能将数据从某个很难处理的形式转换成为另一个较容易处理的形式。
194186* 经过空间转换后:低维需要解决的非线性问题,就变成了高维需要解决的线性问题。
195- * SVM优化特别好的地方 ,在于所有的运算都可以写成内积(inner product: 是指2个向量相乘,得到单个标量 或者 数值);内核替换成核函数的方式被称为` 核技巧(kernel trick) ` 或者` 核"变电"(kernel substation) `
187+ * SVM 优化特别好的地方 ,在于所有的运算都可以写成内积(inner product: 是指2个向量相乘,得到单个标量 或者 数值);内核替换成核函数的方式被称为` 核技巧(kernel trick) ` 或者` 核"变电"(kernel substation) `
196188* 核函数并不仅仅应用于支持向量机,很多其他的机器学习算法也都用到核函数。最流行的核函数:径向基函数(radial basis function)
197189* 径向基函数的高斯版本,其具体的公式为:
198- * ![ 径向基函数的高斯版本] ( /images/6.SVM/SVM_6_radial-basis-function.jpg )
190+
191+ ![ 径向基函数的高斯版本] ( /images/6.SVM/SVM_6_radial-basis-function.jpg )
192+
193+ ## 支持向量机 项目实战
194+
195+ ### 项目实战: 手写数字识别的优化
196+
197+
198+
199+
200+
201+
199202
200203* * *
201204
0 commit comments