序列最小优化算法 |
---|
概况 |
---|
类别 | 训练支持向量机的优化算法 |
---|
复杂度 |
---|
最坏时间复杂度 | O(n³) |
---|
相关变量的定义 |
---|
序列最小优化算法(英语:Sequential minimal optimization, SMO)是一种用于解决支持向量机训练过程中所产生优化问题的算法。SMO由微软研究院的约翰·普莱特于1998年发明[1],目前被广泛使用于SVM的训练过程中,并在通行的SVM库LIBSVM中得到实现。[2][3] 1998年,SMO算法发表在SVM研究领域内引起了轰动,因为先前可用的SVM训练方法必须使用复杂的方法,并需要昂贵的第三方二次规划工具。而SMO算法较好地避免了这一问题。[4]
问题定义
SMO算法主要用于解决支持向量机目标函数的最优化问题。考虑数据集
的二分类问题,其中
是输入向量,
是向量的类别标签,只允许取两个值。一个软间隔支持向量机的目标函数最优化等价于求解以下二次规划问题的最大值:
![{\displaystyle W=\max _{\alpha }\sum _{i=1}^{n}\alpha _{i}-{\frac {1}{2}}\sum _{i=1}^{n}\sum _{j=1}^{n}y_{i}y_{j}K(x_{i},x_{j})\alpha _{i}\alpha _{j},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06d1e72816e282de2550e7f9cf799df30419e0f1)
- 满足:
![{\displaystyle 0\leq \alpha _{i}\leq C,\quad {\mbox{ for }}i=1,2,\ldots ,n,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6f358b892c05a3b87095ffd83a1778534acef669)
![{\displaystyle \sum _{i=1}^{n}y_{i}\alpha _{i}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/171cf57347f4db4b83328dd45300e1378c555608)
其中,
是SVM的参数,而
是核函数。这两个参数都需要使用者制定。
算法
SMO是一种解决此类支持向量机优化问题的迭代算法。由于目标函数为凸函数,一般的优化算法都通过梯度方法一次优化一个变量求解二次规划问题的最大值,但是,对于以上问题,由于限制条件
存在,当某个
从
更新到
时,上述限制条件即被打破。为了克服以上的困难,SMO采用一次更新两个变量的方法。
数学推导
假设算法在某次更新时更新的变量为
和
,则其余变量都可以视为常量。为了描述方便,规定
![{\displaystyle K_{ij}=K(\mathbf {x_{i}} ,\mathbf {x_{j}} ),f(\mathbf {x_{i}} )=\sum _{j=1}^{n}y_{j}\alpha _{j}K_{ij}+b,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a3c79b28e7cfea0a51c50be723dc26a356ef8ba4)
![{\displaystyle v_{i}=f(\mathbf {x_{i}} )-\sum _{j=1}^{2}y_{j}\alpha _{j}K_{ij}-b}](https://wikimedia.org/api/rest_v1/media/math/render/svg/34b0c20cf8f44d3edb564e2a32795fe721136701)
因而,二次规划目标值可以写成
![{\displaystyle {\begin{array}{lcl}W(\alpha _{1},\alpha _{2})&=&\sum _{i=1}^{n}\alpha _{i}-{\frac {1}{2}}\sum _{i=1}^{n}\sum _{j=1}^{n}y_{i}y_{j}K(x_{i},x_{j})\alpha _{i}\alpha _{j}\\&=&\alpha _{1}+\alpha _{2}-{\frac {1}{2}}K_{11}\alpha _{1}^{2}-{\frac {1}{2}}K_{22}\alpha _{2}^{2}-y_{1}y_{2}K_{12}\alpha _{1}\alpha _{2}\\&&-y_{1}\alpha _{1}v_{1}-y_{2}\alpha _{2}v_{2}+{\text{constant}}\,\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2fcb18b484a724fba4b106259597d8d181326e37)
由于限制条件
存在,将
看作常数,则有
成立(
为常数)。由于
,从而
(
为变量
,
)。取
为优化变量,则上式又可写成
![{\displaystyle {\begin{array}{lcl}W(\alpha _{2})&=&\gamma -s\alpha _{2}+\alpha _{2}-{\frac {1}{2}}K_{11}(\gamma -s\alpha _{2})^{2}-{\frac {1}{2}}K_{22}\alpha _{2}^{2}\\&&-sK_{12}(\gamma -s\alpha _{2})\alpha _{2}-y_{1}(\gamma -s\alpha _{2})v_{1}-y_{2}\alpha _{2}v_{2}+{\text{constant}}\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cc9a3714659870d21a1c0365e8d22c15291e0ff3)
对
求偏导以求得最大值,有
![{\displaystyle {\begin{array}{lcl}{\frac {\partial W(\alpha _{2})}{\partial \alpha _{2}}}&=&-s+1+sK_{11}\gamma -K_{11}\alpha _{2}-K_{22}\alpha _{2}+2K_{12}\alpha _{2}-sK_{12}\gamma \\&&+y_{2}v_{1}-y_{2}v_{2}=0\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/98c42f12ff1cf7c2433e4e2c00d62a084f74392c)
因此,可以得到
![{\displaystyle \alpha _{2}^{new}={\frac {y_{2}(y_{2}-y_{1}+y_{1}\gamma (K_{11}-K_{12})+v_{1}-v_{2})}{K_{11}+K_{22}-2K_{12}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cb1d38dedd117de6a7efe498af094261004e7013)
规定误差项
,取
,并规定
,上述结果可以化简为
![{\displaystyle \alpha _{2}^{new}=\alpha _{2}^{old}+{\frac {y_{2}(E_{1}-E_{2})}{K}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/58228a794b3d87f264eb51fe808a323b8d2c071d)
再考虑限制条件
,
的取值只能为直线
落在
矩形中的部分。因此,具体的SMO算法需要检查
的值以确认这个值落在约束区间之内。[1][5]
算法框架
SMO算法是一个迭代优化算法。在每一个迭代步骤中,算法首先选取两个待更新的向量,此后分别计算它们的误差项,并根据上述结果计算出
和
。最后再根据SVM的定义计算出偏移量
。对于误差项而言,可以根据
、
和
的增量进行调整,而无需每次重新计算。具体的算法如下:
1 随机数初始化向量权重
,并计算偏移
2 初始化误差项
3 选取两个向量作为需要调整的点
4 令
5 如果
6 令
7 如果
8 令
9 令
10 利用更新的
和
修改
和
的值
11 如果达到终止条件,则停止算法,否则转3
其中,
和
为
的下界和上界。特别地,有
![{\displaystyle U={\begin{cases}\max {\left\{0,\alpha _{2}^{old}-\alpha _{1}^{old}\right\}}&y_{1}y_{2}=-1\\\max {\left\{0,\alpha _{1}^{old}+\alpha _{2}^{old}-C\right\}}&y_{1}y_{2}=1\end{cases}},V={\begin{cases}\min {\left\{C,C+\alpha _{2}^{old}-\alpha _{1}^{old}\right\}}&y_{1}y_{2}=-1\\\min {\left\{C,\alpha _{2}^{old}+\alpha _{1}^{old}\right\}}&y_{1}y_{2}=1\end{cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6b625811fc62ac9c5ea70efd53793b85e1a22d22)
这一约束的意义在于使得
和
均位于矩形域
中。[5]
优化向量选择方法
可以采用启发式的方法选择每次迭代中需要优化的向量。第一个向量可以选取不满足支持向量机KKT条件的向量,亦即不满足
![{\displaystyle y_{i}f(\mathbf {x} _{i}){\begin{cases}>1&\alpha _{i}=0\\=1&0<\alpha _{1}<C\\<1&\alpha _{i}=C\end{cases}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c5d50355067c2325aedd0400f9b0832a26adc1e0)
的向量。而第二个向量可以选择使得
最大的向量。[5]
终止条件
SMO算法的终止条件可以为KKT条件对所有向量均满足,或者目标函数
增长率小于某个阈值,即
[5]
参考资料
- ^ 1.0 1.1 Platt, John, Sequential Minimal Optimization: A Fast Algorithm for Training Support Vector Machines, 1998 [2010-12-03], (原始内容存档于2012-10-15)
- ^ Chih-Chung Chang and Chih-Jen Lin (2001). LIBSVM: a Library for Support Vector Machines (页面存档备份,存于互联网档案馆).
- ^ Luca Zanni (2006). Parallel Software for Training Large Scale Support Vector Machines on Multiprocessor Systems (页面存档备份,存于互联网档案馆).
- ^ Rifkin, Ryan, Everything Old is New Again: a Fresh Look at Historical Approaches in Machine Learning, Ph.D. thesis, 2002: 18 [2010-12-04], (原始内容存档于2012-03-14)
- ^ 5.0 5.1 5.2 5.3 Tsang, I. W.; Kwok, J. T.; Cheung, P. M., Core Vector Machines: Fast SVM Training on Very Large Data Sets, Journal of Machine Learning Research (6), 2005, (6): 363–392 [2010-12-06], (原始内容存档于2016-03-05)
参见