SlideShare une entreprise Scribd logo
1  sur  33
统计决策方法




         支持向量机
          简介
支持向量机是数据挖掘中的一项新技术,是借助于最优
化方法解决机器学习的问题的新工具,它由 Vap n ik 等根据
提出的一种新的机器学习方法,它以结构风险最小为原则,
它本质上是求解凸二次规划问题,在解决小样本、非线性和
高维模式识别问题中有较大优势。
基本原理

给定样本               {(x1 , y1 ), (x 2 , y2 ),L , (x n , yn )}, xi  yi

问题转化为寻找映射 f(x,w) :x i                                     f (x i , w)

        R( w) = E ( L(Y , f ( X , w))) = ∫ L( y, f ( x, w))dF ( x, y )

其中     L( y, f ( x, w))   损失函数。
          它是评价预测准确度的一种度量,不同的学
习问题有不同形式的损失函数。例
                         0 y = f ( x, ω )
(1) L( y, f ( x, ω )) =                       (2) L( y, f ( x, ω )) = ( y − f ( x, ω )) 2
                        1 y ≠ f ( x, ω )

(3) L( p( x, ω )) = − log p( x, ω )
基本原理

 定义经验风险 Remp(w):
                       1 n
            Remp ( w) = ∑ L( yi , f ( xi , w)) ⇒ min
                       n i =1

 理论上证明: lim P{sup | R( w) − Remp ( w) |> ε } = 0, ∀ε > 0

如果采用损失函数 (1 ) ,则 m in (Remp(w)) 表示错判率达最小
如果采用损失函数 (2) ,则 m in (Remp(w)) 即是最小二乘法;
;
如果采用损失函数 (3) ,则 m in (Remp(w)) 即是极大似然法;
经验风险最小化存在的问题:
( 1 ) Remp(w)≠R(w) ,推广能力或泛化能力受影响;
( 2 )所需样本容量大;
( 3 )某些情况下,当经验风险过小时,推广能力反而下
降;经验风险和期望风险的最小点不一致。…


 需要一种在有限的样本条件下建立有效的学习和推广方
法的理论,统计学习理论的发展和完善对解决上面的问题,
提供了坚实的理论基础与有效的学习方法。
统计学习理论

     统计学习理论主要包括 VC 理论、泛化性的界
、结构风险最小化等。

1. VC 维的直观定义:对于一个指示函数集,如果存在 k 个
样本能被函数集中的函数按所有可能的 2k 种形式分开,则称
函数集能把 k 个样本打散;


  VC 维反映了函数集的一种学习能力。 VC 维越大则学
习机越复杂。
统计学习理论

                                   *
*             *            *
                  *



        *             *                        *
                                       *
    *                          *           *


                  VC 维: 23=8

                      *
                               *
              *

            平面上任何一条直线都不能正确划分
统计学习理论

2. 推广性的界
     统计学习理论研究了对于各种类型的函数集,经验
风险和实际风险之间的关系,即推广性的界。对于两分类的
问题,推广性的界是指对指示函数集中的所有函数 f ,经验
风险和实际风险之间至少以 1-p 的概率满足如下关系:
                                h(ln(2n / h) + 1) − ln(4 / p)
     R ( f ) ≤ Remp ( f ) + (                                 )
                                             n

其中 h 是函数集的 VC 维, n 是样本数。
     实际风险由两部分组成:一部分是经验风险,
另一部分称作置信范围,它和学习机的 VC 维和样本数有
关。
统计学习理论

3. 结构风险最小化原则
  基本思想:要使实际风险最小,就需要使得不等式中两
项相互平衡,共同趋于极小。统计学习理论中提出了一种新
的策略,即把函数集合构造为一个函数子集序列:
            f1 ⊂ f 2 ⊂ L ⊂ f k ⊂ L

各个子集按照 VC 维的大小排序:
           h1 < h 2 < L < hk < L

     而 Remp ( f1 ) > Remp ( f 2 ) > L > Remp ( f k ) > L
统计学习理论

4. 支持向量机的基本思想
             通过最大化分类边界及最小化 VC 维,在保证经验
风险最小的基础上最小化置信范围,从而达到最小化结构风
险的目的。

                                         2              1
                               分类间隔
                                      || w ||   min        || w ||2
                                                 w ,b   2
                                                s.t.    yi (( w ⋅ xi ) + b) ≥ 1 , i = 1,L l ,
                                                         yi ∈ {−1, 1}


H :ω x + b = 0

                 ( 1 )线性可分情形
1
                     支持向量机                                          min        || w ||2
                                                                     w ,b   2
                                                                    s.t.    yi (( w ⋅ xi ) + b) ≥ 1 , i = 1,L l ,
引入 Lagrange 函数:                                                              yi ∈ {−1, 1}
                              l
                     1
       L(ω , b, α ) = Pω P −∑ α i ( yi ((ω ⋅ xi ) + b) − 1)
                          2

                     2      i =1



                                    ∂L(ω , b, α )              ∂L(ω , b, α )
      KKT
     由条件            ⇒                             = 0,                       =0
                                       ∂b                         ∂w
                           l                             l

                     ∑ yαi =1
                                    i    i   = 0, ω = ∑ α i yi xi
                                                        i =1



对偶问题:       min
                    1 l l                              l

                      ∑∑ yi y jα iα j ( xi ⋅ x j ) − ∑ α i
             α      2 i =1 j =1                      i =1
                     l
            s.t.   ∑ yα
                    i =1
                                i   i   = 0,                     (1. 1)

                   α i ≥ 0, i = 1,L , l.

注意:求解过程涉及到了样本的内积运算。
支持向量机

算法步骤:
( 1 )设训练集 T = {( x1 , y1 ), ( x2 , y2 ),L ( xl , yl )} ∈ ( X , Y )
                                                                                        l



        其中 xi ∈ X ∈ R P , yi ∈ Y = {−1,1}, i = 1,L , l ;


( 2 )求解最优化问题 (1.1) ,得最优解:
                       α * = (α1* , α 2 ,K , α l* )T
                                      *



( 3 )计算 w* = l y α * x
            ∑ i i i        i =1
                                                                          l

       并选择 α                                                 b = y j − ∑ yiα i* ( xi ⋅ x j )
                   *                                           *
                             的正分量,计
                                                                         i =1

    算
( 4 )构造线性最优分类超平面,得出决策函数:
                                      l ∗                     
                        f ( x) = sgn  ∑ ai yi ( x ⋅ xi ) + b∗ 
                                      i =1                    
支持向量机

        情形 1 :当训练样本线性不可分时,允许有不
满足约束条件i ) + b) ≥ 1
   yi (( w ⋅ x                                         的样本点存在
。
通过引入松弛变量,“软化”约束条件
          yi (( w ⋅ xi ) + b) ≥ 1 − ξi , i = 1,L l ,
         ξ i ≥ 0 , i = 1,L l ,
支持向量机


得到如下优化问题:
                             l
           1
     min     || w || +C ∑ ξi
                    2
      w ,b 2               i =1

     s.t. yi (( w ⋅ xi ) + b) ≥ 1 − ξi , i = 1,L l ,
             ξ i ≥ 0 , i = 1,L l ,
        C>0
      其中为惩罚参数。

转化为对偶问题:
                   1 l l                             l
           min
            α
                     ∑∑ yi y jαiα j ( xi ⋅ x j ) − ∑ αi
                   2 i =1 j =1                     i =1
                   l
           s.t.   ∑ yα
                  i =1
                         i   i   = 0,                      1.2
                                                          ()

                  0 ≤ α i ≤ C , i = 1,L , l.
支持向量机

            情形 2 :当训练集线性不可分时,可以通过非
线性映射将原始空间的样本映射到高维特征空间中,即
寻找非线性变换: p → φ ( x) ∈ R m , (m > p)
     φ : x∈ R

             1 l l                                        l
     min
      α
               ∑∑ yi y jα iα j (φ ( xi ) ⋅ φ ( x j )) − ∑ α i
             2 i =1 j =1                                i =1
              l
     s.t.   ∑ yα
             i =1
                    i   i   = 0,                                  (1.3)

            α i ≥ 0, i = 1,L , l.

            由于内积运算是在相对的高维空间中进行,容
易引起维数灾难。为此引入核函数 K(.) ,满足
                        K ( xi , x j ) = (φ ( xi ) ⋅ φ ( x j ))
支持向量机

即           1 l l                                l
    min
     α
              ∑∑ yi y jα iα j K ( xi , x j ) − ∑ α i
            2 i =1 j =1                        i =1
             l
    s.t.   ∑ yα
            i =1
                   i   i   = 0,                        (1.4)

           α i ≥ 0, i = 1,L , l.

注意:还可以引入松弛变量到优化问题中。
支持向量机

常见的核函数:

                           K ( x, x′) = (( x ⋅ x′) + c) d   c≥0
( 1 )多项式核
                                                      Px − x′ P
( 2 )高斯径向基核                   K ( x, x′) = exp(−               )
                                                        σ2

( 3 ) Sigmoid 核            K ( x, x′) = tanh(λ ( x ⋅ x′) + a ) λ > 0, a < 0
                                          1 − q2
( 4 ) Fourier 核函数K1 ( x, x ') =
                                2(1 − 2q cos( x − x ') + q 2 )
……                                                     π − x − x'
                                                  cosh(           )
                                             π             r
                           K 2 ( x, x ') =
                                             2r           π
                                                      sin( )
                                                          r
支持向量机

核函数的性质:

2. 封闭性   K1 + K 2 , α K1 , K1 ⋅ K 2 , K = lim K n是核函数。
                                                  n →∞

         K ( x, z ) =< ϕ ( x), ϕ ( z ) >=< ϕ ( z ), ϕ ( x) >= K ( z , x )
3. 对称性

4. 复合性   若是核函数,是任意函数, f : X → R
          K:X×X →R
         则和也是核函数。 ( x, z ) f ( z )
          f ( x) f ( z ) f ( x) K


针对问题,如何选择核函数?
支持向量机算法的改进

问题:
  1. 对于核函数及其参数的选择没有形成一个统一
 的模式,只能凭经验、实验对比、大范围的搜索或交
 叉验证等方法进行寻优。
  2. 当样本数很大时,一般的二次规划求解方法不
 再适用,需要用到 “ 分块 ” 或 “ 分解 ” 的近似算法,但
 所耗内存空间大,迭代次数多,训练时间长等。
支持向量机算法的改进

1 ) v- S VM
   特点:克服了 S VM 中 C 参数难以确定问题。同时
  还可以减少两类样本不平衡问题。适用于样本不均衡
  问题。
2 ) L S - S VM
   特点:通过映射将原空间的不等式约束转化为特征
  空间中的等式约束,转化后的对偶问题为求解一组线
  性方程组。优点:计算代价小,泛化性能好,不易陷
  入局部极小。
支持向量机算法的改进

3 ) G S VM
   当数据线性不可分时, S VM 要求满足 Me rc e r 条件
  ,即正定核条件。 G S VM 突破了这一限制。

4 ) S mo o th S VM
  特点:通过一定的变形技巧,使其转化为光滑的无
  约束问题,再利用经典的最优化方法求解。
支持向量机算法的改进
5 ) P o s s ib ilis tic S VM
   结合输入数据的几何分布,每个数据有一个可能性
   隶属值,反映对本类的隶属度,有效克服 S VM 中对
   每个数据平等对待的缺点。当样本点个数小于维数时
   ,能有效解决过拟合问题。
6 ) S e mi S up e rvis e d S VM
   适用于训练集规模比工作集大得多的情况。加进约
  束条件:两类中的误分误差情形,有效地增强了它的
  泛化能力。
……
构造映射的 svm
基本思想:
对原样本进行特征提取,引入距离映射或条件概率映射 φ ,将高维空间的样本 x
         φ
转化为二维空间的样本( x) = ( z1 , z2 ) ∈ R ,
                            T   2
                                   K (φ引入核函数:x) ⋅ φ ( x '))
                                       ( x), φ ( x ')) = (φ (

1 . 距离映射
                              ˆˆ ˆ −
             d12 ( x) = ( x − µ1 )T ∑1 1 ( x − µ1 )
               2
                              ˆˆ ˆ −
             d 2 ( x) = ( x − µ2 )T ∑1 1 ( x − µ2 )       —— 马氏距离

    定义映射 φ : x → (d1 ( x), d 2 ( x))
                                2          2          T



     由此定义核函数:

           K ( x, x′) = (φ ( x) ⋅ φ ( x′)) = d12 ( x) d12 ( x ') + d 2 ( x)d 2 ( x′), x, x ' ∈ R p
                                                                     2       2
构造映射的 svm
2. 条件概率映射
                    φ : x → ( P(G1 ) P ( x | G1 ), P(G2 ) P ( x | G2 ))T

  K ( x, x′) = (φ ( x) ⋅ φ ( x′)) = P(G1 ) 2 P( x | G1 ) P ( x ' | G1 ) + P(G2 ) 2 P ( x | G2 ) P ( x ' | G2 )


 在二维空间中求解原始最优化问题:
                       1
             min           || w || 2
              w ,b     2
             s.t.      y i (( w ⋅ xi′ ) + b) ≥ 1 , i = 1,   l,


 决策变量只有三个: w1,w2, b

                                                        ′       ′
        f ( x) = sgn((φ ( x) ⋅ w∗ ) + b∗ ) = sgn(α w1∗ x1 + w2 x2 + b∗ )
                                                             ∗


       其中为修正参数,一般取 α ∈ [0, 2]
         α
构造映射的 svm

30


25
                   正类

20


15
                                  负类
10


 5


 0
     0   5    10        15   20        25   30
构造映射的 svm
构造映射的 svm
构造映射的 svm
构造映射的 svm
构造映射的 svm
支持向量机多分类问题
1 . 一对多分类方法
 基本思路:
        对 k 个类别的分类问题,构造 k 个两分类的支持向量
 分类机。
 在构建第 j 个分类器中时,将训练集中属于第 j 类的样本标为
 +1 ,
 属于其它类的样本标为 -1 。这样第 i 个分类器的最优化问题:
       1      l
         i 2
        min     i
                         Pω P +C ∑ ξ j
        ω i bi ξ i   2                 j =1

             y j ((ω i ⋅ x j ) + bi ) ≥ 1 − ξ ij
            
        s.t  i                                        i = 1, 2,..., k
            ξ j ≥ 0 j = 1,L , l
            

                            f1 ( x) = ω1 ⋅ x + b1
求出 k 个决策函数                         M                        ⇒ x ∈ class = arg max fi ( x)
                            f k ( x) = ω k ⋅ x + b k                           i
Ck2



                         支持向量机多分类问题
      2. 一对一分类方法
       基本思路:
                 分解为多个二分类问题的算法。总共需要构建 k(k-1)/2
                 Ck2
       个子 SVM 分类器。得到                                             决策函数

           f1,2 ( x) = ω 1,2 ⋅ x + b1,2
                     M
                                                                                   k         fi , j ( x) + 1
           f i , j ( x ) = ω i , j ⋅ x + bi , j
                    M
                                                  (i < j )       ⇒ Di ( x) =    ∑
                                                                               j =1, j ≠ i        2
                                                                                                               (i = 1,L , k )

           f k −1,k ( x) = ω k −1,k ⋅ x + b k −1,k



                         x ∈ class = arg max Di ( x)
                                                             i
支持向量机多分类问题
1 . 二叉树分类方法

对有 k 个类别的多分类问题,需要构造 k-1 个二分类 SVM 分类器,



                              Svm1




              Svm2                            Svm3




     Class1          Class2          Class3          Class4

Contenu connexe

Tendances

对偶分解与拉格朗日松弛在自然语言处理推理的应用导论
对偶分解与拉格朗日松弛在自然语言处理推理的应用导论对偶分解与拉格朗日松弛在自然语言处理推理的应用导论
对偶分解与拉格朗日松弛在自然语言处理推理的应用导论
zhaoweihb
 
锁具装箱
锁具装箱锁具装箱
锁具装箱
visayafan
 
1 4錐線與直線的關係
1 4錐線與直線的關係1 4錐線與直線的關係
1 4錐線與直線的關係
leohonesty0814
 
人类行为与最大熵原理
人类行为与最大熵原理人类行为与最大熵原理
人类行为与最大熵原理
Chengjun Wang
 
实验四 用Mathematica软件作导数应用
实验四  用Mathematica软件作导数应用实验四  用Mathematica软件作导数应用
实验四 用Mathematica软件作导数应用
guestfe33f0e
 
香港六合彩
香港六合彩香港六合彩
香港六合彩
wivnw
 
康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形
康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形
康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形
Jimmy Ma
 
康軒 國中數學 3下 課本ppt 1-3 應用問題
康軒 國中數學 3下 課本ppt 1-3 應用問題康軒 國中數學 3下 課本ppt 1-3 應用問題
康軒 國中數學 3下 課本ppt 1-3 應用問題
Jimmy Ma
 
康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值
康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值
康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值
Jimmy Ma
 
(统本)《抽样技术》第七章 整群抽样
(统本)《抽样技术》第七章  整群抽样(统本)《抽样技术》第七章  整群抽样
(统本)《抽样技术》第七章 整群抽样
yoyo1120love
 
1.6数的开方与二次根式
1.6数的开方与二次根式1.6数的开方与二次根式
1.6数的开方与二次根式
zhengweimin83
 

Tendances (19)

对偶分解与拉格朗日松弛在自然语言处理推理的应用导论
对偶分解与拉格朗日松弛在自然语言处理推理的应用导论对偶分解与拉格朗日松弛在自然语言处理推理的应用导论
对偶分解与拉格朗日松弛在自然语言处理推理的应用导论
 
2牛顿运动定律
2牛顿运动定律2牛顿运动定律
2牛顿运动定律
 
2 3平面方程式
2 3平面方程式2 3平面方程式
2 3平面方程式
 
锁具装箱
锁具装箱锁具装箱
锁具装箱
 
1 4錐線與直線的關係
1 4錐線與直線的關係1 4錐線與直線的關係
1 4錐線與直線的關係
 
2 4複數
2 4複數2 4複數
2 4複數
 
1 1指數
1 1指數1 1指數
1 1指數
 
Part 6 2010
Part 6 2010Part 6 2010
Part 6 2010
 
人类行为与最大熵原理
人类行为与最大熵原理人类行为与最大熵原理
人类行为与最大熵原理
 
实验四 用Mathematica软件作导数应用
实验四  用Mathematica软件作导数应用实验四  用Mathematica软件作导数应用
实验四 用Mathematica软件作导数应用
 
香港六合彩
香港六合彩香港六合彩
香港六合彩
 
康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形
康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形
康軒 國中數學 3下 課本ppt 1-1 二次函數的圖形
 
康軒 國中數學 3下 課本ppt 1-3 應用問題
康軒 國中數學 3下 課本ppt 1-3 應用問題康軒 國中數學 3下 課本ppt 1-3 應用問題
康軒 國中數學 3下 課本ppt 1-3 應用問題
 
康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值
康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值
康軒 國中數學 3下 課本ppt 1-2 二次函數的最大值、最小值
 
3 1矩陣列運算
3 1矩陣列運算3 1矩陣列運算
3 1矩陣列運算
 
(统本)《抽样技术》第七章 整群抽样
(统本)《抽样技术》第七章  整群抽样(统本)《抽样技术》第七章  整群抽样
(统本)《抽样技术》第七章 整群抽样
 
1.6数的开方与二次根式
1.6数的开方与二次根式1.6数的开方与二次根式
1.6数的开方与二次根式
 
6习题课 振动
6习题课 振动6习题课 振动
6习题课 振动
 
Ch1
Ch1Ch1
Ch1
 

En vedette

Is talking the most effective and satisfying way of communicating with others?
Is talking the most effective and satisfying way of communicating with others?Is talking the most effective and satisfying way of communicating with others?
Is talking the most effective and satisfying way of communicating with others?
Qiang Hao
 
KCB May 2008 Cover
KCB May 2008 CoverKCB May 2008 Cover
KCB May 2008 Cover
rsmacintosh
 

En vedette (20)

Is talking the most effective and satisfying way of communicating with others?
Is talking the most effective and satisfying way of communicating with others?Is talking the most effective and satisfying way of communicating with others?
Is talking the most effective and satisfying way of communicating with others?
 
Bebepolis
BebepolisBebepolis
Bebepolis
 
Biolog condtarea10
Biolog condtarea10Biolog condtarea10
Biolog condtarea10
 
Sxsf
SxsfSxsf
Sxsf
 
KCB May 2008 Cover
KCB May 2008 CoverKCB May 2008 Cover
KCB May 2008 Cover
 
Chemo senses
Chemo sensesChemo senses
Chemo senses
 
Convenience platform: Zero Budget Marketing.
Convenience platform: Zero Budget Marketing.Convenience platform: Zero Budget Marketing.
Convenience platform: Zero Budget Marketing.
 
islah e ahle hadees
islah e ahle hadeesislah e ahle hadees
islah e ahle hadees
 
srthsrth
srthsrthsrthsrth
srthsrth
 
Types and Styles of music videos
Types and Styles of music videosTypes and Styles of music videos
Types and Styles of music videos
 
ASI Financials 2011 Brochure
ASI Financials 2011 BrochureASI Financials 2011 Brochure
ASI Financials 2011 Brochure
 
1.vitamines and coenzymes 31.03.2071
1.vitamines and coenzymes 31.03.20711.vitamines and coenzymes 31.03.2071
1.vitamines and coenzymes 31.03.2071
 
The engineer’s licensing guidance document ELGD 2007
The engineer’s licensing guidance document ELGD 2007The engineer’s licensing guidance document ELGD 2007
The engineer’s licensing guidance document ELGD 2007
 
ePortfolio@LaGuardia Community College:What, Why and How
ePortfolio@LaGuardia Community College:What, Why and HowePortfolio@LaGuardia Community College:What, Why and How
ePortfolio@LaGuardia Community College:What, Why and How
 
Wikihow howtomakespaghetti
Wikihow   howtomakespaghettiWikihow   howtomakespaghetti
Wikihow howtomakespaghetti
 
Rian vebrianto brunai (PEMBANGUNAN MEDIA PENGAJARAN: MODUL DAN MULTIMEDIA DA...
Rian vebrianto  brunai (PEMBANGUNAN MEDIA PENGAJARAN: MODUL DAN MULTIMEDIA DA...Rian vebrianto  brunai (PEMBANGUNAN MEDIA PENGAJARAN: MODUL DAN MULTIMEDIA DA...
Rian vebrianto brunai (PEMBANGUNAN MEDIA PENGAJARAN: MODUL DAN MULTIMEDIA DA...
 
Because i believe i can
Because i believe i canBecause i believe i can
Because i believe i can
 
Transactional learning and simulations: how far can we go in professional leg...
Transactional learning and simulations: how far can we go in professional leg...Transactional learning and simulations: how far can we go in professional leg...
Transactional learning and simulations: how far can we go in professional leg...
 
Thermal Management And Sd0802 C Presentation
Thermal Management And Sd0802 C PresentationThermal Management And Sd0802 C Presentation
Thermal Management And Sd0802 C Presentation
 
Pk std
Pk stdPk std
Pk std
 

Similaire à 支持向量机算法

从零推导支持向量机(SVM).pdf
从零推导支持向量机(SVM).pdf从零推导支持向量机(SVM).pdf
从零推导支持向量机(SVM).pdf
xuepengzhou
 
实验二 用Mathmatica软件求极限
实验二  用Mathmatica软件求极限实验二  用Mathmatica软件求极限
实验二 用Mathmatica软件求极限
guestfe33f0e
 
实验二 用Mathmatica软件求极限
实验二  用Mathmatica软件求极限实验二  用Mathmatica软件求极限
实验二 用Mathmatica软件求极限
Xin Zheng
 
实验九 用Mathematica软件求函数偏导数与多元函数的极值
实验九  用Mathematica软件求函数偏导数与多元函数的极值实验九  用Mathematica软件求函数偏导数与多元函数的极值
实验九 用Mathematica软件求函数偏导数与多元函数的极值
guestfe33f0e
 
实验九 用Mathematica软件求函数偏导数与多元函数的极值
实验九  用Mathematica软件求函数偏导数与多元函数的极值实验九  用Mathematica软件求函数偏导数与多元函数的极值
实验九 用Mathematica软件求函数偏导数与多元函数的极值
Xin Zheng
 
Algorithms.exercises.solution
Algorithms.exercises.solutionAlgorithms.exercises.solution
Algorithms.exercises.solution
Regina Long
 
2012力学相对论复习
2012力学相对论复习2012力学相对论复习
2012力学相对论复习
xleog
 
7习题课 机械波
7习题课 机械波7习题课 机械波
7习题课 机械波
vincent930218
 
A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE
A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE     A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE
A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE
Jian Michael
 
2.3二元一次方程组及其解法
2.3二元一次方程组及其解法2.3二元一次方程组及其解法
2.3二元一次方程组及其解法
zhengweimin83
 
2012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ1
2012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ12012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ1
2012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ1
Pei Dong
 
实验四 用Mathematica软件作导数应用
实验四  用Mathematica软件作导数应用实验四  用Mathematica软件作导数应用
实验四 用Mathematica软件作导数应用
Xin Zheng
 
3习题课 质点力学(2)
3习题课 质点力学(2)3习题课 质点力学(2)
3习题课 质点力学(2)
vincent930218
 
1.4乘法公式与因式分解
1.4乘法公式与因式分解1.4乘法公式与因式分解
1.4乘法公式与因式分解
zhengweimin83
 

Similaire à 支持向量机算法 (20)

从零推导支持向量机(SVM).pdf
从零推导支持向量机(SVM).pdf从零推导支持向量机(SVM).pdf
从零推导支持向量机(SVM).pdf
 
实验二 用Mathmatica软件求极限
实验二  用Mathmatica软件求极限实验二  用Mathmatica软件求极限
实验二 用Mathmatica软件求极限
 
实验二 用Mathmatica软件求极限
实验二  用Mathmatica软件求极限实验二  用Mathmatica软件求极限
实验二 用Mathmatica软件求极限
 
【逆轉勝】數學學測總複習講義
【逆轉勝】數學學測總複習講義【逆轉勝】數學學測總複習講義
【逆轉勝】數學學測總複習講義
 
指考乙公式
指考乙公式指考乙公式
指考乙公式
 
指考甲公式
指考甲公式指考甲公式
指考甲公式
 
福建省福州大学2019年暑假物理竞赛夏令营-物理奥赛进阶之路:0-1+微积分初步+40张ppt.pptx
福建省福州大学2019年暑假物理竞赛夏令营-物理奥赛进阶之路:0-1+微积分初步+40张ppt.pptx福建省福州大学2019年暑假物理竞赛夏令营-物理奥赛进阶之路:0-1+微积分初步+40张ppt.pptx
福建省福州大学2019年暑假物理竞赛夏令营-物理奥赛进阶之路:0-1+微积分初步+40张ppt.pptx
 
实验九 用Mathematica软件求函数偏导数与多元函数的极值
实验九  用Mathematica软件求函数偏导数与多元函数的极值实验九  用Mathematica软件求函数偏导数与多元函数的极值
实验九 用Mathematica软件求函数偏导数与多元函数的极值
 
实验九 用Mathematica软件求函数偏导数与多元函数的极值
实验九  用Mathematica软件求函数偏导数与多元函数的极值实验九  用Mathematica软件求函数偏导数与多元函数的极值
实验九 用Mathematica软件求函数偏导数与多元函数的极值
 
Algorithms.exercises.solution
Algorithms.exercises.solutionAlgorithms.exercises.solution
Algorithms.exercises.solution
 
2012力学相对论复习
2012力学相对论复习2012力学相对论复习
2012力学相对论复习
 
机器学习V10baochang svm
机器学习V10baochang svm机器学习V10baochang svm
机器学习V10baochang svm
 
7习题课 机械波
7习题课 机械波7习题课 机械波
7习题课 机械波
 
A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE
A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE     A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE
A ROBUST MODELING FOR MULTIPLE NONLINEAR REGRESSION USING BEZIER SURFACE
 
2.3二元一次方程组及其解法
2.3二元一次方程组及其解法2.3二元一次方程组及其解法
2.3二元一次方程组及其解法
 
2012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ1
2012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ12012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ1
2012¸ßò»êýñ§ 3.2.2 ¼¸à಻í¬ôö³¤µäº¯êýä£ðí¿î¼þ_ðâèë½ìa°æ±øðþ1
 
实验四 用Mathematica软件作导数应用
实验四  用Mathematica软件作导数应用实验四  用Mathematica软件作导数应用
实验四 用Mathematica软件作导数应用
 
3习题课 质点力学(2)
3习题课 质点力学(2)3习题课 质点力学(2)
3习题课 质点力学(2)
 
直线和圆
直线和圆直线和圆
直线和圆
 
1.4乘法公式与因式分解
1.4乘法公式与因式分解1.4乘法公式与因式分解
1.4乘法公式与因式分解
 

Dernier

法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个
法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个
法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个
michaelell902
 
10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习
10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习
10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习
PUAXINYEEMoe
 
1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂
1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂
1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂
PUAXINYEEMoe
 

Dernier (9)

法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个
法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个
法国蒙彼利埃国家高等建筑学院毕业证制作/德语歌德B1证书/加拿大新斯科舍省农业学院文凭加急制作一个
 
taibif_開放資料流程-清理資料01-通則_20240509_20240509.pdf
taibif_開放資料流程-清理資料01-通則_20240509_20240509.pdftaibif_開放資料流程-清理資料01-通則_20240509_20240509.pdf
taibif_開放資料流程-清理資料01-通則_20240509_20240509.pdf
 
taibif_資料標準概念介紹_20240509_20240509_20340509.pdf
taibif_資料標準概念介紹_20240509_20240509_20340509.pdftaibif_資料標準概念介紹_20240509_20240509_20340509.pdf
taibif_資料標準概念介紹_20240509_20240509_20340509.pdf
 
10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习
10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习
10.2.1 马来西亚各州名称的由来六年级历史单元练习马来西亚各州名称的由来练习
 
1.🎉成绩单,你的成绩! 💡🔥每个人都有自己的成绩单,它记录着我们努力的成果。但有时候,看着这些数字,却发现它们好像在嘲笑我?别担心,让我来告诉你们怎么改...
1.🎉成绩单,你的成绩! 💡🔥每个人都有自己的成绩单,它记录着我们努力的成果。但有时候,看着这些数字,却发现它们好像在嘲笑我?别担心,让我来告诉你们怎么改...1.🎉成绩单,你的成绩! 💡🔥每个人都有自己的成绩单,它记录着我们努力的成果。但有时候,看着这些数字,却发现它们好像在嘲笑我?别担心,让我来告诉你们怎么改...
1.🎉成绩单,你的成绩! 💡🔥每个人都有自己的成绩单,它记录着我们努力的成果。但有时候,看着这些数字,却发现它们好像在嘲笑我?别担心,让我来告诉你们怎么改...
 
1.🎉“黑客”如何修改成绩?🤔🎉 在这个信息爆炸的时代,我们经常会看到各种作弊手段。但是你知道吗?有一种作弊方式可能比你想象中更巧妙:它就是——黑客![单...
1.🎉“黑客”如何修改成绩?🤔🎉 在这个信息爆炸的时代,我们经常会看到各种作弊手段。但是你知道吗?有一种作弊方式可能比你想象中更巧妙:它就是——黑客![单...1.🎉“黑客”如何修改成绩?🤔🎉 在这个信息爆炸的时代,我们经常会看到各种作弊手段。但是你知道吗?有一种作弊方式可能比你想象中更巧妙:它就是——黑客![单...
1.🎉“黑客”如何修改成绩?🤔🎉 在这个信息爆炸的时代,我们经常会看到各种作弊手段。但是你知道吗?有一种作弊方式可能比你想象中更巧妙:它就是——黑客![单...
 
1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂
1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂
1.1.3急救你必须懂四年级设计与工艺练习活页练习单元一四年级设计与工艺急救你必须懂
 
Math Chapter3-教學PPT第03單元形體關係、體積與表面積Grade Six
Math Chapter3-教學PPT第03單元形體關係、體積與表面積Grade SixMath Chapter3-教學PPT第03單元形體關係、體積與表面積Grade Six
Math Chapter3-教學PPT第03單元形體關係、體積與表面積Grade Six
 
啟思中國語文 - 中二 單元一 - 孟嘗君列傳 - 記敍的方法和人稱1.pptx
啟思中國語文 - 中二 單元一 - 孟嘗君列傳 - 記敍的方法和人稱1.pptx啟思中國語文 - 中二 單元一 - 孟嘗君列傳 - 記敍的方法和人稱1.pptx
啟思中國語文 - 中二 單元一 - 孟嘗君列傳 - 記敍的方法和人稱1.pptx
 

支持向量机算法

  • 1. 统计决策方法 支持向量机 简介
  • 2. 支持向量机是数据挖掘中的一项新技术,是借助于最优 化方法解决机器学习的问题的新工具,它由 Vap n ik 等根据 提出的一种新的机器学习方法,它以结构风险最小为原则, 它本质上是求解凸二次规划问题,在解决小样本、非线性和 高维模式识别问题中有较大优势。
  • 3. 基本原理 给定样本 {(x1 , y1 ), (x 2 , y2 ),L , (x n , yn )}, xi  yi 问题转化为寻找映射 f(x,w) :x i  f (x i , w) R( w) = E ( L(Y , f ( X , w))) = ∫ L( y, f ( x, w))dF ( x, y ) 其中 L( y, f ( x, w)) 损失函数。 它是评价预测准确度的一种度量,不同的学 习问题有不同形式的损失函数。例  0 y = f ( x, ω ) (1) L( y, f ( x, ω )) =  (2) L( y, f ( x, ω )) = ( y − f ( x, ω )) 2 1 y ≠ f ( x, ω ) (3) L( p( x, ω )) = − log p( x, ω )
  • 4. 基本原理 定义经验风险 Remp(w): 1 n Remp ( w) = ∑ L( yi , f ( xi , w)) ⇒ min n i =1 理论上证明: lim P{sup | R( w) − Remp ( w) |> ε } = 0, ∀ε > 0 如果采用损失函数 (1 ) ,则 m in (Remp(w)) 表示错判率达最小 如果采用损失函数 (2) ,则 m in (Remp(w)) 即是最小二乘法; ; 如果采用损失函数 (3) ,则 m in (Remp(w)) 即是极大似然法;
  • 5. 经验风险最小化存在的问题: ( 1 ) Remp(w)≠R(w) ,推广能力或泛化能力受影响; ( 2 )所需样本容量大; ( 3 )某些情况下,当经验风险过小时,推广能力反而下 降;经验风险和期望风险的最小点不一致。… 需要一种在有限的样本条件下建立有效的学习和推广方 法的理论,统计学习理论的发展和完善对解决上面的问题, 提供了坚实的理论基础与有效的学习方法。
  • 6. 统计学习理论 统计学习理论主要包括 VC 理论、泛化性的界 、结构风险最小化等。 1. VC 维的直观定义:对于一个指示函数集,如果存在 k 个 样本能被函数集中的函数按所有可能的 2k 种形式分开,则称 函数集能把 k 个样本打散; VC 维反映了函数集的一种学习能力。 VC 维越大则学 习机越复杂。
  • 7. 统计学习理论 * * * * * * * * * * * * VC 维: 23=8 * * * 平面上任何一条直线都不能正确划分
  • 8. 统计学习理论 2. 推广性的界 统计学习理论研究了对于各种类型的函数集,经验 风险和实际风险之间的关系,即推广性的界。对于两分类的 问题,推广性的界是指对指示函数集中的所有函数 f ,经验 风险和实际风险之间至少以 1-p 的概率满足如下关系: h(ln(2n / h) + 1) − ln(4 / p) R ( f ) ≤ Remp ( f ) + ( ) n 其中 h 是函数集的 VC 维, n 是样本数。 实际风险由两部分组成:一部分是经验风险, 另一部分称作置信范围,它和学习机的 VC 维和样本数有 关。
  • 9. 统计学习理论 3. 结构风险最小化原则 基本思想:要使实际风险最小,就需要使得不等式中两 项相互平衡,共同趋于极小。统计学习理论中提出了一种新 的策略,即把函数集合构造为一个函数子集序列: f1 ⊂ f 2 ⊂ L ⊂ f k ⊂ L 各个子集按照 VC 维的大小排序: h1 < h 2 < L < hk < L 而 Remp ( f1 ) > Remp ( f 2 ) > L > Remp ( f k ) > L
  • 10. 统计学习理论 4. 支持向量机的基本思想 通过最大化分类边界及最小化 VC 维,在保证经验 风险最小的基础上最小化置信范围,从而达到最小化结构风 险的目的。 2 1 分类间隔 || w || min || w ||2 w ,b 2 s.t. yi (( w ⋅ xi ) + b) ≥ 1 , i = 1,L l , yi ∈ {−1, 1} H :ω x + b = 0 ( 1 )线性可分情形
  • 11. 1 支持向量机 min || w ||2 w ,b 2 s.t. yi (( w ⋅ xi ) + b) ≥ 1 , i = 1,L l , 引入 Lagrange 函数: yi ∈ {−1, 1} l 1 L(ω , b, α ) = Pω P −∑ α i ( yi ((ω ⋅ xi ) + b) − 1) 2 2 i =1 ∂L(ω , b, α ) ∂L(ω , b, α ) KKT 由条件 ⇒ = 0, =0 ∂b ∂w l l ∑ yαi =1 i i = 0, ω = ∑ α i yi xi i =1 对偶问题: min 1 l l l ∑∑ yi y jα iα j ( xi ⋅ x j ) − ∑ α i α 2 i =1 j =1 i =1 l s.t. ∑ yα i =1 i i = 0, (1. 1) α i ≥ 0, i = 1,L , l. 注意:求解过程涉及到了样本的内积运算。
  • 12. 支持向量机 算法步骤: ( 1 )设训练集 T = {( x1 , y1 ), ( x2 , y2 ),L ( xl , yl )} ∈ ( X , Y ) l 其中 xi ∈ X ∈ R P , yi ∈ Y = {−1,1}, i = 1,L , l ; ( 2 )求解最优化问题 (1.1) ,得最优解: α * = (α1* , α 2 ,K , α l* )T * ( 3 )计算 w* = l y α * x ∑ i i i i =1 l 并选择 α b = y j − ∑ yiα i* ( xi ⋅ x j ) * * 的正分量,计 i =1 算 ( 4 )构造线性最优分类超平面,得出决策函数:  l ∗  f ( x) = sgn  ∑ ai yi ( x ⋅ xi ) + b∗   i =1 
  • 13. 支持向量机 情形 1 :当训练样本线性不可分时,允许有不 满足约束条件i ) + b) ≥ 1 yi (( w ⋅ x 的样本点存在 。 通过引入松弛变量,“软化”约束条件 yi (( w ⋅ xi ) + b) ≥ 1 − ξi , i = 1,L l , ξ i ≥ 0 , i = 1,L l ,
  • 14. 支持向量机 得到如下优化问题: l 1 min || w || +C ∑ ξi 2 w ,b 2 i =1 s.t. yi (( w ⋅ xi ) + b) ≥ 1 − ξi , i = 1,L l , ξ i ≥ 0 , i = 1,L l , C>0 其中为惩罚参数。 转化为对偶问题: 1 l l l min α ∑∑ yi y jαiα j ( xi ⋅ x j ) − ∑ αi 2 i =1 j =1 i =1 l s.t. ∑ yα i =1 i i = 0, 1.2 () 0 ≤ α i ≤ C , i = 1,L , l.
  • 15. 支持向量机 情形 2 :当训练集线性不可分时,可以通过非 线性映射将原始空间的样本映射到高维特征空间中,即 寻找非线性变换: p → φ ( x) ∈ R m , (m > p) φ : x∈ R 1 l l l min α ∑∑ yi y jα iα j (φ ( xi ) ⋅ φ ( x j )) − ∑ α i 2 i =1 j =1 i =1 l s.t. ∑ yα i =1 i i = 0, (1.3) α i ≥ 0, i = 1,L , l. 由于内积运算是在相对的高维空间中进行,容 易引起维数灾难。为此引入核函数 K(.) ,满足 K ( xi , x j ) = (φ ( xi ) ⋅ φ ( x j ))
  • 16. 支持向量机 即 1 l l l min α ∑∑ yi y jα iα j K ( xi , x j ) − ∑ α i 2 i =1 j =1 i =1 l s.t. ∑ yα i =1 i i = 0, (1.4) α i ≥ 0, i = 1,L , l. 注意:还可以引入松弛变量到优化问题中。
  • 17. 支持向量机 常见的核函数: K ( x, x′) = (( x ⋅ x′) + c) d c≥0 ( 1 )多项式核 Px − x′ P ( 2 )高斯径向基核 K ( x, x′) = exp(− ) σ2 ( 3 ) Sigmoid 核 K ( x, x′) = tanh(λ ( x ⋅ x′) + a ) λ > 0, a < 0 1 − q2 ( 4 ) Fourier 核函数K1 ( x, x ') = 2(1 − 2q cos( x − x ') + q 2 ) …… π − x − x' cosh( ) π r K 2 ( x, x ') = 2r π sin( ) r
  • 18. 支持向量机 核函数的性质: 2. 封闭性 K1 + K 2 , α K1 , K1 ⋅ K 2 , K = lim K n是核函数。 n →∞ K ( x, z ) =< ϕ ( x), ϕ ( z ) >=< ϕ ( z ), ϕ ( x) >= K ( z , x ) 3. 对称性 4. 复合性 若是核函数,是任意函数, f : X → R K:X×X →R 则和也是核函数。 ( x, z ) f ( z ) f ( x) f ( z ) f ( x) K 针对问题,如何选择核函数?
  • 19. 支持向量机算法的改进 问题: 1. 对于核函数及其参数的选择没有形成一个统一 的模式,只能凭经验、实验对比、大范围的搜索或交 叉验证等方法进行寻优。 2. 当样本数很大时,一般的二次规划求解方法不 再适用,需要用到 “ 分块 ” 或 “ 分解 ” 的近似算法,但 所耗内存空间大,迭代次数多,训练时间长等。
  • 20. 支持向量机算法的改进 1 ) v- S VM 特点:克服了 S VM 中 C 参数难以确定问题。同时 还可以减少两类样本不平衡问题。适用于样本不均衡 问题。 2 ) L S - S VM 特点:通过映射将原空间的不等式约束转化为特征 空间中的等式约束,转化后的对偶问题为求解一组线 性方程组。优点:计算代价小,泛化性能好,不易陷 入局部极小。
  • 21. 支持向量机算法的改进 3 ) G S VM 当数据线性不可分时, S VM 要求满足 Me rc e r 条件 ,即正定核条件。 G S VM 突破了这一限制。 4 ) S mo o th S VM 特点:通过一定的变形技巧,使其转化为光滑的无 约束问题,再利用经典的最优化方法求解。
  • 22. 支持向量机算法的改进 5 ) P o s s ib ilis tic S VM 结合输入数据的几何分布,每个数据有一个可能性 隶属值,反映对本类的隶属度,有效克服 S VM 中对 每个数据平等对待的缺点。当样本点个数小于维数时 ,能有效解决过拟合问题。 6 ) S e mi S up e rvis e d S VM 适用于训练集规模比工作集大得多的情况。加进约 束条件:两类中的误分误差情形,有效地增强了它的 泛化能力。 ……
  • 23. 构造映射的 svm 基本思想: 对原样本进行特征提取,引入距离映射或条件概率映射 φ ,将高维空间的样本 x φ 转化为二维空间的样本( x) = ( z1 , z2 ) ∈ R , T 2 K (φ引入核函数:x) ⋅ φ ( x ')) ( x), φ ( x ')) = (φ ( 1 . 距离映射 ˆˆ ˆ − d12 ( x) = ( x − µ1 )T ∑1 1 ( x − µ1 ) 2 ˆˆ ˆ − d 2 ( x) = ( x − µ2 )T ∑1 1 ( x − µ2 ) —— 马氏距离 定义映射 φ : x → (d1 ( x), d 2 ( x)) 2 2 T 由此定义核函数: K ( x, x′) = (φ ( x) ⋅ φ ( x′)) = d12 ( x) d12 ( x ') + d 2 ( x)d 2 ( x′), x, x ' ∈ R p 2 2
  • 24. 构造映射的 svm 2. 条件概率映射 φ : x → ( P(G1 ) P ( x | G1 ), P(G2 ) P ( x | G2 ))T K ( x, x′) = (φ ( x) ⋅ φ ( x′)) = P(G1 ) 2 P( x | G1 ) P ( x ' | G1 ) + P(G2 ) 2 P ( x | G2 ) P ( x ' | G2 ) 在二维空间中求解原始最优化问题: 1 min || w || 2 w ,b 2 s.t. y i (( w ⋅ xi′ ) + b) ≥ 1 , i = 1, l, 决策变量只有三个: w1,w2, b ′ ′ f ( x) = sgn((φ ( x) ⋅ w∗ ) + b∗ ) = sgn(α w1∗ x1 + w2 x2 + b∗ ) ∗ 其中为修正参数,一般取 α ∈ [0, 2] α
  • 25. 构造映射的 svm 30 25 正类 20 15 负类 10 5 0 0 5 10 15 20 25 30
  • 31. 支持向量机多分类问题 1 . 一对多分类方法 基本思路: 对 k 个类别的分类问题,构造 k 个两分类的支持向量 分类机。 在构建第 j 个分类器中时,将训练集中属于第 j 类的样本标为 +1 , 属于其它类的样本标为 -1 。这样第 i 个分类器的最优化问题: 1 l i 2 min i Pω P +C ∑ ξ j ω i bi ξ i 2 j =1  y j ((ω i ⋅ x j ) + bi ) ≥ 1 − ξ ij  s.t  i i = 1, 2,..., k ξ j ≥ 0 j = 1,L , l  f1 ( x) = ω1 ⋅ x + b1 求出 k 个决策函数 M ⇒ x ∈ class = arg max fi ( x) f k ( x) = ω k ⋅ x + b k i
  • 32. Ck2 支持向量机多分类问题 2. 一对一分类方法 基本思路: 分解为多个二分类问题的算法。总共需要构建 k(k-1)/2 Ck2 个子 SVM 分类器。得到 决策函数 f1,2 ( x) = ω 1,2 ⋅ x + b1,2 M k fi , j ( x) + 1 f i , j ( x ) = ω i , j ⋅ x + bi , j M (i < j ) ⇒ Di ( x) = ∑ j =1, j ≠ i 2 (i = 1,L , k ) f k −1,k ( x) = ω k −1,k ⋅ x + b k −1,k x ∈ class = arg max Di ( x) i
  • 33. 支持向量机多分类问题 1 . 二叉树分类方法 对有 k 个类别的多分类问题,需要构造 k-1 个二分类 SVM 分类器, Svm1 Svm2 Svm3 Class1 Class2 Class3 Class4