Perceptron.

本文目录:

  1. 感知机模型
  2. 感知机学习算法(PLA)
  3. 算法的对偶形式
  4. 算法的收敛性
  5. 口袋算法
  6. 异或问题

1. 感知机模型

感知机(perceptron)是一类简单的二分类模型。

给定数据集\(\{(x_1,y_1),(x_2,y_2),...,(x_N,y_N)\}\),其中$x_i \in \Bbb{R^d}$,\(y_i \in \{-1,+1\}\)。

感知机模型是对数据点的每一维特征进行线性加权求和,并与阈值进行比较,可表示为:

\[f(x) = \text{sign}(w^Tx+b)\]

该模型的几何意义:寻找数据的特征空间中的一个分离超平面(separable hyperplane)

有时也对参数$w$和数据$x$扩充第零维($w_0=b,x_0=1$),称为哑结点(dummy node),以简化表示:

\[f(x) = \text{sign}(w^Tx)\]

2. 感知机学习算法

感知机学习算法(perceptron learning algorithm,PLA)的思想是错误驱动

感知机的损失函数定义为错误分类样本的个数

\[L(w,b) = \sum_{i=1}^{N} {[y_i ≠ \text{sign}(w^Tx_i+b)]}\]

上述损失函数不是连续函数,优化困难。进一步,使用分类错误点的函数间隔

\[L(w,b) = \sum_{y_i ≠ \text{sign}(w^Tx_i+b)}^{} {-y_i(w^Tx_i+b)}\]

则可得优化问题:

\[\mathop{\min}_{w,b} \quad \sum_{y_i ≠ \text{sign}(w^Tx_i+b)}^{} {-y_i(w^Tx_i+b)}\]

对目标函数求梯度,得:

\[\begin{aligned} \frac{\partial L(w,b)}{\partial w} &= \sum_{y_i ≠ \text{sign}(w^Tx_i+b)}^{} {-y_ix_i} \\ \frac{\partial L(w,b)}{\partial b} &= \sum_{y_i ≠ \text{sign}(w^Tx_i+b)}^{} {-y_i} \end{aligned}\]

使用随机梯度下降的方法(设学习率为$1$),每次选择一个被错误分类的点$(x_i,y_i)$,可得参数更新公式:

\[\begin{aligned} w^{(t+1)} &= w^{(t)} + y_ix_i \\ b^{(t+1)} &= b^{(t)} + y_i \end{aligned}\]

参数更新的几何解释:对于被错误分类的点,

在实践中遍历样本集,发现错误的点就进行修正,直至(线性可分的)样本集被完全分类正确,这种方法称为cycle PLA

3. 算法的对偶形式

若假设PLA算法的初值选择$w^{(0)}=0$,$b^{(0)}=0$,经过循环后参数更新为:

\[\begin{aligned} w &= \sum_{i=1}^{N} {α_iy_ix_i} \\ b &= \sum_{i=1}^{N} {α_iy_i} \end{aligned}\]

其中$α_i$表示第$i$个样本点在更新中被错误分类的次数。

由于在训练中,对于样本点$(x_j,y_j)$,需要判断其是否被分类错误,即计算:

\[\text{sign}(w^Tx_j+b) = \text{sign}(\sum_{i=1}^{N} {α_iy_ix_i^Tx_j} + \sum_{i=1}^{N} {α_iy_i})\]

在训练前可以预先存储数据集的Gram矩阵\(G=[x_i^Tx_j]_{N×N}\),从而减少不必要的重复计算。

4. 算法的收敛性

当样本集线性可分(linear separable)时,感知机学习算法收敛。但解不唯一,取决于初值的选择和错误分类点的选择顺序。

Novikoff定理:若训练集线性可分,则:

  1. 存在一个超平面${\hat{w}}^Tx=0$能将正负样本完全分开;
  2. 若记$R=\max || x_i ||$,$ρ=\min y_i{\hat{w}}^Tx_i$,则算法的迭代次数$T$满足:
\[T ≤ \frac{R^2}{ρ^2}\]

证明:

记第$t$次更新时参数为$w^{(t)}$,选择被错误分类的点$(x_i,y_i)$更新参数:

\[w^{(t+1)} = w^{(t)} + y_ix_i\]

我们想要证明在更新中$w^{(t+1)}$与最优值$\hat{w}$越来越接近,从两个方面出发:

不妨取\(\| \hat{w} \| = 1\),不影响分类的结果;

计算更新后参数$w^{(t+1)}$与最优值$\hat{w}$的内积:

\[\begin{aligned} \hat{w}^Tw^{(t+1)} &= \hat{w}^T(w^{(t)} + y_ix_i) \\ &= \hat{w}^Tw^{(t)} + y_i\hat{w}^Tx_i \\ &≥ \hat{w}^Tw^{(t)} + \min y_i{\hat{w}}^Tx_i \\ &= \hat{w}^Tw^{(t)} + ρ \end{aligned}\]

计算$w^{(t+1)}$的长度:

\[\begin{aligned} || w^{(t+1)} ||^2 &= || w^{(t)} + y_ix_i ||^2 \\ &= || w^{(t)} ||^2 + 2y_iw^{(t)}x_i + || y_ix_i ||^2 \\ &≤ || w^{(t)} ||^2 + || x_i ||^2 \\ &≤ || w^{(t)} ||^2 + \max || x_i ||^2 \\& = || w^{(t)} ||^2 + R^2 \end{aligned}\]

若经过$T$次迭代,由上面两式可以得到:

\[\hat{w}^Tw^{(T)} ≥ \hat{w}^Tw^{(T-1)} + ρ≥ \hat{w}^Tw^{(T-2)} + 2ρ≥... ≥ Tρ\] \[|| w^{(T)} ||^2 ≤ || w^{(T-1)} ||^2 + R^2≤ || w^{(T-2)} ||^2 + 2R^2≤... ≤ TR^2\]

则计算参数$w^{(T)}$与最优值$\hat{w}$归一化后的内积:

\[\frac{w^{(T)}}{|| w^{(T)} ||} · \frac{\hat{w}}{|| \hat{w} ||} ≥ \frac{Tρ}{\sqrt{TR^2} · || \hat{w} ||^2} = \sqrt{T}\frac{ρ}{R}\]

即在更新时随$T$的增大参数$w^{(T)}$与最优值$\hat{w}$归一化后的内积不断增大,注意到这个值具有上限$1$,因此更新过程使得参数逐步趋近于最优值,这个算法是收敛的。

则可由下面的不等式:

\[Tρ ≤ \hat{w}^Tw^{(T)} ≤ || \hat{w} || · || w^{(T)} || = || w^{(T)} || ≤ \sqrt{TR^2}\]

得到算法迭代次数的上界:

\[T ≤ \frac{R^2}{ρ^2}\]

5. 口袋算法

当样本集线性不可分时,感知机是不收敛的。口袋算法(pocket algorithm)用来解决这种情况。

口袋算法的思想是,在感知机学习算法中,仍然每次选择一个错误分类的点更新参数;

参数更新后,如果此时分类错误的点数比之前记录的最优参数所分类错误的点数还要少,则把这个参数放入口袋中,作为最优参数的备选参数;

由于样本集线性不可分,这个循环过程是无限进行的,人为设置最大的循环次数,将最终存在于口袋中的参数作为算法得到的最优参数。

口袋算法相比于普通的感知机学习算法的速度要慢,原因在于:

6. 异或问题

由于感知机无法对线性不可分样本集进行正确分类,因此感知机无法解决异或问题,如下图所示。

Cover定理,高维空间比低维空间更容易线性可分。因此引入高维线性变换$z=\phi(x)$,可将非线性问题转化为线性问题:

\[x=(x_1,x_2)→z=(x_1,x_2,(x_1-x_2)^2)\]

多层感知机则通过引入非线性函数解决非线性问题。