State Space Model.

1. 状态空间模型的建模

状态空间包含完整描述系统的最小变量数,这些变量称为状态向量状态空间模型(State Space Model, SSM)是用于描述这些状态向量的模型,并根据额外的输入预测它们的下一个状态。

SSM是一种描述动态系统行为的数学模型,它使用一组一阶微分方程(连续时间系统)或差分方程(离散时间系统)来表示系统内部状态的演化,这组方程被称为状态方程;同时用另一组方程来描述系统状态和输出之间的关系,这组方程被称为观测方程(也称为输出方程)。

(1)连续形式的状态空间模型

状态方程描述了系统内部状态$h(t)$随时间和输入的演化:

\[h^\prime(t) = Ah(t) + Bx(t) + \omega(t)\]

观测方程描述了系统的输出$y(t)$如何依赖于系统状态和控制输入:

\[y(t) = Ch(t) + Dx(t) + e(t)\]

SSM将一个$m$维输入向量$x(t)$映射为一个$n$维隐状态变量$h(t)$,然后再映射为一个$p$维输出向量$y(t)$。其中参数$A,B,C,D$可以人为指定或设置为可学习参数。

(2)离散形式的状态空间模型

在实际场景中,输入$\mathbf{x}(t)$通常是离散的:$x_0,x_1,…,x_t,…$,比如文本输入,若希望用状态空间模型来实时记忆这些离散点,需要对状态空间模型离散化。

连续形式的状态空间模型通常表示为线性常微分方程的形式:

\[\dot{\mathbf{h}}(t) = \mathbf{A}(t) \mathbf{h}(t) + \mathbf{B}(t) \mathbf{x}(t) \\ \mathbf{y}(t) = \mathbf{C}(t) \mathbf{h}(t) + \mathbf{D}(t) \mathbf{x}(t)\]

其中$\mathbf{h}(t)$是状态向量,$\mathbf{x}(t)$是输入向量,$\mathbf{y}(t)$是输出向量,$\mathbf{A}(t),\mathbf{B}(t),\mathbf{C}(t),\mathbf{D}(t)$是系统矩阵。 离散化过程涉及以下步骤:

① 采样时间的选择

确定一个合适的采样时间间隔$\Delta$,这个时间间隔要基于系统动态特性以及所需的控制精度(通常设置为可学习参数)。

② 离散化系统矩阵

使用适当的数值方法将连续系统矩阵$\mathbf{A}(t),\mathbf{B}(t)$转换为离散矩阵$\overline{A},\overline{B}$。

方法一:零阶保持

\[\begin{aligned} \overline{A} &= e^{\Delta \mathbf{A}} \\ \overline{B} &= (e^{\Delta A}-I) A^{-1} B \end{aligned}\]

下面进行推导。零阶保持 (Zero-order hold)技术是指每次收到离散信号时都会保持其值,直到收到新的离散信号。通过该技术,离散输入信号可以被连续化。

常微分方程$\dot{h}(t) = A(t) h(t) + B(t) x(t)$的通解为:

\[h(t) = e^{A(t-t_0)} h(t_0) + \int_{t_0}^t e^{A(t-\tau) } B x(\tau) d\tau\]

令$t_0=t,t=t+\Delta$,根据零阶保持有:

\[\begin{aligned} h_{t+\Delta} &= e^{A\Delta} h_t + \int_{t}^{t+\Delta} e^{A(t-\tau) } B x(\tau) d\tau \\ &= e^{A\Delta} h_t + \int_{t}^{t+\Delta} e^{A(t-\tau) } B d\tau x_t \\ \end{aligned}\]

则有:

\[\begin{aligned} \overline{A} &= e^{\Delta \mathbf{A}} \\ \overline{B} &= \int_0^{\Delta} e^{A\tau } Bd\tau = (e^{\Delta A}-I) A^{-1} B \end{aligned}\]

方法二:双线性方法

\[\begin{aligned} \overline{A} &= (I-\Delta A/2)^{-1}(I+\Delta A/2) \\ \overline{B} &= (I-\Delta A/2)^{-1}\Delta B \end{aligned}\]

下面进行推导。设定离散化步长$\Delta$,将输入$\mathbf{x}(t)$表示为$x(t)=x_k,t\in[k,k+\Delta)$,即通过阶梯函数把离散输入$\mathbf{x}(t)$连续化。基于此,对连续形式的状态空间模型ODE两端积分:

\[\begin{aligned} h(t+\Delta)-h(t) &= A\int_t^{t+\Delta}h(s)ds + B \int_t^{t+\Delta}x(s)ds \\ \end{aligned}\]

若假设在$[t,t+\Delta)$区间内$h(s)$近似等于$(h_t+h_{t+\Delta})/2$,则得到双线性格式:

\[\begin{aligned} h_{t+\Delta}-h_t &= \frac{1}{2}\Delta A(h_t+h_{t+\Delta}) + \Delta B x_t \\ &\downarrow \\ h_{t+\Delta} &= (I-\Delta A/2)^{-1}\left((I+\Delta A/2)h_t + \Delta B x_t\right) \\ &\downarrow \\ h_{t+\Delta} &= (I-\Delta A/2)^{-1}(I+\Delta A/2)h_t + (I-\Delta A/2)^{-1}\Delta B x_t \\ \end{aligned}\]

③ 离散化状态和输出方程

离散时间的状态方程和观测方程可以表示为:

\[\begin{aligned} \mathbf{h}[k] &= \overline{A} \mathbf{h}[k-1] + \overline{B} \mathbf{x}[k] \\ \mathbf{y}[k] &= \overline{C} \mathbf{h}[k] + \overline{D} \mathbf{x}[k] \end{aligned}\]

其中$\overline{C},\overline{D}$通常可以直接等同于连续时间模型中的$\mathbf{C},\mathbf{D}$。

2. 状态空间模型的实现

(1)状态空间模型的循环表示

状态空间模型的简化离散表示为:

\[\begin{aligned} \mathbf{h}[k] &= \overline{A} \mathbf{h}[k-1] + \overline{B} \mathbf{x}[k] \\ \mathbf{y}[k] &= C \mathbf{h}[k] \end{aligned}\]

对于每个时间步,计算当前输入$x_k$如何影响之前的状态$h_{k-1}$,然后预测输出$y_k$。形式上SSM循环神经网络RNN类似,主要区别在于SSM直接采用了线性变换,而没有使用激活函数进行非线性化;因此SSM也被称为线性RNN

(2)状态空间模型的卷积表示

状态空间模型计算效率最大的提升在于其序列运算可以卷积化。从0时刻开始向后推导状态空间模型几个时刻后的输出,可得到如下的形式:

\[\begin{aligned} \mathbf{h}_0 &= \overline{B} \mathbf{x}_0 \\ \mathbf{y}_0 &= C \mathbf{h}_0= C\overline{B} \mathbf{x}_0 \\ \mathbf{h}_1 &= \overline{A} \mathbf{h}_0 + \overline{B} \mathbf{x}_1 = \overline{A} \overline{B} \mathbf{x}_0 + \overline{B} \mathbf{x}_1 \\ \mathbf{y}_1 &= C \mathbf{h}_1 = C\overline{A} \overline{B} \mathbf{x}_0 + C\overline{B} \mathbf{x}_1 \\ \mathbf{h}_2 &= \overline{A} \mathbf{h}_1 + \overline{B} \mathbf{x}_2 = \overline{A} (\overline{A} \overline{B} \mathbf{x}_0 + \overline{B} \mathbf{x}_1) + \overline{B} \mathbf{x}_2= \overline{A}^2 \overline{B} \mathbf{x}_0 +\overline{A} \overline{B} \mathbf{x}_1 + \overline{B} \mathbf{x}_2 \\ \mathbf{y}_1 &= C \mathbf{h}_2 = C\overline{A}^2 \overline{B} \mathbf{x}_0 +C\overline{A} \overline{B} \mathbf{x}_1 + C\overline{B} \mathbf{x}_2 \\ & \cdots \\ \mathbf{h}_k &= \overline{A}^k \overline{B} \mathbf{x}_0 +\overline{A}^{k-1} \overline{B} \mathbf{x}_1 + \cdots +\overline{A} \overline{B} \mathbf{x}_{k-1} + \overline{B} \mathbf{x}_k \\ \mathbf{y}_k &= C \overline{A}^k \overline{B} \mathbf{x}_0 +C\overline{A}^{k-1} \overline{B} \mathbf{x}_1 + \cdots +C\overline{A} \overline{B} \mathbf{x}_{k-1} + C\overline{B} \mathbf{x}_k \\ \end{aligned}\]

形式上,构造下列形式的卷积核,即可将序列运算转化为卷积运算:

\[\begin{aligned} \overline{K} &= (C\overline{B}, C\overline{A} \overline{B},...,C \overline{A}^k \overline{B}, ...) \\ \mathbf{y} &= \mathbf{x} * \overline{K} \end{aligned}\]

卷积运算在计算机中可进行并行训练,这大大加速了状态空间模型的训练速度。而RNN由于在输出时使用了激活函数,因此无法进行并行训练,这也是状态空间模型对比RNN的一大优势所在。然而由于内核大小固定,它们的推理速度不如 RNN 那样快且不受限制。

(3)状态空间模型的训练与推理

根据前面的讨论,循环形式的SSM具有高效的推理速度,但无法并行化训练;而卷积形式的SSM可以并行化训练,但无法进行无限长度上下文的推理。因此在实践中可以使用循环 SSM 进行有效推理,并使用卷积 SSM 进行可并行训练。

3. 深度学习中的状态空间模型

深度学习中的状态空间模型包括HiPPO, LSSL, S4, S5, DSS, S4D

HiPPO

HiPPO模型的出发点是用勒让德多项式构造的标准正交基函数的线性组合对输入$x(t)$进行实时逼近,此时$h(t)$为当前时刻的拟合系数。基于此导出了两种形式的SSM

\[\begin{aligned} h^\prime(t) &= Ah(t) + B x(t) \\ A_{n,k} &= -\frac{1}{w}\begin{cases} \sqrt{(2n+1)(2k+1)}, & k < n \\ (-1)^{n-k} \sqrt{(2n+1)(2k+1)}, & k \geq n \end{cases} \\ B_n &= \frac{\sqrt{2n+1}}{w} \\ \end{aligned}\] \[\begin{aligned} h^\prime(t) &= \frac{A}{t}h(t) + \frac{B}{t} x(t) \\ A_{n,k} &= -\begin{cases} \sqrt{(2n+1)(2k+1)}, & k < n \\ n+1, & k = n\\ 0, & k > n \end{cases} \\ B_n &= \sqrt{2n+1} \\ \end{aligned}\]

LSSL

LSSL指出线性状态空间模型可以在连续时间形式、循环形式和卷积形式之间进行转换:

\[\mathbf{h}^\prime(t) = A \mathbf{h}(t) + B \mathbf{x}(t) \\ \mathbf{y}(t) = C \mathbf{h}(t) + D \mathbf{x}(t)\] \[h_t = A h_{t-1} + B _t \\ y_t = C h_t + D x_t\] \[\begin{aligned} y_k &= C A^k B x_0 +CA^{k-1} B x_1 + \cdots +CA B x_{k-1} + CB x_k \\ &= \overline{K}(A,B,C) * x \end{aligned}\]

S4

S4提出了一种高效计算SSM的卷积形式的方法:首先将输入序列$x(t)$和卷积核$\overline{K}$的 FFT 相乘,然后应用逆 FFT 来有效地计算卷积的输出。S4把矩阵$\overline{A}$分解为复数空间下的对角低秩矩阵:$\overline{A}=\Lambda-PQ^T$,基于此通过以下三个步骤克服了速度瓶颈:

  1. 不直接计算卷积核$\overline{K}$,而是计算卷积核$\overline{K}$的截断生成函数$\hat{K}$,把矩阵幂运算转化为矩阵逆运算。 \(\hat{K}_L(z;\overline{A},\overline{B},\overline{C}) = \overline{C} (I-\overline{A}^L z^L)(1-\overline{A} z)^{-1} \overline{B}\)
  2. 假设$A$为对角矩阵$\Lambda$,则矩阵逆运算等价于柯西核形式的点积运算。 \(\begin{aligned} \hat{K}_L(z;\overline{A},\overline{B},\overline{C}) &= c(z) \cdot k_{z,\Lambda}(\tilde{C},B) \\ \end{aligned}\)
  3. 通过引入低秩项对假设进行修正,结果为多个柯西核形式的点积运算。 \(\begin{aligned} \hat{K}_L(z;\overline{A},\overline{B},\overline{C}) &= c(z) \left[k_{z,\Lambda}(\tilde{C},B) -k_{z,\Lambda}(\tilde{C},P)\left(I+k_{z,\Lambda}(Q^T,P)\right)^{-1}k_{z,\Lambda}(Q^T,B)\right] \\ \end{aligned}\)

S5

S5S4SISO-SSM形式调整为MIMO-SSM形式,通过以下两个步骤来生成输出序列:

DSS

DSS通过假设对角状态空间来简化卷积核$\overline{K}$的计算。

\[\begin{aligned} \overline{K} &= (C\overline{B}, C\overline{A} \overline{B},...,C \overline{A}^k \overline{B}, ...) \end{aligned}\]

假设$A$可对角化:$A=V\Lambda V^{-1}$,特征值为$\lambda_1,…,\lambda_N$,记$(CV)(V^{-1}B)=\tilde{w}$,$P,P_{i,k}=\lambda_i k \Delta$,DSS提出了两种形式的卷积核$\overline{K}$计算:

S4D

S4D指出,当$A$是对角矩阵时,卷积核$K$可以通过Vandermonde矩阵乘法来高效计算:

\[\begin{aligned} \overline{K} &= (C\overline{B}, C\overline{A} \overline{B},...,C \overline{A}^k \overline{B}, ...) \\ &= \begin{bmatrix}\overline{B}_0C_0 & \cdots & \overline{B}_{N-1}C_{N-1} \end{bmatrix} \begin{bmatrix} 1 & \overline{A}_0 & \overline{A}_0^2 & \cdots & \overline{A}_0^{N-1} \\ 1 & \overline{A}_1 & \overline{A}_1^2 & \cdots & \overline{A}_1^{N-1} \\ \cdots & \cdots & \cdots & \cdots & \cdots \\ 1 & \overline{A}_{N-1} & \overline{A}_{N-1}^2 & \cdots & \overline{A}_{N-1}^{N-1} \end{bmatrix} \\ &= \overline{B}^T \cdot C \cdot \mathcal{V}_L(\overline{A}) \end{aligned}\]

⚪ Reference