RCAN:残差通道注意力网络.

作者认为在图像超分辨率任务中,卷积神经网络的深度是非常重要的,但是深度网络的训练困难。因此作者提出了一种Residual in Residual结构,可以训练深层网络,从而保留更多的低频信息。另一方面,作者认为卷积网络提取的特征不同通道的重要形式性是不同的,因此引入了Channel Attention

网络结构

1. Channel attention (CA)

通道注意力机制CA首先将尺寸为$H×W×C$的特征映射通过全局平均池化压缩为$1×1×C$,再通过通道下采样卷积压缩通道为$1×1×\frac{C}{r}$,通过ReLU激活函数后进行通道上采样卷积恢复到$1×1×C$,通过Sigmoid激活函数后得到每个通道的权重系数,再与原特征映射相乘得到处理后的特征映射$H×W×C$。

2. Residual channel attention block (RCAB)

RCABCA的基础上引入了残差连接,使得低频特征信息得到一定程度的保留。

3. Residual Group (RG)

RG由若干个RCAB和卷积组成,并引入了较短的残差连接(short skip connection,SSC);SSC用于学习局部的残差信息,并加速了训练。

4. Residual in Residual (RIR)

RIR由若干个RG和卷积组成,并引入了较长的残差连接(long skip connection,LSC));LSC用于学习全局的残差信息,并加速了网络训练。

实验结果

实验设置:

作者首先通过实验验证了残差连接和通道注意力对实验结果的提升:

在测试集上的评估指标均达到了SOTA,其中RCAN+表示多个模型的集成:

评估指标和参数量的折中: