RCAN:残差通道注意力网络.
- paper:Image Super-Resolution Using Very Deep Residual Channel Attention Networks
- arXiv:link
作者认为在图像超分辨率任务中,卷积神经网络的深度是非常重要的,但是深度网络的训练困难。因此作者提出了一种Residual in Residual结构,可以训练深层网络,从而保留更多的低频信息。另一方面,作者认为卷积网络提取的特征不同通道的重要形式性是不同的,因此引入了Channel Attention。
网络结构
1. Channel attention (CA)
通道注意力机制CA首先将尺寸为$H×W×C$的特征映射通过全局平均池化压缩为$1×1×C$,再通过通道下采样卷积压缩通道为$1×1×\frac{C}{r}$,通过ReLU激活函数后进行通道上采样卷积恢复到$1×1×C$,通过Sigmoid激活函数后得到每个通道的权重系数,再与原特征映射相乘得到处理后的特征映射$H×W×C$。
2. Residual channel attention block (RCAB)
RCAB在CA的基础上引入了残差连接,使得低频特征信息得到一定程度的保留。
3. Residual Group (RG)
RG由若干个RCAB和卷积组成,并引入了较短的残差连接(short skip connection,SSC);SSC用于学习局部的残差信息,并加速了训练。
4. Residual in Residual (RIR)
RIR由若干个RG和卷积组成,并引入了较长的残差连接(long skip connection,LSC));LSC用于学习全局的残差信息,并加速了网络训练。
实验结果
实验设置:
- 训练集:DIV2K中的800张图像;
- 测试集:Set5, Set14, B100, Urban100, Manga109
- 评估指标:PSNR, SSIM, top-1 and top-5 recognition errors
- 训练尺寸:裁剪48×48
作者首先通过实验验证了残差连接和通道注意力对实验结果的提升:
在测试集上的评估指标均达到了SOTA,其中RCAN+表示多个模型的集成:
评估指标和参数量的折中: