AW-conv:一个卷积神经网络的注意力模块.

当前注意力机制存在两个问题:

AW-conv通过生成与卷积核尺寸相同的注意力图并作用于卷积核,实现了多通道、多区域的注意力机制。记卷积核KRC2×C1×h×w,生成的注意力图为ARC2×C1×h×w,则先对特征应用注意力机制,再应用卷积核得到的输出特征为:

O[c2,c1,m,n]=Convolution(IA,K)=c1C1ihjw(I[c1,m+i,n+j]×A[c2,c1,i,j])×K[c2,c1,i,j]=c1C1ihjwI[c1,m+i,n+j]×(A[c2,c1,i,j]×K[c2,c1,i,j])=Convolution(I,AK)

因此等价于先把注意力图与卷积核相乘,再作用于输入特征。

注意力图A的生成过程采用如下网络,通过逐点卷积实现: