Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention
Linear Transformer: 使用线性注意力实现快速自回归的Transformer.
Linear Transformer: 使用线性注意力实现快速自回归的Transformer.
External Attention: 使用两个外部记忆单元的注意力机制.
使用Mitchell近似构造加法神经网络.
ResMLP:数据高效训练的全连接图像分类网络.
使用全连接层替换ViT中的自注意力层.
MLP-Mixer:一种全连接层结构的视觉模型.