Reformer: The Efficient Transformer
Reformer: 使用局部敏感哈希和可逆FFN实现高效Transformer.
Reformer: 使用局部敏感哈希和可逆FFN实现高效Transformer.
Linear Transformer: 使用线性注意力实现快速自回归的Transformer.
External Attention: 使用两个外部记忆单元的注意力机制.
使用Mitchell近似构造加法神经网络.
ResMLP:数据高效训练的全连接图像分类网络.
使用全连接层替换ViT中的自注意力层.