Efficient Attention: Attention with Linear Complexities
具有线性复杂度的高效自注意力机制.
具有线性复杂度的高效自注意力机制.
Longformer: 适用于长文本的Transformer.
Linformer: 线性复杂度的自注意力机制.
Performer: 通过随机投影将Attention的复杂度线性化.
Reformer: 使用局部敏感哈希和可逆FFN实现高效Transformer.
Linear Transformer: 使用线性注意力实现快速自回归的Transformer.