AdapterDrop: On the Efficiency of Adapters in Transformers
AdapterDrop:提高Transformer中的Adapter模块的效率.
AdapterDrop:提高Transformer中的Adapter模块的效率.
AdapterFusion:迁移学习中的非破坏性任务组合.
P-Tuning v2:提示微调可与跨规模和任务的通用微调相媲美.
P-Tuning:GPT也能够擅长神经语言理解任务.
Prompt Tuning:参数高效的提示微调.
Prefix-Tuning:优化生成的连续提示.