AdapterFusion: Non-Destructive Task Composition for Transfer Learning
AdapterFusion:迁移学习中的非破坏性任务组合.
AdapterFusion:迁移学习中的非破坏性任务组合.
P-Tuning v2:提示微调可与跨规模和任务的通用微调相媲美.
P-Tuning:GPT也能够擅长神经语言理解任务.
Prompt Tuning:参数高效的提示微调.
Prefix-Tuning:优化生成的连续提示.
BitFit:基于Transformer的掩码语言模型的简单参数高效微调.