训练计算最优的大型语言模型.
定位和编辑GPT中的事实关联.
修正Transformer模型中的记忆.
将语言模型中的事实知识追溯到训练数据.
探讨语言模型预训练中的双向性.
Building fully-connected conditional random field with pydensecrf.