谷歌浏览器插件
订阅小程序
在清言上使用

DeBERTa: Decoding-enhanced BERT with Disentangled Attention.

ICLR 2021(2021)

引用 3284|浏览866
关键词
Transformer,Attention,Natural Language Processing,Language Model Pre-training,Position Encoding
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要