谷歌浏览器插件
订阅小程序
在清言上使用

Improving Multi-head Attention with Capsule Networks.

Natural Language Processing and Chinese Computing(2019)

引用 9|浏览7
关键词
Neural machine translation,Transformer,Capsule network,Multi-head attention
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要