谷歌浏览器插件
订阅小程序
在清言上使用

MicroBERT: Distilling MoE-Based Knowledge from BERT into a Lighter Model

Applied Sciences(2024)

引用 2|浏览3
关键词
natural language processing,knowledge distillation,generative adversarial networks,Mixture-of-Experts
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要