谷歌浏览器插件
订阅小程序
在清言上使用

No Train No Gain: Revisiting Efficient Training Algorithms for Transformer-based Language Models.

NeurIPS 2023(2023)

引用 40|浏览232
关键词
language models,transformers,efficient training
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要