字节跳动开源COMET技术,提升LLM训练效率
来源:万德丰 发布时间:2025-03-13
分享至微信

字节跳动近日开源了名为“COMET”的混合专家(MoE)架构优化技术,该技术能显著提升大型语言模型(LLM)的训练效率,达到1.71倍的提升。
据媒体报道,COMET已在超过1万个GPU集群中应用,节省了数百万个GPU运算小时。
豆包大模型团队指出,MoE虽然能将模型扩展至万亿参数级,但在分布式系统上运行时易遇到通讯瓶颈,降低运算效率。COMET技术旨在解决这一问题,提升执行速度。
在单一MoE层上,COMET能提高执行速度1.96倍,而在端对端执行上,平均提高1.71倍。
此外,COMET技术的开源有望激发更多技术创新。有分析认为,该技术的普及可能会降低市场对NVIDIA高端GPU的需求。
此前,李飞飞等研究人员使用阿里巴巴的开源模型,在少量GPU上短时间内就训练出了高效能的推理模型。
[ 新闻来源:万德丰,更多精彩资讯请下载icspec App。如对本稿件有异议,请联系微信客服specltkj]
存入云盘 收藏
举报
全部评论
暂无评论哦,快来评论一下吧!

万德丰
开创IC领域,共创美好未来!
查看更多
相关文章
字节跳动推出开源模型Seed-OSS-36B
2025-08-22
字节跳动为Seed部门技术员工发放期权津贴
4 小时前
字节跳动否认研发“豆包手机”
2025-08-21
字节跳动否认芯片业务切割传闻
13 小时前
黄仁勋点赞中国开源LLM,强调矽基技术仍是AI发展核心
2025-07-22
热门搜索
思波微完成天使轮融资
传长鑫和长存启用国产EDA
荣耀在印度遭大立光专利诉讼
华为
台积电
中芯国际
联发科
高通
英特尔