DeepSeek致谢腾讯!
近日,DeepSeek公开致谢腾讯技术团队,盛赞其对DeepEP通信框架的优化为“huge speedup(巨大的加速)”级代码贡献。
DeepEP是DeepSeek于今年2月开源的五大核心代码库之一,专为AI大模型的专家混合(MoE)架构设计,凭借突破性技术将通信效率提升300%,打破MoE模型对英伟达NCCL的依赖。但该框架在成本更低、应用广泛的RoCE网络中存在性能短板,成为开源社区关注的焦点。
腾讯星脉网络团队在DeepEP开源后迅速展开技术攻坚,精准锁定两大瓶颈:双端口网卡带宽利用率不足、CPU控制面交互时延过高。经针对性优化,DeepEP在RoCE网络环境下性能实现100%翻倍提升,在IB(InfiniBand)网络中也斩获30%的效率增长,成功突破原有技术限制。
目前,优化后的DeepEP已全面开源,并应用于腾讯混元大模型等项目的训练推理环节。在腾讯星脉与H20服务器搭建的高性能环境中,该方案展现出优异的通用性,为企业AI大模型训练提供了更高效、经济的解决方案。
只有适应变化、迅速学习新技能的人才才能在未来就业市场中占据优势。无论前方是机遇还是挑战,提前做好准备都是关键所在 。现在正是学习AI的最佳时机。