当前位置: 首页 > news >正文

DeepSeek 即将联合 vLLM 开源推理引擎

DeepSeek 在其 GitHub 仓库发布预告称,即将开源推理引擎 DeepSeek Inference Engine。考虑到代码分支和维护资源等问题,他们选择了直接和 vLLM 等现有开源项目合作的方式进行开源。

合作原因

  • 代码差异大:DeepSeek 内部推理引擎源自一年多前的 vLLM 早期分支,经过长期针对 DeepSeek 模型的深度定制优化,已与 vLLM 主线或其他通用推理框架产生巨大差异,难以扩展到更广泛的应用场景。
  • 基础设施依赖强:该引擎与 DeepSeek 内部的集群管理系统、特定的硬件配置和运维流程紧密耦合,外部用户几乎无法在标准环境下直接部署,需要进行大规模重构才能剥离这些依赖,违背了开源项目通常追求的易用性原则。
  • 维护资源有限:作为一家以模型研发为核心的团队,DeepSeek 缺乏足够的资源来长期维护一个需要持续投入、支持广泛用例的大型开源项目。

合作策略

  • 提取独立功能:模块化并贡献可复用的组件作为独立库,方便其他开发者在不同场景下使用。
  • 分享优化细节:向 vLLM 等项目贡献设计思想、实现方法甚至具体的代码补丁,帮助 vLLM 更好地支持 DeepSeek 模型,同时也促进整个开源社区的技术进步。

社区反响

这一合作策略获得了社区的普遍理解和积极响应。vLLM 项目官方账号在社交平台 X 上明确表示支持,认为 DeepSeek “以正确的方式开源引擎”,即将改进带回社区使人人受益,而非创建一个独立的仓库。

此前,vLLM 在吸收 DeepSeek 2 月 “开源周” 所公布论文中的部分优化后,处理 DeepSeek 模型的性能已有显著提升(约 3 倍)5。根据 DeepSeek 公布的推理系统内部测试结果,每个 H800 节点在预填充期间平均吞吐量达到 73.7k tokens/s 输入(包括缓存命中),或在解码期间达到 14.8k tokens/s 输出,表明推理性能优化领域仍有巨大提升空间

http://www.xdnf.cn/news/51877.html

相关文章:

  • Chapter 3 Semiconductor Devices
  • Python多任务编程:进程全面详解与实战指南
  • RHCSA知识点
  • C++的spdlog异步日志windows配置教程
  • 10.QT-显示类控件|LCD Number|ProgressBar|Calendar Widget(C++)
  • CTGAN 合成数据生成与验证脚本学习笔记
  • StringEscapeUtils:给你的字符串穿上“防弹衣“——转义工具类深度解析
  • Spring Boot 实现定时任务的案例
  • Linux 学习 6 文件相关命令包含查询
  • String +memset字符串类题型【C++】
  • 从零创建 Docker 镜像(基于 OCI 格式)
  • 【kubernetes】pod资源配额
  • 016-C语言内存函数
  • 每日一题算法——链表相交
  • git学习日志
  • Java EE(20)——线程安全——ThreadLocal
  • 第36讲:作物生长预测中的时间序列建模(LSTM等)
  • buildroot构建根文件系统报错(已解决大部分问题)
  • Linux学习——Linux进程间通信(IPC)聊天程序实践
  • Android开发中广播(Broadcast)技术详解
  • 线程基础题
  • FOC控制中的正弦PWM和空间矢量PWM对比与理解
  • 【计量地理学】实验五 试验变异函数计算
  • 软件设计师/系统架构师---计算机网络
  • Python爬虫实战:获取fenbi网最新备考资讯
  • 机器学习专栏(4):从数据饥荒到模型失控,破解AI训练的七大生死劫
  • SpringBoot Actuator健康检查:自定义HealthIndicator
  • Java 8 date/time type `java.time.LocalDateTime`
  • FreeRTOS中断管理
  • LangChain4j对话内存管理:ChatMemory原理与实战应用