当前位置: 首页 > ds >正文

《打造自己的DeepSeek》第2期:怎么安装自己的DeepSeek?

上一期介绍了为什么要打造自己的 DeepSeek,本期将介绍怎么安装自己的 DeepSeek。


这里要使用的工具是 Ollama

它是一个免费开源的本地大语言模型运行平台,可以帮我们把 DeepSeek 模型下载到我们自己的电脑上运行,支持 Windows、MacOS 和 Linux 三大主流操作系统(本月 8 日,华为发布了鸿蒙电脑操作系统,相信在不久的将来,Ollama 也会支持)。

具体的部署步骤如下:

一、下载 Ollama

  1. 访问 Ollama 官网:www.ollama.com

在这里插入图片描述

可以看到,除了 DeepSeek R1,它还支持很多其他的开源模型。

至于为什么没有大名鼎鼎的 ChatGPT,当然是因为它不开源了(研发它的公司叫做 OpenAI,以 Open 为名,却从不开源,应该叫 “CloseAI” 才是)。

这里以部署 DeepSeek R1 为例,其他开源模型部署的步骤是大同小异的,大家可以自行尝试。

  1. 点击“Download”进行下载:

在这里插入图片描述

在这里插入图片描述

这里自动识别了电脑的操作系统,我的电脑是 Windows 系统,这里就以 Windows 为例演示了,其他系统步骤大同小异。

二、安装 Ollama

Ollama 的安装非常简单。

  1. 打开安装程序,点击“Install”即开始安装,没有多余选项。

在这里插入图片描述

  1. 按键盘上的 Win + R 键,在弹窗中输入 cmd

在这里插入图片描述

点击“确定”,打开命令窗口:

在这里插入图片描述

  1. 输入 ollama,点击回车,如果出现如下输出,代表 Ollama 安装成功。

在这里插入图片描述

三、下载 DeepSeek R1 模型

  1. 回到 Ollama 官网首页,点击 “DeepSeek R1”:

在这里插入图片描述

会进入到 DeepSeek R1 模型的下载主页:

在这里插入图片描述

点击这里可以看到 DeepSeek R1 不同量级模型对应的显存要求列表:

在这里插入图片描述

数字后面的 b 是 billion 的缩写,代表十亿个参数,参数量越大代表得到的回答的质量也就越高,但相对的对配置的要求也越高。

  • 如果电脑只有集显,就选择 1.5b 的模型。
  • 如果是统一架构的 CPU,一部分内存可以当显存用,根据可以当作显存使用的内存大小选择模型。
  • 如果电脑有独立显卡,根据显存大小选择模型。
  • 至于 671b,显存要求高达 404GB!它是大家现在使用的公版 DeepSeek 的量级,个人电脑几乎不可能达到,一般都是大公司部署使用。

这里我们以配置要求最低的 1.5b 模型进行演示。

  1. 下滑找到 1.5b 模型对应的安装命令,“复制”命令:

在这里插入图片描述

  1. 回到刚才打开的命令窗口,“粘贴”命令:

在这里插入图片描述

点击“回车”运行:

在这里插入图片描述

当看到输出“success”,即代表安装成功。

在这里插入图片描述

这里其实已经可以使用 DeepSeek 了,比如:

在这里插入图片描述

但这样的命令行方式显然很不方便,所以还需要使用第三方工具,实现类似于官网那样的使用体验。

四、下载 Cherry Studio

  1. 访问 Cherry Studio 官网:www.cherry-ai.com

在这里插入图片描述

  1. 点击“下载客户端”进行下载:

在这里插入图片描述

在这里插入图片描述

这里根据自己的系统架构进行选择:

  • 如果是 x86 64 位架构,就选择 “x64”选项。
  • 如果是 ARM 64 位架构,就选择“ARM64”选项。

这里很好判断,个人电脑目前除了苹果的 M 系列芯片电脑以及本月 19 号发布的华为鸿蒙电脑,都是 x86 64 位架构的。

我的电脑是 x86 64 位的:

在这里插入图片描述

五、安装 Cherry Studio

  1. 打开安装程序:

在这里插入图片描述

指定想要安装的目录,进行安装:

在这里插入图片描述

出现如下界面代表安装完成:

在这里插入图片描述

六、使用 Cherry Studio

  1. 打开安装好的 Cherry Studio:

在这里插入图片描述

  1. 点击左下角的“设置”按钮:

在这里插入图片描述

  1. 在模型服务中选择“Ollama:

在这里插入图片描述

  1. 打开顶部的开关:

在这里插入图片描述

  1. 点击“管理”按钮:

在这里插入图片描述

  1. 添加刚才下载的 DeepSeek 模型:

在这里插入图片描述

关闭对话框:

在这里插入图片描述

  1. 关闭其他模型的开关:

在这里插入图片描述

在这里插入图片描述

  1. 回到主页的对话界面:

在这里插入图片描述

在这里插入图片描述

这样就可以跟平时一样与 DeepSeek 对话了:

在这里插入图片描述

如果安装了多个 DeepSeek 模型,还可以点击顶部切换:

在这里插入图片描述

在这里插入图片描述


这样就完成了自己的 DeepSeek 安装。

电脑重启后会在系统右下角有 Ollama 的图标,代表 Ollama 正在运行:

在这里插入图片描述

如何不想运行,右键点击退出即可:

在这里插入图片描述

如果想要再次使用按 Win 键搜索“Ollama”即可打开:

在这里插入图片描述

然后打开 Cherry Studio 即可直接使用:

在这里插入图片描述

http://www.xdnf.cn/news/5628.html

相关文章:

  • 当 Manus AI 遇上 OpenAI Operator,谁能更胜一筹?
  • Python 对象引用、可变性和垃圾 回收(标识、相等性和别名)
  • python 写一个工作 简单 番茄钟
  • Linux-Ubuntu安装Stable Diffusion Forge
  • 【计组】真题
  • 快速傅里叶变换暴力涨点!基于时频特征融合的高创新时间序列分类模型
  • 相或为K(位运算)蓝桥杯(JAVA)
  • 【C++】16.继承
  • PHP API安全设计四要素:构建坚不可摧的接口防护体系
  • linux kernel调度触发机制
  • 现有预测式外呼系统如何接入AI系统,使用AI辅助,判断出意向客户再转人工
  • 红外遥控键
  • RDD 两类操作详解(Scala):转换与行动
  • postgresql主从一键安装脚本分享
  • Nginx 使用 Keepalived 搭建 nginx 高可用
  • 力扣刷题——二分查找总结
  • js事件循环机制
  • C++初阶-string类的模拟实现1
  • C++题题题题题题题题题踢踢踢
  • 《Go小技巧易错点100例》第三十二篇
  • Redis 缓存
  • C 语言数据结构基石:揭开数组名的面纱与计算数组大小
  • AQS(AbstractQueuedSynchronizer)解析
  • m1 安装 Elasticsearch、ik、kibana
  • 树莓派5+UPS电源 5v
  • 快速搭建一个vue前端工程
  • 大疆卓驭嵌入式面经及参考答案
  • 理解微积分 | 概念 / 定义 / 性质 / 关系
  • Kafka的基本概念和Dokcer中部署Kafka
  • 从0开始学linux韦东山教程第三章问题小结(3)