(AI) Ollama 部署本地 DeepSeek 大模型
文章目录
- 🤖相关网站
- 🤖Ollama
- 🦾下载
- 🦾安装
- 🦾下载模型和使用
- 🤖Cherry Studio
- 🦾下载
- 🦾安装
- 🦾使用
- ⭐END
- 🌟ref
- 🌟交流方式
🤖相关网站
本地大语言模型(LLM)运行框架:Ollama
多模型 AI 桌面客户端:Cherry Studio 官方网站 - 全能的AI助手
🤖Ollama
🦾下载
官网:Ollama
点击 Download 可以进入下载界面,根据自己的系统选择,博主是 windows 系统,下载过程贼慢。反正慢慢等就行了。
🦾安装
傻瓜式的安装方式,双击安装包后,点击 Install 即可。
安装好后,可以在应用列表中看到 Ollama 的选项,当然也自动帮你设置好环境变量了。
help message:
$ ollama --help
Large language model runnerUsage:ollama [flags]ollama [command]Available Commands:serve Start ollamacreate Create a model from a Modelfileshow Show information for a modelrun Run a modelstop Stop a running modelpull Pull a model from a registrypush Push a model to a registrylist List modelsps List running modelscp Copy a modelrm Remove a modelhelp Help about any commandFlags:-h, --help help for ollama-v, --version Show version informationUse "ollama [command] --help" for more information about a command.
🦾下载模型和使用
我们在官网的左上角的 Models 查看模型:
我们选择 deepseek-r1 模型,进入查看:
发现目前这里给了很多选择 (2025年6月8日):
模型名称 | 模型大小 | 上下文窗口 | 输入类型 |
---|---|---|---|
deepseek-r1:latest | 5.2GB | 128K | Text |
deepseek-r1:1.5b | 1.1GB | 128K | Text |
deepseek-r1:7b | 4.7GB | 128K | Text |
deepseek-r1:8b | 5.2GB | 128K | Text |
deepseek-r1:14b | 9.0GB | 128K | Text |
deepseek-r1:32b | 20GB | 128K | Text |
deepseek-r1:70b | 43GB | 128K | Text |
deepseek-r1:671b | 404GB | 160K | Text |
我们选择一个比较小的模型进行测试:
ollama run deepseek-r1:1.5b
首次操作会对模型进行下载,这个下载比下载安装包快一些。
当下载好后就可以操作了。
自第二次开始后执行 run
命令就可以直接开始对话了。
🤖Cherry Studio
🦾下载
官网:Cherry Studio 官方网站 - 全能的AI助手
点击下载客户端后选择自己环境对应的软件。
一般来说我们常见个人电脑选择**立即下载(x64)**即可。
🦾安装
根据自己需要选择是所有用户安装还是当前用户安装。
如果不懂这什么意思,直接一路默认即可。
🦾使用
点击左下角的设置,找到 Ollama 后进入当前界面:
点击管理,软件会自动帮我们检测我们电脑上刚才安装的 deepseek 大模型。
点击右侧➕即可添加完成。点 × 关闭后回到上述界面后可以点击 API密钥右侧的检测 按钮进行检测。
回到首页,点击顶部的大模型按钮,选择我们刚刚本地下载的大模型:
此时,我们就可以开始用客户端和我们的大模型进行对话了:
⭐END
🌟ref
本文学习自:DeepSeek本地部署小白教程,2分钟搞定!Mac Mini 也能部署 DeepSeek?_哔哩哔哩_bilibili
🌟交流方式
关注我,学习更多C/C++,python,算法,软件工程,计算机知识!
⭐交流方式⭐ |C/C++|算法|设计模式|软件架构-CSDN社区
B站
👨💻主页:天赐细莲 bilibili
![]()