当前位置: 首页 > news >正文

(AI) Ollama 部署本地 DeepSeek 大模型

文章目录

    • 🤖相关网站
    • 🤖Ollama
      • 🦾下载
      • 🦾安装
      • 🦾下载模型和使用
    • 🤖Cherry Studio
      • 🦾下载
      • 🦾安装
      • 🦾使用
    • ⭐END
      • 🌟ref
      • 🌟交流方式

🤖相关网站

本地大语言模型(LLM)运行框架:Ollama

多模型 AI 桌面客户端:Cherry Studio 官方网站 - 全能的AI助手

🤖Ollama

🦾下载

官网:Ollama

在这里插入图片描述

点击 Download 可以进入下载界面,根据自己的系统选择,博主是 windows 系统,下载过程贼慢。反正慢慢等就行了。

🦾安装

傻瓜式的安装方式,双击安装包后,点击 Install 即可。

在这里插入图片描述

在这里插入图片描述

安装好后,可以在应用列表中看到 Ollama 的选项,当然也自动帮你设置好环境变量了。

在这里插入图片描述

help message:

$ ollama --help
Large language model runnerUsage:ollama [flags]ollama [command]Available Commands:serve       Start ollamacreate      Create a model from a Modelfileshow        Show information for a modelrun         Run a modelstop        Stop a running modelpull        Pull a model from a registrypush        Push a model to a registrylist        List modelsps          List running modelscp          Copy a modelrm          Remove a modelhelp        Help about any commandFlags:-h, --help      help for ollama-v, --version   Show version informationUse "ollama [command] --help" for more information about a command.

🦾下载模型和使用

我们在官网的左上角的 Models 查看模型:

在这里插入图片描述

我们选择 deepseek-r1 模型,进入查看:

发现目前这里给了很多选择 (2025年6月8日):

模型名称模型大小上下文窗口输入类型
deepseek-r1:latest5.2GB128KText
deepseek-r1:1.5b1.1GB128KText
deepseek-r1:7b4.7GB128KText
deepseek-r1:8b5.2GB128KText
deepseek-r1:14b9.0GB128KText
deepseek-r1:32b20GB128KText
deepseek-r1:70b43GB128KText
deepseek-r1:671b404GB160KText

在这里插入图片描述

我们选择一个比较小的模型进行测试:

ollama run deepseek-r1:1.5b

首次操作会对模型进行下载,这个下载比下载安装包快一些。

在这里插入图片描述

当下载好后就可以操作了。

在这里插入图片描述

自第二次开始后执行 run 命令就可以直接开始对话了。

在这里插入图片描述

🤖Cherry Studio

🦾下载

官网:Cherry Studio 官方网站 - 全能的AI助手

点击下载客户端后选择自己环境对应的软件。

一般来说我们常见个人电脑选择**立即下载(x64)**即可。

在这里插入图片描述

🦾安装

根据自己需要选择是所有用户安装还是当前用户安装。

如果不懂这什么意思,直接一路默认即可。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

🦾使用

点击左下角的设置,找到 Ollama 后进入当前界面:

在这里插入图片描述

点击管理,软件会自动帮我们检测我们电脑上刚才安装的 deepseek 大模型。

点击右侧➕即可添加完成。点 × 关闭后回到上述界面后可以点击 API密钥右侧的检测 按钮进行检测。

在这里插入图片描述

回到首页,点击顶部的大模型按钮,选择我们刚刚本地下载的大模型:

在这里插入图片描述

此时,我们就可以开始用客户端和我们的大模型进行对话了:

在这里插入图片描述

⭐END

🌟ref

本文学习自:DeepSeek本地部署小白教程,2分钟搞定!Mac Mini 也能部署 DeepSeek?_哔哩哔哩_bilibili

🌟交流方式

关注我,学习更多C/C++,python,算法,软件工程,计算机知识!

⭐交流方式⭐ |C/C++|算法|设计模式|软件架构-CSDN社区

B站

👨‍💻主页:天赐细莲 bilibili

http://www.xdnf.cn/news/934003.html

相关文章:

  • 在MobaXterm 打开图形工具firefox
  • JVM 类加载器 详解
  • 深入解析Java21核心新特性(虚拟线程,分代 ZGC,记录模式模式匹配增强)
  • 如何思考?思维篇
  • MyBatis原理剖析(二)
  • 编程实验篇--线性探测哈希表
  • Vue 学习路线图(从零到实战)
  • DROPP算法详解:专为时间序列和空间数据优化的PCA降维方案
  • Docker部署SpringBoot项目
  • window下配置ssh免密登录服务器
  • 深入解析机器学习的心脏:损失函数及其背后的奥秘
  • Ubuntu 上安装 Git LFS
  • Electron通信流程
  • Linux68 FTP 测试 上传下载
  • 2025-06-04-低代码平台及相关技术介绍
  • uni-app学习笔记二十九--数据缓存
  • Redis集群模式之主从复制模式(2)
  • 字典序排数
  • 标准解读;高校数据安全分类分级指南【附全文阅读】
  • 虚拟机时间同步
  • Python Web项目打包(Wheel)与服务器部署全流程
  • 前端知识导图
  • 嵌入式面试常问问题
  • Spring框架的设计模式
  • 31.1linux中Regmap的API实验(知识)_csdn
  • 【版本控制】Git 和 GitHub 入门教程
  • Flink CDC 中 StartupOptions 模式详解
  • LambdaqueryWrapper的介绍与使用
  • F(x,y)= 0 隐函数 微分法
  • STL详解——list的模拟实现