当前位置: 首页 > java >正文

DeepSeek 本地部署

1. 安装 Ollama

步骤:

  1. 访问 Ollama 官网下载页面: Download Ollama on macOS

  2. 根据您的操作系统(Windows/macOS/Linux)下载对应的安装包

  3. 下载完成后,双击安装包进行安装

  4. 安装成功后,Ollama 服务会自动启动

  5. 验证安装是否成功: 打开终端/命令行,执行以下命令:

    ollama -v

    如果显示版本号(如:ollama version 0.1.xx),则表示安装成功

2. 部署 DeepSeek-R1 1.7B 模型

步骤:

  1. 在终端中执行以下命令:

    ollama run deepseek-r1:1.7b
  2. 等待模型下载完成(下载时间取决于网络速度)

  3. 下载完成后会自动进入交互式命令行界面,显示提示符:

    >>>
  4. 使用示例:

    >>> 初次见面,请做个自我介绍?

    模型会生成回答

  5. 退出交互界面:

    >>> /exit

3. 查看可用模型版本

可以通过以下资源查询 Ollama 支持的所有模型: Ollama Model Library

4. 安装 Web UI(可选)

前提条件:

已安装 Miniconda3 或 Anaconda3

安装步骤:

  1. 安装 Open WebUI:

    pip install open-webui
  2. 启动 Web UI 服务(使用 5555 端口):

    open-webui serve --port 5555
  3. 启动成功后,在浏览器中访问: http://localhost:5555

  4. 首次使用需要创建账号,登录后即可通过网页界面与模型交互


附:Ollama常用命令

命令说明
ollama list查看已安装的模型
ollama run <model-name>运行指定模型
ollama pull <model-name>下载模型但不运行
/exit退出模型交互界面
/bye退出模型交互界面(同 /exit)

提示:首次运行模型时会自动下载所需文件,请确保网络连接稳定。模型文件默认存储在 ~/.ollama/models 目录下(Linux/macOS)或 C:\Users\<用户名>\.ollama\models(Windows)

http://www.xdnf.cn/news/15350.html

相关文章:

  • LeetCode经典题解:206、两数之和(Two Sum)
  • 面向对象的设计模式
  • Vue+axios
  • XML vs JSON:核心区别与最佳选择
  • 前端常见十大问题讲解
  • 基于esp32系列的开源无线dap-link项目使用介绍
  • 机器人形态的几点讨论
  • GNhao,长期使用跨境手机SIM卡成为新趋势!
  • hive的相关的优化
  • flink 中配置hadoop 遇到问题解决
  • C++类与对象(上)
  • Kubernetes Ingress:实现HTTPHTTPS流量管理
  • 多客户端 - 服务器结构-实操
  • apt-get update失败解决办法
  • 15.Python 列表元素的偏移
  • k8s-高级调度(二)
  • 构建完整工具链:GCC/G++ + Makefile + Git 自动化开发流程
  • 【安卓笔记】线程基本使用:锁、锁案例
  • 学习开发之无参与有参
  • 【操作系统】strace 跟踪系统调用(一)
  • 删除screen会话以及查看进程信息的方法
  • DAY02:【ML 第一弹】KNN算法
  • Vue3 实现文件上传功能
  • 完整 Spring Boot + Vue 登录系统
  • EtherCAT开源主站 SOEM 2.0 最新源码在嵌入式 Linux 下的移植与编译
  • 【读书笔记】《C++ Software Design》第九章:The Decorator Design Pattern
  • LeetCode 1156.单字符重复子串的最大长度
  • 代码部落 20250713 CSP-J复赛 模拟赛
  • 婚后才明白,原来结婚真需要一点冲动!
  • 时序预测 | Matlab代码实现VMD-TCN-GRU-MATT变分模态分解时间卷积门控循环单元多头注意力多变量时序预测