当前位置: 首页 > news >正文

使用docker中的ollama

假设容器名字为ollama-qihuang

进入容器,拉取deepseek-r1:7b模型:

docker exec -it ollama-qihuang bash
ollama pull deepseek-r1:7b

Ollama 模型管理教程(容器名:ollama-qihuang)

一、拉取官方模型(以 llama2 为例)
# 进入Ollama容器的交互式Shell
docker exec -it ollama-qihuang bash# 使用ollama CLI拉取官方模型(如llama2:7b)
ollama pull llama2:7b# 退出容器
exit
二、验证官方模型是否成功拉取
# 查看所有已下载的模型
docker exec ollama-qihuang ollama list# 预期输出(示例)
# NAME         TYPE     SIZE        MODIFIED
# llama2:7b    model    13.43 GB    2023-10-01 12:00:00

三、部署本地微调模型(以 deepseek-r1:7b-finetune 为例)

步骤 1:准备本地模型文件
  1. 将微调后的模型文件(通常为 GGML 格式)放入宿主机目录:

    mkdir -p ~/qihuang/ollama/models/custom-models
    cp /path/to/your/finetuned-model.bin ~/qihuang/ollama/models/custom-models/deepseek-r1:7b-finetune.bin
    
步骤 2:重启容器以加载新模型
# 停止并重新启动容器(确保挂载路径正确)
docker restart ollama-qihuang# 或重新创建容器(适用于首次部署)
docker run -d \--name ollama-qihuang \-p 9034:11434 \-v ~/qihuang/ollama/models:/models \  # 挂载包含微调模型的目录ollama/ollama:latest serve
步骤 3:通过 API 创建模型别名(可选)
curl -X POST http://localhost:9034/api/create \-H "Content-Type: application/json" \-d '{"name": "deepseek-r1:7b-finetune","path": "/models/custom-models/deepseek-r1:7b-finetune.bin","alias": "my-finetuned-model"}'

四、使用模型进行推理

1. 调用官方模型(llama2:7b)
curl http://localhost:9034/api/generate \-H "Content-Type: application/json" \-d '{"model": "llama2:7b","prompt": "写一首关于秋天的诗","temperature": 0.8}' | jq
2. 调用本地微调模型(deepseek-r1:7b-finetune)
curl http://localhost:9034/api/generate \-H "Content-Type: application/json" \-d '{"model": "deepseek-r1:7b-finetune",  # 或使用别名"my-finetuned-model""prompt": "根据微调数据回答问题:xxx","system": "你是一个专业的领域专家"}' | jq

五、模型管理常用命令

操作命令示例
查看所有模型docker exec ollama-qihuang ollama list
删除指定模型docker exec ollama-qihuang ollama delete llama2:7b
查看模型详细信息docker exec ollama-qihuang ollama info deepseek-r1:7b-finetune
列出正在运行的模型docker exec ollama-qihuang ollama running

六、注意事项

  1. 模型路径映射
    确保宿主机目录~/qihuang/ollama/models与容器内路径/models正确挂载,否则无法识别本地模型。

  2. 模型格式要求
    Ollama 支持 GGML 格式(.bin文件),微调模型需转换为 Ollama 兼容的格式(可通过ollama convert命令处理)。

  3. 权限问题
    若出现权限不足,需确保宿主机目录对 Docker 用户可读:

    chmod -R 755 ~/qihuang/ollama/models
    

七、进阶操作:量化模型以减少显存占用

# 进入容器创建4位量化模型
docker exec -it ollama-qihuang bash
ollama create deepseek-r1:7b-finetune-q4 -s deepseek-r1:7b-finetune -q q4_0
exit# 使用量化模型推理
curl http://localhost:9034/api/generate -d '{"model": "deepseek-r1:7b-finetune-q4","prompt": "量化模型测试"
}'

通过以上步骤,可快速管理 Ollama 的官方模型和自定义微调模型。如需调整容器端口或 GPU 配置,可参考Ollama 官方文档。

http://www.xdnf.cn/news/1030393.html

相关文章:

  • Python实战应用-Python操作MySQL数据库
  • 雪豹速清APP:高效清理,畅享流畅手机体验
  • python打卡day53@浙大疏锦行
  • DAY 53 对抗生成网络
  • 操作系统知识(1)
  • 造轮子系列:从0到1打造生产级HTTP客户端,优雅封装OkHttp/HttpClient,支持异步、重试与文件操作
  • 自定义表单右侧属性使用v-bind绑定渲染
  • 知识点|MVC模式(Model–view–controller)
  • 中英双配毕业祝福(毕业季快乐!)
  • MRI中的“髓鞘探测器”:T1w/T2w比值揭秘
  • 【面板数据】A股上市公司注册地所在地数据集(1991-2023年)
  • securecrt里如何把会话管理器固定在会话的左侧?
  • 北航自由指令驱动的多模态导航最新研究:OctoNav:开启通用智能体具身导航
  • SageAttention2原理和计算过程
  • 开机不用输入密码,修改注册表
  • 【设计模式】UML类图与工厂模式
  • C++中 using 命名别名和命名别名模板的用法
  • 寻找区域中的面积和中心点
  • ChatNT-用于DNA、RNA和蛋白质任务的多模态对话代理-文献精读143
  • P3740 [HAOI2014] 贴海报 题解
  • AUTOSAR图解==>AUTOSAR_TPS_SafetyExtensions
  • xss注入遇到转义,html编码绕过了解一哈
  • frp搭建踩坑....
  • 2025软件测试面试题汇总(接口测试篇)
  • 鸿蒙的@State
  • 跳出多重循环
  • Power BI Streaming dataset - 模拟监测水库的水位情况
  • 【2025 CVPR-Backbone】Building Vision Models upon Heat Conduction
  • 57、原生组件注入-【源码分析】DispatcherServlet注入原理
  • Windows系统 整个D盘均无法新建文件夹,D盘权限无法直接添加