当前位置: 首页 > news >正文

Docker安装Ollama及使用Ollama部署大模型

文章目录

  • 整体说明
  • 一、Docker安装Ollama
    • 1.1、官方文档
    • 1.2、环境信息
    • 1.3、Docker安装
      • 1.3.1、检查 Docker 状态
      • 1.3.2、安装 Ollama
        • 1. `docker run`
        • 2. `-d`(`--detach`)
        • 3. `-v /qjp/software/ollama:/root/.ollama`(`--volume`)
        • 4. `-p 11434:11434`(`--publish`)
        • 5. `--name ollama`
        • 6. `ollama/ollama`
      • 1.3.3、 Ollama 安装结果
        • 1.3.3.1、执行结果
        • 1.3.3.2、运行验证
  • 二、Ollama部署大模型
    • 2.1、 部署codellama:7b
      • 2.1.1、进入 Docker 容器
      • 2.1.2、安装大模型
      • 2.1.3、退出 Docker 容器
    • 2.2、查看移除大模型
      • 2.2.1、查看大模型
      • 2.2.2、移除大模型

摘要: Docker安装Ollama及使用Ollama部署大模型

关键词: Ollama、Docker、大模型

整体说明

现在大模型非常火爆,但是大模型很贵,特别是接口调用,所以对我们这些简单使用的人,可以本地部署使用,步骤如下:

一、Docker安装Ollama

1.1、官方文档

安装平台哪里都不如官方文档专业,所以看官方文档吧

官方文档地址:https://github.com/ollama/ollama/blob/main/docs/docker.md

1.2、环境信息

由于我使用的是 Virtualbox 虚拟机,安装的 Centos7

我查了文档,这个虚拟机无法使用 Nvidia GPU

所以暂且使用 CPU 安装吧

如果后续性能比较差,再使用 GPU

1.3、Docker安装

1.3.1、检查 Docker 状态

安装之前查看docker 是否启动

systemctl status docker

如果没启动,执行启动命令

systemctl start docker

1.3.2、安装 Ollama

执行安装命令 (CPU Only)

docker run -d -v /qjp/software/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

参数说明:

1. docker run
  • 作用:启动一个新的容器实例。
  • 说明:Docker 的核心命令,用于从镜像创建并启动容器。
2. -d--detach
  • 作用:以 后台模式 运行容器。
  • 说明:容器启动后会与当前终端分离,终端不会被阻塞,可以继续执行其他命令。
  • 典型场景:适用于需要长期运行的服务(如 Web 服务器、数据库等)。
3. -v /qjp/software/ollama:/root/.ollama--volume
  • 作用:挂载 数据卷,实现宿主机与容器之间的目录映射。
  • 参数结构宿主机目录:容器内目录
  • 说明
    • 将宿主机的 /qjp/software/ollama 目录挂载到容器内的 /root/.ollama 目录。
    • 容器内的 /root/.ollama 通常是 Ollama 的配置和数据存储目录,挂载后数据会持久化到宿主机,避免容器删除后数据丢失。
  • 典型场景:用于保存模型文件、配置文件或日志等持久化数据。
4. -p 11434:11434--publish
  • 作用:映射 容器端口宿主机端口
  • 参数结构宿主机端口:容器内端口
  • 说明
    • 将宿主机的 11434 端口映射到容器的 11434 端口。
    • 外部通过宿主机的 11434 端口访问容器内的服务。
  • 典型场景:Ollama 的 API 或 Web 服务可能默认监听 11434 端口,通过此映射允许外部访问。
5. --name ollama
  • 作用:为容器指定一个 自定义名称(这里是 ollama)。
  • 说明
    • 如果不指定名称,Docker 会自动生成一个随机名称(如 angry_curie)。
    • 自定义名称便于后续通过 docker start/stop/rm 等命令管理容器。
  • 典型场景:简化容器管理,避免依赖容器 ID。
6. ollama/ollama
  • 作用:指定要使用的 Docker 镜像
  • 说明
    • 如果本地不存在该镜像,Docker 会从 Docker Hub 自动拉取。
    • 未指定标签时,默认使用 latest 标签。
    • 镜像的完整格式为 镜像名:标签(如 ollama/ollama:0.1)。
  • 典型场景:使用官方或自定义镜像启动服务。

1.3.3、 Ollama 安装结果

1.3.3.1、执行结果

如下图所示,则安装成功

Docker 的ID是

e92591edf0bc53602e594c956dba19431d3d7de342af5ffb3b15b57b13280036
1.3.3.2、运行验证

页面访问:http://xxx.xxx.xx.xx:11434/

显示 如下图,则 Ollama 安装成功,并正在运行

二、Ollama部署大模型

2.1、 部署codellama:7b

大模型可根据自己的需求去官网上去找

官网地址:https://ollama.com/search

2.1.1、进入 Docker 容器

docker exec -it ollama bash

2.1.2、安装大模型

执行运行大模型,没有的话,会自动安装

ollama run codellama:7b

如下图所示则安装成功,且进入了大模型问答环境,可以对话提问

2.1.3、退出 Docker 容器

CTRL + D

2.2、查看移除大模型

2.2.1、查看大模型

ollama list

2.2.2、移除大模型

ollama rm codellama:7b
http://www.xdnf.cn/news/266509.html

相关文章:

  • 二极管反向恢复的定义和原理
  • SQL语句--postgis语句(矢量数据的定义与操作)
  • REINFORCE蒙特卡罗策略梯度算法详解:python从零实现
  • STM32 DMA直接存储器存取
  • 解码响应式 Web 设计:原理、技术与优劣势全解析
  • C++代码随想录刷题知识分享-----142.环形链表II
  • 希洛激活器策略思路
  • n8n工作流自动化平台的实操:Cannot find module ‘iconv-lite‘
  • 生成式 AI 与 AI 的区别
  • DeepSeek实战--LLM微调
  • LeetCode算法题 (设计链表)Day16!!!C/C++
  • 「Mac畅玩AIGC与多模态16」开发篇12 - 多节点串联与输出合并的工作流示例
  • ipvsadm,是一个什么工具?
  • 中国 AIGC 确权革命:“AI 创意・中国” 平台上线,存证成本降至 0.1 元 / 件
  • CAN网桥中继隔离抗干扰集线器重映射一进一出CAN扩展CAN Bridge
  • 在Java项目中实现本地语音识别与热点检测,并集成阿里云智能语音服务
  • Dubbo(92)如何在微服务架构中应用Dubbo?
  • 深入理解C++类型转换:从基础到高级应用
  • 糖尿病筛查常识---秋浦四郎
  • 计网_可靠传输ARQ机制
  • neo4j初尝试
  • Java从入门到精通 - Java语法
  • C++ 简单工厂模式详解
  • QT6 源(72):阅读与注释单选框这个类型的按钮 QRadioButton,及各种属性验证,
  • 【Linux知识】find命令行使用详解
  • 数据结构*队列
  • nessus最新版本安装教程+windows一键更新最新插件
  • 计算机网络-同等学力计算机综合真题及答案
  • 【AI零件】openrouter.ai生成密钥的操作
  • 广义线性模型三剑客:线性回归、逻辑回归与Softmax分类的统一视角