当前位置: 首页 > web >正文

【大模型本地运行与部署框架】Ollama的使用记录

文章目录

  • 0 简介
  • 1 安装Ollama
    • 1.1 windows系统下的本地安装
    • 1.2 python Ollama框架安装
  • 2 运行模型
    • 2.1 在命令行工具(CLI)运行和部署模型
      • 2.1.1 本地运行模型
      • 2.1.2 其他常见命令
      • 2.1.3 部署模型【待补充】
    • 2.2 使用python SDK配置与运行模型
      • 2.2.1 简单使用
      • 2.2.2 对话模型
      • 2.2.3 更多
    • 2.3 自定义模型运行和部署【待补充】

0 简介

定位: Ollama是一款开源的本地大模型运行框架。

便于在本地服务器便捷地快速部署、运行和管理大语言模型。
支持常见大模型本地部署,例如deepseek系列、llama系列、qwen系列等等。

1 安装Ollama

本安装教程有两种:
1.为基于windows系统的本地安装,要求Windows 10 22H2 或更高版本、家庭版或专业版;
2. python ollama库安装。
其余系统或环境下的安装,请见官方文档。

1.1 windows系统下的本地安装

官网软件包的下载地址:https://ollama.com/download
下载后,直接双击运行后,点击install,自动安装完成。(别慌,请往下看完)

这种是默认安装形式,默认安装在主目录,如果你的c盘足够大的话,完全没有问题。在这里插入图片描述

BUT :如果有多个分区,C区主用作系统盘。
随着后期ollama下载了多个模型,每个模型将会占用数十或数百GB的空间。如果主盘没有足够空间的话,将影响系统运行。

那么,建议参考使用官方给出的更改安装位置

step 1 :自定义ollama安装路径

先进入到下载软件包的文件夹(这个需要你自己去确认),在该处进入控制台界面;

再在控制台界面输入OllamaSetup.exe /DIR="d:\some\location,意为用命令语句来安装ollama,并指定安装地址。
OllamaSetup.exe指的是软件安装包的名字;
/DIR="d:\some\location携带的地址参数,d:\some\location代表你的指定安装路径,可修改此参数值。

例如,我想将ollama安装到 D:\LLM\Ollama,那么我的运行语句为 :
OllamaSetup.exe /DIR=“D:\LLM\Ollama”

step 2:修改model的安装位置。

安装好后,会自动启动ollama。
这时查看一下model的下载位置,通常依旧还是在c盘。查看方式为:

    右键图标,点击setting
在这里插入图片描述

    setting界面查看model location的路径是否默认位置,即C:\users\yourname\.ollama\models

此时,需要我们手动修改:

    先新建一个你想存放的空文件夹,可以选择保存相同子目录(.ollama\models),
    然后将原路径下的所有文件移动到你所新建的地址。

例如,我想将我的模型存放在 D:\LLM下,并且想要保持一样的子目录,我所做的操作是:
     先在 D:\LLM 目录下,新建二级目录也就是 D:\LLM.ollama\models
     接着,在设置界面的model location 的路径进行修改
     最后,将默认路径 C:\users\yourname\.ollama\models 下的所有东西剪切到D:\LLM\.ollama\models
在这里插入图片描述

step 3:验证安装结果。

命令行输入ollama --version,若返回版本号,则说明安装成功!
在这里插入图片描述

1.2 python Ollama框架安装

使用pip或者conda安装ollama库即可。

2 运行模型

2.1 在命令行工具(CLI)运行和部署模型

2.1.1 本地运行模型

在官网中https://ollama.com/search,查找所支持的模型
直接在搜索框中进行搜索,大部分模型都可以支持,
在这里插入图片描述

这里以deepseek为例,下图是搜索结果,
在这里插入图片描述

我们选择deepseek-r1,进入后界面:
     右上角会显示执行命令;
     下方会显示多个不同参数的模型。
【这里我们要注意,例如DeepSeek-R1-Distill-Qwen-1.5B,之所以参数量级较少,其实是使用原DeepSeek某模型生成数据,再对qwen进行微调和训练得到的优质模型】分析来源:modelScope社区
在这里插入图片描述

接着选择想要下载的具体参数大小的模型,这里我选择deepseek-r1:1.5b,将该模型安装到本地,即执行 ollama run deepseek-r1:1.5b
在这里插入图片描述
等待下载,下载后,会直接运行该模型
在这里插入图片描述

到这里,恭喜你在本地运行成功!
结束对话,可以直接在send a message位置输入/bye或 键入ctrl+d,即可关闭对话。

2.1.2 其他常见命令

这里,简单记录一下其他的常见命令:

① 查看模型的配置文件ollama show --modelfile deepseek-r1:1.5b
每个文件都有这个modelfile,我们也可以自己写modelfile,去运行自定义模型。
这里注意看红线部分,这里也可以查看你模型现在在哪个位置。如果你的模型位置显示的是1.1中你所自定义的model location路径,则配置没有问题。
在这里插入图片描述

② 查看本地安装的模型列表ollama list
在这里插入图片描述

2.1.3 部署模型【待补充】

2.2 使用python SDK配置与运行模型

适用场景:如果你希望将 Ollama 与 Python 代码集成,进行加载或运行模型。

2.2.1 简单使用

新建文件,可以写以下简单的以下文本。

import ollama
response = ollama.generate(model="deepseek-r1:1.5b",  # 模型名称prompt="你好。"  # 提示文本
)
print(response)

接下来,运行该python文件,就可以得到输出结果。

2.2.2 对话模型

from ollama import chatmessages = [{'role': 'user','content': '为什么天空是蓝色?',},]response = chat('deepseek-r1:1.5b', messages=messages)
print(response['message']['content'])

2.2.3 更多

更多使用模板见https://github.com/ollama/ollama-python/blob/main/examples/README.md

2.3 自定义模型运行和部署【待补充】

使用场景

步骤
ollama create model -of ./Modelfile

http://www.xdnf.cn/news/18369.html

相关文章:

  • TDengine IDMP 运维指南(3. 使用 Ansible 部署)
  • HTML应用指南:利用GET请求获取全国新荣记门店位置信息
  • 代码随想录Day56:图论(冗余连接、冗余连接II)
  • CTFshow系列——命令执行web34-37
  • 深入理解抽象类
  • 08.5【C++ 初阶】实现一个相对完整的日期类--附带源码
  • 《算法导论》第 31 章 - 数论算法
  • AI驱动的SEO关键词优化秘籍
  • DAY 50 预训练模型+CBAM模块
  • RabbitMQ:SpringAMQP 多消费者绑定同一队列
  • .net core web程序如何设置redis预热?
  • 借助AI将infoNES移植到HarmonyOS平台的详细方案介绍
  • 基于SpringBoot+Vue的养老院管理系统的设计与实现 智能养老系统 养老架构管理 养老小程序
  • NestJS @Inject 装饰器入门教程
  • Go语言中的优雅并发控制:通道信号量模式详解
  • MVC、MVP、MVCC 和 MVI 架构的介绍及区别对比
  • 决策树二-泰坦尼克号幸存者
  • Unity常用工具及默认快捷键
  • 视觉测试:确保应用界面一致性
  • 牛客面经 - 2025/8/19
  • 深入理解Redis持久化:让你的数据永不丢失
  • Android Studio常用知识总结
  • 技术攻坚全链铸盾 锁定12月济南第26届食品农产品安全高峰论坛
  • 上网行为管理-内容审计
  • 效果图只是起点:深挖3D可视化在家装建筑中的隐藏金矿
  • Leetcode 3654. Minimum Sum After Divisible Sum Deletions
  • DL00291-联邦学习以去中心化锂离子电池健康预测模型完整实现
  • el-input 重写带图标密码框(点击小眼睛显示、隐藏密码)
  • 当MySQL的int不够用了
  • 【教程】在 VMware Windows 虚拟机中使用 WinPE 进行离线密码重置或取证操作