当前位置: 首页 > news >正文

windows使用ollama部署deepseek及qwen

ollama

参考文档

ollama
官方文档
GitHub仓库

基础环境:

NVIDIA 1660TI 6G

下载

ollma是一款开源工具,支持在本地计算机(无需联网)快速部署和运行大型语言模型(LLM),如 LLaMA、Mistral、Gemma 等。

直接在ollama页面根据自己的操作系统下载即可。

不过这里要提到的是,ollama一般都是个人验证使用,企业一般使用VLLM。

安装

ollma默认是安装到本地的C:\Users\用户名\AppData\Local\Programs下的,对于C盘容量较小的用户非常不友好,推荐使用下面的方式,更改ollma的安装路径。

使用管理员模式启动PowerShell,在命令行中访问ollama安装包所在的文件路径:

在这里插入图片描述

.\OllamaSetup.exe /DIR=D:\work\ollama\install
# /DIR=指向你想要的安装位置

这样ollama的安装路径,就修改了我们指定的位置

在这里插入图片描述

环境变量

这里需要提前设置一些环境变量,方便后面我们管理模型和使用ollama。ollama默认的下载地址为C:\Users\用户名.ollama

OLLAMA_MODELS:D:\work\ollma\OllamaCache  改变模型的存储路径。

在设置环境变量后,需要对电脑进行重启,或者重启ollama,不然配置不会生效。

下载并运行模型

在ollama官方文档中,我们可以看到ollama是支持deepseek满血版及更多的蒸馏模型的,这里因为我的笔记本显存有限,所以先选择了deepseek-r1:1.5b。

ollama run deepseek-r1:1.5b

执行命令后会自动拉取大模型的文件,我们就可以在命令行中和模型进行对话了。

在这里插入图片描述
在这里插入图片描述

qwen:4b模型运行:

ollama run qwen3:4b

在这里插入图片描述
在这里插入图片描述

http://www.xdnf.cn/news/534943.html

相关文章:

  • SnapEdit安卓版:AI赋能,一键抠图与创意编辑
  • 创新点!贝叶斯优化、CNN与LSTM结合,实现更准预测、更快效率、更高性能!
  • 基于jsp+mysql+Spring的Springboot旅游网站管理系统设计和实现
  • OpenWeatherMap API ,常见的方式来管理 API Key:
  • 系统思考:动态性复杂
  • 0519Java面试题总结
  • 网络漏洞扫描系统都有哪些类型?
  • PAW3950DM-T5QU游戏级光导航芯片
  • 博图1200硬件组态与启保停程序编写步骤详解
  • AM32电调学习解读九:ESC上电启动关闭全流程波形分析
  • 无人机遥控器光纤通信模块技术要点!
  • 前端(vue)学习笔记(CLASS 6):路由进阶
  • 公网ip是固定的吗?动态ip如何做端口映射?内网ip怎么让外网远程访问?
  • FastAPI自定义异常处理:优雅转换Pydantic校验错误
  • 【占融数科-注册/登录安全分析报告】
  • python里的\和/有什么区别
  • 汇编:电子计数器
  • SCT2A10一款4.5V-85V 0.6A 高效率同步可调频率的降压DCDC转换器
  • Kubernetes高阶使用指南:深入探索容器编排的艺术
  • 基于大模型的手术全流程智能决策支持系统大纲
  • 关于systemverilog中在task中使用force语句的注意事项
  • 核保核赔的集中管理方案
  • GO语言学习(五)
  • 【C/C++】C++并发编程:std::async与std::thread深度对比
  • GPFS故障实际生产故障处理分析
  • 告诉我,pavucontrol的用法,我连接耳机的时候,输入设备应该使用什么呢?
  • AI神经网络降噪 vs 传统单/双麦克风降噪的核心优势对比
  • Ktransformers0.3框架的api访问接口程序
  • vue2.0 组件生命周期
  • LLaMA-Factory:了解webUI参数