当前位置: 首页 > news >正文

保姆级教程:在无网络无显卡的Windows电脑的vscode本地部署deepseek

文章目录

  • 1 前言
  • 2 部署流程
    • 2.1 准备工作
    • 2.2 Ollama
      • 2.2.1 使用有网络的电脑下载Ollama
      • 2.2.2 安装Ollama(有网络的电脑)
      • 2.2.3 安装Ollama(无网络的电脑)
      • 2.2.4 安装验证
      • 2.2.5 修改大模型安装位置
      • 2.2.6 下载Deepseek模型
    • 2.3 将deepseek部署到vscode
      • 2.3.1 下载插件的visx文件
      • 2.3.2 拷贝visx文件
      • 2.3.3 在无网络的电脑中导入插件
      • 2.3.4 添加大模型
  • 3 总结

1 前言

由于在公司中使用的云桌面是没有网络的,所以在阅读部门大哥们的代码时无法使用ai工具,加上本人才疏学浅,阅读起来十分困难、效率不高,因此通过网上资料搜寻并总结出了在无网络的windows电脑中本地部署deepseek,从而能够通过工具解释代码,进行愉快的阅读和开发
在这里插入图片描述

2 部署流程

2.1 准备工作

  • 一台无网络的windows电脑(虚拟机、云桌面)
  • 一台有网络的windows电脑

2.2 Ollama

首先需要通过Ollama下载需要部署的大模型到电脑中

2.2.1 使用有网络的电脑下载Ollama

我这里直接分享我网盘中的安装包:

Ollama安装包,提取码: jwj2

2.2.2 安装Ollama(有网络的电脑)

安装推荐使用命令行方式安装,因为直接双击exe文件安装的话,安装的位置默认会在C盘(一般是在C:\Users\用户名\AppData\Local\Ollama),使用命令行安装则可以制定安装的路径

1、在安装包OllamaSetup.exe所在目录按住Shift + 鼠标右键,点击弹窗中的在此处打开 Powershell 窗口
在这里插入图片描述2、在弹出的PowerShell输入如下命令

.\OllamaSetup.exe /DIR="D:\Ollama"

其中DIR的值为D:\Ollama,该值就是你想要安装的位置
在这里插入图片描述
3、回车后会弹出安装窗体,点击install等待安装完成
在这里插入图片描述

2.2.3 安装Ollama(无网络的电脑)

将下载好的安装包从有网络的电脑拷贝到无网络的电脑中,重复2.2.2中的步骤,在无网络的电脑中安装Ollama

2.2.4 安装验证

在Powershell中输入命令ollama,若出现如下打印则安装成功
在这里插入图片描述

2.2.5 修改大模型安装位置

有网络无网络的电脑中都执行如下操作:
在环境变量中的新建用户变量

变量名:OLLAMA_MODELS
变量值:D:\Ollama\Models

其中变量值是大模型下载存储的路径,可以根据需要进行自定义,我这里就是存储在D:\Ollama\Models
在这里插入图片描述
这一步设置完一定要重新启动一下Ollama,配置才会生效

2.2.6 下载Deepseek模型

有网络的电脑中执行以下步骤:
1、进入Ollama官网,点击菜单栏中的Models
搜索deepseek-r1并点击在这里插入图片描述
可以根据需要以及电脑配置选择模型
在这里插入图片描述

由于我的电脑没有GPU,因此部署最小的1.5b的模型
在这里插入图片描述2、复制
在这里插入图片描述3、打开2.2.5中配置的大模型安装路径的目录,按Shift+鼠标右键,,点击弹窗中的在此处打开 Powershell 窗口
在这里插入图片描述
4、输出粘贴的命令ollama run deepseek-r1:1.5b并等待其下载完成,当出现如下界面则安装成功
在这里插入图片描述
同时,在指定了大模型安装的目录下会生成两个文件夹,如果指定的目录下没有这两个文件夹,则2.2.5的配置没有生效,模型安装在默认路径(C:\User\用户名\.ollama\models)
在这里插入图片描述
将这两个文件夹拷贝到2.2.5中配置的无网络电脑的大模型安装路径下

2.3 将deepseek部署到vscode

2.3.1 下载插件的visx文件

由于无网络的电脑中无法直接通过vscode下载插件,只能通过vsix文件导入。
1、在有网络的电脑中打开vscode,搜索continue,下载vsix文件
在这里插入图片描述
2、选择下载平台
在这里插入图片描述
我这里也给出vsix文件的网盘链接

continue.continue-1.0.11-win32-x64.vsix
提取码: 6n7n

2.3.2 拷贝visx文件

将下载好的vsix文件从有网络的电脑拷贝到无网络的电脑

2.3.3 在无网络的电脑中导入插件

无网络的电脑中,打开vscode,点击从vsix安装,安装continue插件
在这里插入图片描述

2.3.4 添加大模型

无网络的电脑中,点击左侧continue插件图标,添加大模型
在这里插入图片描述
Provider选择Ollama,Model选择Autodetect,电脑会根据2.2.5步骤配置的用户变量的大模型路径自动检测有什么模型,点击Connect
在这里插入图片描述
出现以下界面后,则恭喜你成功在无网络的电脑中的vscode本地部署了deepseek,进行愉快的代码阅读了!
在这里插入图片描述

3 总结

  • 本文参考了以下两位大佬的文章,特别鸣谢!
    全网最全!!!手把手教你本地部署DeepSeek+VS Code,一键搭建本地大模型
    [软件工具使用记录] windows离线ollama部署本地模型并配置continue实现离线代码补全
  • 由于电脑没有显卡GPU,因此即使跑最小的模型也会有些许卡顿,但是问题不大,还是可以正常使用的
  • 有任何问题欢迎评论或私信留言
http://www.xdnf.cn/news/949825.html

相关文章:

  • 在鸿蒙HarmonyOS 5中使用DevEco Studio实现指南针功能
  • 【磁盘】每天掌握一个Linux命令 - iostat
  • WEB3全栈开发——面试专业技能点P7前端与链上集成
  • Django 5 学习笔记总纲
  • 13.9 LLaMA 3+多模态提示工程:革命性语言学习Agent架构全解析
  • react-pdf(pdfjs-dist)如何兼容老浏览器(chrome 49)
  • 大语言模型(LLM)中的KV缓存压缩与动态稀疏注意力机制设计
  • 篇章二 论坛系统——系统设计
  • C/C++ 面试复习笔记(5)
  • nuclio的配置文件yaml和docker compose的yaml的区别
  • 依赖注入(Dependency Injection)
  • 关于YOLOV5—Mosaic数据增强
  • 电源滤波器:不起眼却如何保障电子设备电源?
  • 1091 Acute Stroke (30)
  • 2025年全国I卷数学压轴题解答
  • 大模型链路调试平台之LangSmith实战指南
  • Web 架构之 API 安全防护:防刷、防爬、防泄漏
  • SpringBoot整合SSM
  • React中子传父组件通信操作指南
  • 使用VBA嵌套字典快速转换BOM表格
  • 鸢尾花分类(KNN)
  • 【AI News | 20250609】每日AI进展
  • 测试微信模版消息推送
  • 开源:FTP同步工具
  • 【粤语克隆】粤语声音,一秒克隆:如何用AI为岭南文化按下快进键
  • composer init
  • LeetCode - 647. 回文子串
  • 具身智能之人形机器人核心零部件介绍
  • 教程:PyCharm 中搭建多级隔离的 Poetry 环境(从 Anaconda 到项目专属.venv)
  • 重启Eureka集群中的节点,对已经注册的服务有什么影响