当前位置: 首页 > ds >正文

Unity AI-使用Ollama本地大语言模型运行框架运行本地Deepseek等模型实现聊天对话(一)

一、Ollama介绍

官方网页:Ollama官方网址
中文文档参考:Ollama中文文档
相关教程:Ollama教程

Ollama 是一个开源的工具,旨在简化大型语言模型(LLM)在本地计算机上的运行和管理。它允许用户无需复杂的配置即可在本地部署和运行如Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 和其他模型,适合开发者、研究人员以及对隐私和离线使用有需求的用户。

二、核心功能

  1. 本地运行模型​
    直接在个人电脑或服务器上运行模型,无需依赖云服务,保障数据隐私和离线可用性。
  2. ​多平台支持​
    支持 macOS、Linux、Windows,并提供 Docker 镜像,方便跨平台部署。
  3. ​模型管理​
    通过命令行轻松下载、更新或删除模型(如 ollama run llama2)。
  4. API 集成​
    提供 RESTful API,便于与其他应用(如 Python 脚本、自定义工具)集成。
  5. 多模型支持​
    兼容Llama 3.3、DeepSeek-R1、Phi-4、Mistral、Gemma 2 等,部分支持自定义模型加载。

三、Ollama安装

1、硬件要求

内存至少 8GB RAM,运行较大模型时推荐 16GB 或更高。部分大模型需显卡加速(如 NVIDIA GPU + CUDA)。

2、下载安装

官网
官方网站下载对应版本。
下载
下载完成后,打开安装程序并按照提示完成安装。
安装完成可以打开命令行管理器(CMD)或Powershell输入下面指令验证安装是否成功

ollama --version

成功

3、运行模型

ollama run llama3.2

执行以上命令如果没有该模型会去下载 llama3.2 模型

ollama run deepseek-r1:7b

如果使用deepseekR1模型将命令替换为deepseek即可,7b是运行的模型大小

支持的模型访问ollama模型
对话
输入内容实现与模型对话(示例为llama3.2模型)

http://www.xdnf.cn/news/2900.html

相关文章:

  • WebXR教学 06 项目4 跳跃小游戏
  • for(auto it: vec)和for(auto it: vec)的区别以及使用场景
  • Java—— Arrays工具类及Lambda表达式
  • 联合体union的特殊之处
  • 软件测试实验报告3 | 自动化测试工具的基本操作
  • 局域网传文件——基于flask实现
  • 9.Three.js中 ArrayCamera 多视角相机详解+示例代码
  • RISCV学习(5)GD32VF103 MCU架构了解
  • 修改Hosts文件没有生效的解决办法
  • LM393比较器的比较翻转电压不对
  • seaborn数据统计可视化-介绍
  • 需要掌握的前端安全概念以及实操
  • 【React Native】精通 react native
  • 第十四届蓝桥杯Scratch03月stema选拔赛——九九乘法表
  • 城市群出行需求的时空分形
  • 工厂设计模式
  • GRPO vs SFT:强化学习提升大模型多模态推理泛化能力的原因研究
  • 2.2.1goweb内置的 HTTP 处理程序
  • Daytona - 开源开发环境管理器
  • 【前端】CSS实现div双背景图叠加
  • QTableView复选框居中
  • Java多线程入门案例详解:继承Thread类实现线程
  • 将本地Springboot项目部署到Linux服务器
  • Web开发之三层架构
  • 从困局到破局的AI+数据分析
  • vscode以管理员身份运行报错
  • 用 Python打造交互式图片-音视频管理器:代码分析与实践
  • 厚铜pcb生产厂家哪家好?
  • 深入解析C2服务器:网络攻击的核心枢纽
  • 莫队算法学习笔记