当前位置: 首页 > ds >正文

「Mac畅玩AIGC与多模态04」开发篇01 - 创建第一个 LLM 对话应用

一、概述

本篇介绍如何在 macOS 环境下,基于已部署完成的 Dify 平台和本地 LLM 模型(如 DeepSeek),创建并测试第一个基础对话应用,实现快速验证推理服务与平台交互功能。

二、应用创建流程

1. 通过首页创建应用

打开 Dify 后台首页,导航到「工作室」,点击「创建应用」栏的「创建空白应用」按钮。

在这里插入图片描述

将直接进入应用配置界面,开始填写应用信息。

2. 填写应用基本信息

  • 应用名称:第一个LLM对话应用
  • 应用类型:选择「聊天助手」
  • 应用描述:基础测试,仅使用本地LLM,不接入知识库与插件

点击「创建」,进入应用配置页面。

在这里插入图片描述

3. 配置大语言模型(LLM)

在应用配置界面,完成以下设置:

  • 模型名称:选择已注册的本地模型(如 deepseek-r1:1.5b
  • 温度:0.7(默认即可)
  • 最大标记:4096(默认或根据模型设置)

无需启用知识库,也无需启用插件。

4. 配置系统提示词

在「提示词」区域填写初始提示词,例如:

你是一个智能对话助手,请根据用户输入友好、准确地进行回答。

此提示词会作为模型推理时的基础指导。

5. 发布应用

完成配置后,点击右上角「发布」。

在这里插入图片描述

应用将出现在「探索」模块中的「工作区」列表中。


三、应用测试流程

1. 进入应用对话界面

在「探索」的「工作区」列表中,找到新建的应用,点击进入对话界面。

在这里插入图片描述

2. 开始对话测试

在对话框中输入测试问题,如:

  • 「你好,可以简单自我介绍一下吗?」
  • 「请帮我总结一下人工智能的发展历史。」
  • 「列举三个有效的时间管理方法。」

观察回复内容,确认:

  • 回答连贯
  • 推理流畅
  • 无明显异常中断

💡 若遇到加载异常,可检查:

  • Ollama服务是否正常运行
  • Dify连接配置是否正确
  • 网络代理设置是否影响本地推理接口

3. 流式输出体验(可选)

如果启用了流式输出功能(Streaming),可以在对话过程中看到回答内容实时流动生成,进一步验证用户体验效果。

在这里插入图片描述


四、总结

通过本篇流程,已基于本地部署的 LLM 模型与 Dify 平台,成功创建并测试了第一个基础对话应用。此应用不依赖知识库与插件,仅使用大语言模型进行推理交互,适合作为平台功能验证与后续应用开发的基础。后续可以在此基础上逐步接入知识库增强检索、插件扩展功能,构建更复杂的智能体应用体系。

http://www.xdnf.cn/news/2713.html

相关文章:

  • 深入理解布隆过滤器:参数设定与优化
  • EXCEL常用函数公式和VBA汇总第二篇
  • CUDA Stream 回调函数示例代码
  • 迷你世界UGC3.0脚本Wiki二维表介绍介绍
  • NodeJs模块化与JavaScript的包管理工具
  • 快手极速版安卓版流量消耗与观看体验优化评测
  • JAVA数据结构
  • (即插即用模块-特征处理部分) 四十二、(2024 TPAMI) FreqFusion 频率特征融合
  • Nginx的默认主配置文件 “/etc/nginx/nginx.conf“ 解读
  • SQL Server 存储过程开发手册
  • 2025系统架构师---主程序/子程序架构风格
  • 小白学习java第16天(上): javaWeb
  • 【Redis】基础3:一些应用场景
  • TCP协议
  • 2个关键思路,让微课动画场景制作别具一格
  • Fps鬼泣总结:通信——伤害检测
  • 【数据结构】顺序表
  • 伺服电机AB相输出,接入定时器通道,对定时器IO口的速率有何要求【详细分析】
  • 【Unity完整游戏开发案例】从0做一个太空大战游戏
  • MySQL主从同步原理与实践 - Java架构师面试解析
  • 【Python】Matplotlib:立体永生花绘制
  • 单值映射、多值映射
  • Linux:进程间通信->共享内存
  • 开源网络入侵检测与防御系统:Snort
  • 企业私有大模型DeepSeek落地部署该用什么? Ollama还是vLLM
  • PlatformIO 入门学习笔记(一):背景了解
  • 【每天一个知识点】correntropy(相关熵)
  • 08-STM32外部中断
  • el-input限制输入只能是数字 限制input只能输入数字
  • 中国区域250米归一化植被指数数据集(2000-2023)