当前位置: 首页 > ds >正文

连接语言大模型(LLM)服务进行对话

1. 引言

最近开始接触AI大模型方向的工作,第一个实例就尝试一下连接大模型进行对话的实现。

2. 实现

2.1 openai模块

要实现这个功能很简单,直接翻各大模型平台的给的API案例一般都可以实现,例如笔者这里使用的阿里云的百炼平台给出的API:

from openai import OpenAIclient = OpenAI(# 使用大模型对应的Keyapi_key = "sk-xxx",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1"
)completion = client.chat.completions.create(model="deepseek-r1",  # 此处以 deepseek-r1 为例,可按需更换模型名称。messages=[{'role': 'user', 'content': '想快速入门AI大模型,给我推荐一下具体的学习方案。'}]
)# 通过reasoning_content字段打印思考过程
print("思考过程:")
print(completion.choices[0].message.reasoning_content)# 通过content字段打印最终答案
print("最终答案:")
print(completion.choices[0].message.content)

我这里使用的大模型是deepseek,但是使用的是openai模块。这是因为现在的大模型服务基本都兼容OpenAI API标准的接口,因此可以通过设置不同的base_url和api_key来使用相同的openai Python客户端库进行访问。这也是为啥现在大模型平台都可以选择接入不同的大模型来实现AI应用。

除了Python接口,阿里云百炼平台还提供了Node.js和HTTP的接入方式,理论上可以前端、后端、移动端以及桌面端都可以连入大模型来实现自己的AI应用。messages=[{'role': 'user', 'content': '想快速入门AI大模型,给我推荐一下具体的学习方案。'}]就是大模型的提示词,通过更改提示词,可以与大模型对话来得到自己想要的结果。

2.2 LangChain

除了使用openai模块,使用LangChain是个更好的选择。LangChain是一个构建于大型语言模型(LLMs)之上的框架,提供了一系列的工具和接口来简化与这些模型交互的过程。如下所示:

# 初始化模型
chat = ChatOpenAI(model_name="deepseek-r1",temperature=0,base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", #服务地址api_key="sk-xxx"  #API密钥
)# 发送请求
response = chat.invoke([HumanMessage(content="请用中文介绍你自己。")])# 输出结果
print(response.content)

为什么说LangChain更好用一点呢,比如说你要执行批量任务,对一些文本进行多标签分类,那么可能需要进行批量提问以提升效率。在这方面LangChain提供了batch接口:

from langchain_openai import ChatOpenAIllm_client = ChatOpenAI(temperature=0.0,model_name="deepseek-r1",base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",api_key="sk-852da921b11545c99de697e584210fc7"
)# 假设你的多标签集合如下:
total_class = {"正面", "负面", "价格问题", "物流问题", "推荐", "外观设计", "用户体验"}# 系统提示词
system_prompt = """你是一个多标签分类助手,请从以下标签中选出适用于文本的所有标签(可以多选):
正面, 负面, 价格问题, 物流问题, 推荐, 外观设计, 用户体验只输出标签,多个标签之间用英文逗号分隔。如果无法判断,则返回空字符串。
"""def llm_labeling(texts: list[str]) -> list[list[str]]:"""对输入文本列表进行多标签打标,返回每条文本对应的标签列表。"""results = []batch_inputs = [system_prompt + '\n' + t for t in texts] res = llm_client.batch(batch_inputs)for item in res:content = item.content.strip()if not content:results.append([])continue# 解析逗号分隔标签,清洗一下tags = [t.strip() for t in content.split(',')]# 只保留在 total_class 中的合法标签tags = [t for t in tags if t in total_class]results.append(tags)return resultstexts = ["这个产品非常好用,值得推荐","物流速度太慢了,体验不好","外观漂亮,使用方便,就是价格稍贵"
]result = llm_labeling(texts)
for i, tags in enumerate(result):print(f"第{i+1}条: 标签 = {tags}")

运行结果如下:

第1条: 标签 = ['正面', '推荐', '用户体验']
第2条: 标签 = ['负面', '物流问题', '用户体验']
第3条: 标签 = ['正面', '外观设计', '用户体验', '价格问题']

其实deepseek不一定真的支持批量提问的接口,即使真的不支持,LangChain为我们提供了抽象层,在内部进行并发处理。当然,如果有的大模型提供batch接口,LangChain就会直接调用它。

2.3 其他

在阿里的百炼平台上还提供了“多轮对话”和“流式输出”的使用方式。这两种方式是构建AI Chat应用必须的。“多轮对话”就是需要让大模型记住之前的对话内容,也就是上下文,以便得到更好的输出;“流式输出”则是让大模型的回答逐步渐进的输出,一个字一个字的呈现,以便让AI Chat应用的交互性更好。不过笔者暂时不关心这个,以后有机会再试用一下。

http://www.xdnf.cn/news/16003.html

相关文章:

  • 随着GPT-5测试中泄露OpenAI 预计将很快发布 揭秘GPT-5冲击波:OpenAI如何颠覆AI战场,碾压谷歌和Claude?
  • [硬件电路-58]:根据电子元器件的控制信号的类型分为:电平控制型和脉冲控制型两大类。
  • 威力导演 12:革新级影音创作平台——专业特效与极致效率的完美融合
  • 算法题(176):three states
  • 100个GEO基因表达芯片或转录组数据处理27 GSE83456
  • [simdjson] 实现不同CPU调度 | 自动硬件适配的抽象
  • JAVA面试宝典 -《API设计:RESTful 与 GraphQL 对比实践》
  • Linux操作系统之线程(四):线程控制
  • RabbitMQ核心组件浅析:从Producer到Consumer
  • 【Django】DRF API版本和解析器
  • ubuntu-linux-pycharm-社区版安装与django配置
  • 高性能熔断限流实现:Spring Cloud Gateway 在电商系统的实战优化
  • Linux网上邻居局域网络共享工具Samba及Smb协议,smbd,nmbd服务,smbpasswd,pdbedit命令,笔记250720
  • 数组算法之【合并两个有序数组】
  • 无线通信相关概念
  • 【机器学习深度学习】魔塔社区模型后缀全解析:Base、Chat、Instruct、Bit、Distill背后的技术密码
  • 【Elasticsearch】冷热集群架构
  • 力扣 hot100 Day50
  • 在Ubuntu22系统上离线部署ai-infra-guard教程【亲测成功】
  • windows C#-本地函数
  • 【计算机组成原理】原码、补码和移码
  • ZooKeeper学习专栏(一):分布式协调的核心基石
  • 阶段1--Linux中的计划任务
  • 大模型词表设计与作用解析
  • 开源安全大模型Foundation-Sec 8B的安全实践
  • Baumer工业相机堡盟工业相机如何通过YoloV8的深度学习模型实现螺母螺丝的分类检测(C#代码,UI界面版)
  • 【开源项目】基于RuoYi-Vue-Plus的开源进销存管理系统
  • 软件工程:需求分析
  • XSS内容总结
  • 建筑墙壁损伤缺陷分割数据集labelme格式7820张20类别