当前位置: 首页 > ops >正文

【LLM开发学习】

目录

  • LLM开发及其介绍
  • Langchain 支持的模型
  • 案例
    • 案例一:Langchain简单实现LLM调用
  • 参考资料

LLM开发及其介绍

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述
在这里插入图片描述在这里插入图片描述在这里插入图片描述

在这里插入图片描述在这里插入图片描述在这里插入图片描述

Langchain 支持的模型

在这里插入图片描述在这里插入图片描述在这里插入图片描述

案例

案例一:Langchain简单实现LLM调用

在这里插入图片描述

from fastapi import FastAPI
from langchain_core.messages import SystemMessage, HumanMessage
from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
import os
#
# os.environ["OPENAI_BASE_URL"] = "https://xxx.com/v1"
# os.environ["OPENAI_API_KEY"] = "******"
from langchain.chat_models import init_chat_model
from langserve import add_routesos.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = "******"
#1.模型创建
# model=ChatOpenAI(model='gpt-4-turbo')
model = init_chat_model(model="deepseek-ai/DeepSeek-R1-0528-Qwen3-8B",#"Qwen/Qwen3-8B", # 模型名称model_provider="openai", # 模型提供商,硅基流动提供了openai请求格式的访问base_url="https://api.siliconflow.cn/v1/", #硅基流动模型的请求urlapi_key="*****", # 填写你注册的硅基流动 API Key
)# #2.准备prompt
# msg=[
#     SystemMessage(content='请将以下内容翻译为意大利语言'),
#     HumanMessage(content='你好,请问你要去哪里?')
# ]# result=model.invoke(msg)
# print(result)#未解析答案#定义prompt模板
prompt_template=ChatPromptTemplate.from_messages([('system','请将以下内容翻译为{language}'),('user','{text}')
])#3.创建返回数据解析器
#简单解析响应数据
parser=StrOutputParser()
# print(parser.invoke(result))#仅输出结果#4.创建链
chain=prompt_template|  model | parser
# print(chain.invoke(msg))
# print(chain.invoke({'language':'English','text':'我现在有事,您请回吧。'}))##服务端部署
#创建fastapi应用
app=FastAPI(title='我的Langchain服务',version='V1.0',description='翻译器')add_routes(app,chain,path="/demo_chain",#路由接口
)if __name__=="__main__":import uvicorn#port:端口号# uvicorn.run(app,host="localhost",port=123456)#127.0.0.1uvicorn.run(app, host="127.0.0.1", port=888)  #在 TCP/IP 协议中,端口号是一个 16 位的整数,范围从 0 到 65535
from langserve import RemoteRunnableif __name__=="__main__":##实现服务端访问client=RemoteRunnable('http://127.0.0.1:888/demo_chain/')print(client.invoke({'language':'English','text':'我现在有事。'}))

参考资料

AI大模型

http://www.xdnf.cn/news/17315.html

相关文章:

  • 应用层自定义协议
  • Redis基础数据类型
  • 广东省省考备考(第七十天8.8)——言语、判断推理(强化训练)
  • 01Vue3
  • [优选算法专题一双指针——三数之和]
  • Python训练营打卡Day26-函数专题2:装饰器
  • 最长回文子串
  • 远期(Forward)交易系统全球金融市场解决方案报告
  • Java 之 设计模式
  • Python名称映射技术:基于序列元素的高级访问模式详解
  • [科普] AI加速器架构全景图:从GPU到光计算的算力革命
  • 豆包新模型+PromptPilot:AI应用开发全流程实战指南
  • 【C++高阶五】mapset对红黑树的封装
  • Nestjs框架: 接口安全与响应脱敏实践 --- 从拦截器到自定义序列化装饰器
  • 【昇腾】Atlas 500 A2 智能小站制卡从M.2 SATA盘启动Ubuntu22.04系统,重新上电卡死没进系统问题处理_20250808
  • 大语言模型提示工程与应用:提示词基础使用方式
  • Redis原理,命令,协议以及异步方式
  • 分布式膛压应变测量系统
  • 中国电信清华:大模型驱动的具身智能发展与挑战综述
  • BGP综合实验
  • 代码随想录算法训练营第三十八天、三十九天|动态规划part11、12
  • 考研复习-计算机组成原理-第四章-指令系统
  • 机器人焊机智能流量调节
  • 内容分发机制研究:实测一款多源短视频聚合App
  • isulad + harbor私有仓库登录
  • 从安卓兼容性困境到腾讯Bugly的救赎:全链路崩溃监控解决方案-卓伊凡|bigniu
  • 机器学习概念1
  • STM32HAL 快速入门(二):用 CubeMX 配置点灯程序 —— 从工程生成到 LED 闪烁
  • 服务器登上去,显示 failed to send WATCHDOG 重启有效吗?
  • Android 之 ANR问题的全面解析与优化方案