当前位置: 首页 > ai >正文

告别 OpenAI SDK:如何使用 Python requests 库调用大模型 API(例如百度的ernie-4.5-turbo)

在许多开发环境中,由于网络限制、依赖冲突或追求轻量化等原因,我们可能无法或不愿直接使用官方提供的 openai Python 包。但这并不意味着我们无法与 OpenAI 兼容的大模型 API 进行交互。本文将详细介绍如何使用 Python 中无处不在的 requests 库,来完成对大模型服务的非流式(一次性)调用。

背景

当我们需要与一个遵循 OpenAI API 规范的语言模型(例如 GPT 系列或像文心一言这样提供兼容接口的模型)进行通信时,requests 库提供了一种最直接、最底层的控制方式。我们只需要手动构造 HTTP 请求,就能实现与官方 SDK 相同的功能。

本文将以一个具体的非流式(stream=False)调用为例,展示从构建请求到解析响应的全过程。

准备工作

在开始之前,请确保你已经安装了 requests 库。如果没有,可以通过 pip 轻松安装

  1. API 端点 URL (Endpoint URL):这是你要请求的服务器地址。
  2. API 密钥 (API Key):用于身份验证的凭证。

分步实现

第一步:导入库与定义常量

我们首先导入 requestsjson 库,并定义好 API 的基本信息。

注意: 直接在代码中硬编码 API Key 是一个非常不安全的做法。在生产环境中,强烈建议使用环境变量来管理此类敏感信息。

import requests
import json
import os# --- 安全地获取敏感信息 ---
# 建议从环境变量中读取 API Key
# 例如: export MY_API_KEY="你的API Key"
API_KEY = os.getenv("MY_API_KEY", "YOUR_API_KEY_HERE") 
# API 服务的基础 URL
BASE_URL = "https://aistudio.baidu.com/llm/lmapi/v3" # 此处以 aistudio 为例# 拼接成完整的请求 URL
API_URL = f"{BASE_URL}/chat/completions"

第二步:构造 HTTP 请求头 (Headers)

请求头包含了元数据,其中最重要的是 Content-TypeAuthorization

  • Content-Type: application/json:告诉服务器我们发送的数据是 JSON 格式。
  • Authorization: Bearer YOUR_API_KEY:这是 OpenAI 兼容 API 标准的身份验证方式。
headers = {'Content-Type': 'application/json','Authorization': f'Bearer {API_KEY}'
}

第三步:构造请求体 (Payload)

请求体是我们要发送给 API 的核心数据,它是一个 JSON 对象。我们将模型的参数,如模型名称、对话历史、温度等,都放在这个对象里。

对于非流式请求,请确保 stream 参数为 False 或直接省略。

# 构造请求体数据
data = {"model": "ernie-4.5-turbo-128k-preview","messages": [{"role": "user","content": "你好,请问你是谁?"},{"role": "assistant","content": "您好,我是一个AI大模型。"},{"role": "user","content": "请用 Python 写一个简单的 Hello World 程序。"}],"stream": False,  # 关键:设置为 False 或省略此行以进行非流式请求# 其他可选参数"temperature": 0.8,"top_p": 0.8,"max_completion_tokens": 1024,
}

第四步:发送请求并处理响应

一切准备就绪后,我们使用 requests.post() 方法发送请求。由于是非流式请求,程序会在此处阻塞,直到服务器处理完成并返回完整的响应。

一个健壮的程序应该包含完善的错误处理。

try:# 发送 POST 请求,requests 会自动将 data 字典转为 JSON 字符串response = requests.post(API_URL, headers=headers, json=data)# 检查 HTTP 状态码,如果请求失败(如 4xx, 5xx),则会抛出异常response.raise_for_status()# 将返回的 JSON 响应解析为 Python 字典response_data = response.json()# 从响应中提取模型生成的内容# 非流式响应的路径通常是 choices[0].message.contentif response_data.get("choices"):message_content = response_data["choices"][0]["message"]["content"]print("模型回答:")print(message_content)else:print("未能获取到有效的回答,服务器响应如下:")print(response_data)except requests.exceptions.RequestException as e:print(f"网络请求时发生错误: {e}")
except json.JSONDecodeError:print("无法解析服务器响应为 JSON 格式。")print("服务器原始响应:", response.text)
except KeyError:print("响应的 JSON 结构不符合预期,无法找到所需内容。")print("服务器原始响应:", response_data)

运行以上代码,如果一切正常,你将一次性看到模型生成的完整回答。

输出结果:

总结

通过使用 requests 库,我们完全绕开了对 openai SDK 的依赖,实现了与大模型 API 的直接通信。这种方法的优点是:

  • 零额外依赖requests 几乎是 Python 环境的标配。
  • 完全控制:你可以精细控制请求的每一个细节,包括超时、代理等。
  • 环境通用:适用于任何不支持特定 SDK 的受限环境。

http://www.xdnf.cn/news/20050.html

相关文章:

  • 【Qt开发】按钮类控件(三)-> QCheckBox
  • 【完整源码+数据集+部署教程】手袋类型检测系统源码和数据集:改进yolo11-AFPN-P345
  • 前端开发,同源策略
  • 【Linux】Linux进程状态和僵尸进程:一篇看懂“进程在忙啥”
  • 基于OpenGL封装摄像机类:视图矩阵与透视矩阵的实现
  • 如何下载B站视频,去水印,翻译字幕
  • .Net程序员就业现状以及学习路线图(四)
  • 创建线程有哪几种方式
  • 【数字孪生核心技术】数字孪生有哪些核心技术?
  • Kubernetes(四):Service
  • HyperWorks许可服务器设置
  • 企业微信AI怎么用?食品集团靠它砍掉50%低效操作,答案就是选对企业微信服务商
  • ZeroMQ 编译 项目使用流程文档
  • Android 生命周期函数调用原理
  • 《计算机网络安全》实验报告一 现代网络安全挑战 拒绝服务与分布式拒绝服务攻击的演变与防御策略(3)
  • 2025年数学建模国赛参考论文发布
  • 从碎片化到一体化:Java分布式缓存的“三级跳”实战
  • Spring Security 深度学习(六): RESTful API 安全与 JWT
  • 服务器IP暴露被攻击了怎么办?
  • 微算法科技 (NASDAQ:MLGO)利用量子密钥分发QKD技术,增强区块链系统的抗攻击能力
  • 自动化运维-ansible中对roles的创建与使用
  • 数据无言,网关有声 耐达讯自动化RS485转Profinet让千年液位数据“开口说话”
  • 在VSCode中更新或安装最新版的npx和uv工具
  • 数码视讯TR100-OTT-G1_国科GK6323_安卓9_广东联通原机修改-TTL烧录包-可救砖
  • 容器的定义及工作原理
  • 【华为Mate XTs 非凡大师】麒麟芯片回归:Mate XTs搭载麒麟9020,鸿蒙5.1体验新境界
  • Java 21 虚拟线程微服务进阶实战:2 个企业级场景源码 + 底层调度原理 + 性能调优指南
  • 艾克斯图片转换器,不只图片压缩
  • 音响皇帝BO,牵手全球第一AR眼镜雷鸟,耳机党坐不住了?
  • Kafka 内存池MemoryPool 设计