华为云Flexus+DeepSeek征文 | DeepSeek-V3/R1商用服务开通体验全流程及使用评测
作者简介
我是摘星,一名专注于云计算和AI技术的开发者。本次通过华为云MaaS平台体验DeepSeek系列模型,将实际使用经验分享给大家,希望能帮助开发者快速掌握华为云AI服务的核心能力。
目录
1. 前言
2. 开通DeepSeek-V3/R1商用服务
2.1 准备工作
2.2 详细开通步骤
Step 1:登录华为云控制台
Step 2:进入“模型推理-在线推理”模块
Step 3:开通商用服务
Step 4:获取API调用信息
3. 方式一:REST API调用
3.1 基础调用示例
3.2 流式输出模式
4. 方式二:OpenAI SDK调用
4.1 环境准备
4.2 基础调用示例
4.3 流式输出模式
5. 对比评测
6. 使用建议
7. 常见问题
8. 总结
1. 前言
近年来,大模型技术快速发展,华为云推出的DeepSeek-V3/R1商用大模型服务,为企业及开发者提供了高性能的AI推理能力。本文将详细介绍如何在华为云ModelArts Studio上开通DeepSeek-V3/R1商用服务,并分享实际使用体验,帮助开发者快速上手。
2. 开通DeepSeek-V3/R1商用服务
2.1 准备工作
- 华为云账号:需注册并完成实名认证(个人/企业均可)
- 账号余额 ≥10元(避免因欠费导致服务开通失败)
- 访问入口:华为云ModelArts Studio
2.2 详细开通步骤
Step 1:登录华为云控制台
- 访问华为云官网,点击右上角**“登录”**,输入账号密码。
- 进入控制台,在顶部搜索栏输入 “ModelArts”,进入 ModelArts Studio 服务页面。
Step 2:进入“模型推理-在线推理”模块
- 在左侧导航栏选择 “模型推理” → “在线推理”。
- 点击 “商用服务” 标签页,找到 DeepSeek-V3/R1 大模型服务。
Step 3:开通商用服务
- 点击 “立即开通”,系统会提示 “服务授权”,勾选同意后确认。
- 等待约1-2分钟,系统自动完成服务部署,状态变为 “运行中” 即表示开通成功。
Step 4:获取API调用信息
- 在 “在线推理” 页面,找到已开通的DeepSeek-V3/R1服务,点击 “详情”。
Y3DY4WF5wJLE3q8XEVpbRqNqUBse4SmaazT5_2jYw3logYwxEQEIpa04Vhu8VwRTtII_Grn5SnbNlr4OZb4LAw - 记录 API访问地址(Endpoint) 和 API密钥(AK/SK),后续调用需使用。
✅ 开通成功! 现在可以开始使用DeepSeek-V3/R1进行推理任务。
3. 方式一:REST API调用
3.1 基础调用示例
# coding=utf-8
import requests
import jsonurl = "https://api.modelarts-maas.com/v1/chat/completions" # API地址
api_key = "" # 替换为你的API Keyheaders = {'Content-Type': 'application/json','Authorization': f'Bearer {api_key}'
}data = {"model": "DeepSeek-R1", "messages": [{"role": "system", "content": "你是一名AI助手"},{"role": "user", "content": "用Python实现二分查找"}],"temperature": 0.6,"stream": False # 关闭流式输出
}response = requests.post(url, headers=headers, json=data)
print(f"状态码: {response.status_code}")
print("响应结果:")
print(json.dumps(response.json(), indent=2, ensure_ascii=False))
3.2 流式输出模式
# coding=utf-8
import requests
import jsonurl = "https://api.modelarts-maas.com/v1/chat/completions" # API地址
api_key = "" # 替换为你的API Keyheaders = {'Content-Type': 'application/json','Authorization': f'Bearer {api_key}'
}data = {"model": "DeepSeek-R1", # 可替换为DeepSeek-R1"messages": [{"role": "system", "content": "你是一名AI助手"},{"role": "user", "content": "用Python实现二分查找"}],"temperature": 0.6,"stream": True
}
try:with requests.post(url, headers=headers, json=data, stream=True) as response:response.raise_for_status() # 检查HTTP错误print(f"状态码: {response.status_code}")for chunk in response.iter_lines():if chunk:decoded = chunk.decode('utf-8').strip()if decoded.startswith("data:"):data_str = decoded[5:].strip() # 去掉 "data: " 前缀if data_str != "[DONE]":try:data_obj = json.loads(data_str)# 检查数据结构是否包含 contentif "choices" in data_obj and len(data_obj["choices"]) > 0:delta = data_obj["choices"][0].get("delta", {})content = delta.get("content", "")if content:print(content, end="", flush=True)except json.JSONDecodeError as e:print(f"JSON解析错误: {e}, 原始数据: {decoded}")
except requests.exceptions.RequestException as e:print(f"请求失败: {e}")
4. 方式二:OpenAI SDK调用
4.1 环境准备
pip install --upgrade "openai>=1.0"
4.2 基础调用示例
# coding=utf-8
from openai import OpenAIclient = OpenAI(base_url="https://api.modelarts-maas.com/v1",api_key="" # 替换为你的API Key
)response = client.chat.completions.create(model="DeepSeek-R1", # 指定模型messages=[{"role": "system", "content": "你是一名资深程序员"},{"role": "user", "content": "解释快速排序算法"}],temperature=0.7
)print(response.choices[0].message.content)
4.3 流式输出模式
from openai import OpenAIclient = OpenAI(base_url="https://api.modelarts-maas.com/v1",api_key="" # 替换为你的API Key
)stream = client.chat.completions.create(model="DeepSeek-R1",messages=[{"role": "user", "content": "用三句话介绍华为云"}],stream=True
)for chunk in stream:if chunk.choices and len(chunk.choices) > 0: # 检查 choices 是否有效delta = chunk.choices[0].deltaif delta and delta.content: # 检查 delta 和 content 是否存在print(delta.content, end="", flush=True)
5. 对比评测
特性 | REST API | OpenAI SDK |
兼容性 | 通用HTTP接口 | 完全兼容OpenAI生态 |
流式响应 | 需手动处理chunk数据 | 原生支持stream参数 |
代码复杂度 | 需要构造HTTP请求 | 封装完善,调用简洁 |
适用场景 | 嵌入式设备、非Python环境 | Python项目快速集成 |
额外功能 | 可查看原始响应头 | 自动类型检查 |
6. 使用建议
- 企业级应用:推荐使用REST API,便于统一管理请求日志和监控
- AI原型开发:优先选择OpenAI SDK,可快速迁移其他大模型代码
- 性能敏感场景:流式模式(stream=True)能显著提升用户体验
- 安全注意:API Key需通过环境变量管理,避免硬编码泄露
7. 常见问题
Q1: 如何查看API使用量?
A: 在华为云控制台"费用中心 > 使用量统计"查看调用次数和Token消耗
Q2: 流式输出时如何计算费用?
A: 按实际生成的Token数量计费,与是否流式无关
Q3: 最大支持多少上下文长度?
A: DeepSeek-V3支持32K tokens,R1支持8K tokens
8. 总结
本次体验了华为云 DeepSeek-V3/R1 商用大模型服务,整体流程顺畅,推理能力强大,适用于 智能问答、代码生成、企业知识库 等场景。推荐开发者结合 Dify平台 进行AI应用开发,进一步提升效率。
下一步计划:尝试基于Dify搭建企业知识库,并测试高可用方案,欢迎关注后续评测!
相关资源
- 华为云ModelArts Studio
- DeepSeek-V3/R1官方文档
- Dify一键部署方案
- REST API参考
- OpenAI SDK指南