华为云Flexus+DeepSeek征文 | DeepSeek-V3/R1商用服务开通体验全流程及使用评测

作者简介

我是摘星,一名专注于云计算和AI技术的开发者。本次通过华为云MaaS平台体验DeepSeek系列模型,将实际使用经验分享给大家,希望能帮助开发者快速掌握华为云AI服务的核心能力。

目录

1. 前言

2. 开通DeepSeek-V3/R1商用服务

2.1 准备工作

2.2 详细开通步骤

Step 1:登录华为云控制台

Step 2:进入“模型推理-在线推理”模块

Step 3:开通商用服务

Step 4:获取API调用信息

3. 方式一:REST API调用

3.1 基础调用示例

3.2 流式输出模式

4. 方式二:OpenAI SDK调用

4.1 环境准备

4.2 基础调用示例

4.3 流式输出模式

5. 对比评测

6. 使用建议

7. 常见问题

8. 总结


1. 前言

近年来,大模型技术快速发展,华为云推出的DeepSeek-V3/R1商用大模型服务,为企业及开发者提供了高性能的AI推理能力。本文将详细介绍如何在华为云ModelArts Studio上开通DeepSeek-V3/R1商用服务,并分享实际使用体验,帮助开发者快速上手。


2. 开通DeepSeek-V3/R1商用服务

2.1 准备工作

  • 华为云账号:需注册并完成实名认证(个人/企业均可)

  • 账号余额 ≥10元(避免因欠费导致服务开通失败)

  • 访问入口华为云ModelArts Studio

2.2 详细开通步骤

Step 1:登录华为云控制台
  1. 访问华为云官网,点击右上角**“登录”**,输入账号密码。

  2. 进入控制台,在顶部搜索栏输入 “ModelArts”,进入 ModelArts Studio 服务页面。

Step 2:进入“模型推理-在线推理”模块
  1. 在左侧导航栏选择 “模型推理” → “在线推理”

  2. 点击 “商用服务” 标签页,找到 DeepSeek-V3/R1 大模型服务。

Step 3:开通商用服务
  1. 点击 “立即开通”,系统会提示 “服务授权”,勾选同意后确认。

  2. 等待约1-2分钟,系统自动完成服务部署,状态变为 “运行中” 即表示开通成功。

Step 4:获取API调用信息
  1. “在线推理” 页面,找到已开通的DeepSeek-V3/R1服务,点击 “详情”

    Y3DY4WF5wJLE3q8XEVpbRqNqUBse4SmaazT5_2jYw3logYwxEQEIpa04Vhu8VwRTtII_Grn5SnbNlr4OZb4LAw
  2. 记录 API访问地址(Endpoint)API密钥(AK/SK),后续调用需使用。

开通成功! 现在可以开始使用DeepSeek-V3/R1进行推理任务。


3. 方式一:REST API调用

3.1 基础调用示例

# coding=utf-8
import requests
import json

url = "https://api.modelarts-maas.com/v1/chat/completions"  # API地址
api_key = ""  # 替换为你的API Key

headers = {
    'Content-Type': 'application/json',
    'Authorization': f'Bearer {api_key}'
}

data = {
    "model": "DeepSeek-R1",  
    "messages": [
        {"role": "system", "content": "你是一名AI助手"},
        {"role": "user", "content": "用Python实现二分查找"}
    ],
    "temperature": 0.6,
    "stream": False  # 关闭流式输出
}

response = requests.post(url, headers=headers, json=data)
print(f"状态码: {response.status_code}")
print("响应结果:")
print(json.dumps(response.json(), indent=2, ensure_ascii=False))

3.2 流式输出模式

# coding=utf-8
import requests
import json

url = "https://api.modelarts-maas.com/v1/chat/completions"  # API地址
api_key = ""  # 替换为你的API Key

headers = {
    'Content-Type': 'application/json',
    'Authorization': f'Bearer {api_key}'
}

data = {
    "model": "DeepSeek-R1",  # 可替换为DeepSeek-R1
    "messages": [
        {"role": "system", "content": "你是一名AI助手"},
        {"role": "user", "content": "用Python实现二分查找"}
    ],
    "temperature": 0.6,
    "stream": True  
}
try:
    with requests.post(url, headers=headers, json=data, stream=True) as response:
        response.raise_for_status()  # 检查HTTP错误
        print(f"状态码: {response.status_code}")
        
        for chunk in response.iter_lines():
            if chunk:
                decoded = chunk.decode('utf-8').strip()
                if decoded.startswith("data:"):
                    data_str = decoded[5:].strip()  # 去掉 "data: " 前缀
                    if data_str != "[DONE]":
                        try:
                            data_obj = json.loads(data_str)
                            # 检查数据结构是否包含 content
                            if "choices" in data_obj and len(data_obj["choices"]) > 0:
                                delta = data_obj["choices"][0].get("delta", {})
                                content = delta.get("content", "")
                                if content:
                                    print(content, end="", flush=True)
                        except json.JSONDecodeError as e:
                            print(f"JSON解析错误: {e}, 原始数据: {decoded}")
except requests.exceptions.RequestException as e:
    print(f"请求失败: {e}")

4. 方式二:OpenAI SDK调用

4.1 环境准备

pip install --upgrade "openai>=1.0"

4.2 基础调用示例

# coding=utf-8
from openai import OpenAI

client = OpenAI(
    base_url="https://api.modelarts-maas.com/v1",
    api_key=""  # 替换为你的API Key
)

response = client.chat.completions.create(
    model="DeepSeek-R1",  # 指定模型
    messages=[
        {"role": "system", "content": "你是一名资深程序员"},
        {"role": "user", "content": "解释快速排序算法"}
    ],
    temperature=0.7
)

print(response.choices[0].message.content)

4.3 流式输出模式

from openai import OpenAI

client = OpenAI(
    base_url="https://api.modelarts-maas.com/v1",
    api_key=""  # 替换为你的API Key
)

stream = client.chat.completions.create(
    model="DeepSeek-R1",
    messages=[{"role": "user", "content": "用三句话介绍华为云"}],
    stream=True
)

for chunk in stream:
    if chunk.choices and len(chunk.choices) > 0:  # 检查 choices 是否有效
        delta = chunk.choices[0].delta
        if delta and delta.content:  # 检查 delta 和 content 是否存在
            print(delta.content, end="", flush=True)

5. 对比评测

特性

REST API

OpenAI SDK

兼容性

通用HTTP接口

完全兼容OpenAI生态

流式响应

需手动处理chunk数据

原生支持stream参数

代码复杂度

需要构造HTTP请求

封装完善,调用简洁

适用场景

嵌入式设备、非Python环境

Python项目快速集成

额外功能

可查看原始响应头

自动类型检查


6. 使用建议

  1. 企业级应用:推荐使用REST API,便于统一管理请求日志和监控
  2. AI原型开发:优先选择OpenAI SDK,可快速迁移其他大模型代码
  3. 性能敏感场景:流式模式(stream=True)能显著提升用户体验
  4. 安全注意:API Key需通过环境变量管理,避免硬编码泄露

7. 常见问题

Q1: 如何查看API使用量?
A: 在华为云控制台"费用中心 > 使用量统计"查看调用次数和Token消耗

Q2: 流式输出时如何计算费用?
A: 按实际生成的Token数量计费,与是否流式无关

Q3: 最大支持多少上下文长度?
A: DeepSeek-V3支持32K tokens,R1支持8K tokens


8. 总结

本次体验了华为云 DeepSeek-V3/R1 商用大模型服务,整体流程顺畅,推理能力强大,适用于 智能问答、代码生成、企业知识库 等场景。推荐开发者结合 Dify平台 进行AI应用开发,进一步提升效率。

下一步计划:尝试基于Dify搭建企业知识库,并测试高可用方案,欢迎关注后续评测!


相关资源


### 华为云 ModelArts 的服务器资源配置与分配方法 华为云 ModelArts 是一款面向 AI 开发者的全流程服务平台,支持数据预处理、模型训练、部署等功能。关于 ModelArts 的服务器资源配置与分配方法,可以从以下几个方面展开说明: #### 1. **计算资源的选择** ModelArts 提供多种类型的计算资源以满足不同的应用场景需求。例如,在 Flexus 云服务中提到的 Flexus 云服务器 X 实例和 Flexus 应用服务器 L 实例均可作为底层支撑[^1]。开发者可以根据具体的业务场景选择适合的实例类型,比如 GPU 加速实例用于深度学习训练。 对于 Yolo 模型开发这样的任务,则可能更多依赖于高性能 GPU 资源来加速模型训练过程[^2]。因此,在实际操作前需明确所需硬件规格(如 CPU 核心数、内存大小、GPU 类型及其数量),并通过平台提供的选项完成配置。 #### 2. **账户管理与初次设置** 当获得由管理员分发给每位用户的独立账号之后,首次登录时会被引导至修改默认密码页面[^4]。这一步骤非常重要,不仅保障个人隐私同时也增强了系统的安全性。 接着按照指引进入主界面并确认所选区域是否正确无误——因为不同地理位置可能会对应不一样的数据中心和服务延迟情况等因素影响最终效果表现。另外值得注意的是,“收藏”功能可以帮助快速定位常用工具或模块位置以便日后高效调用。 #### 3. **具体配置流程** - 登录到指定网址后输入用户名及新设定后的密码; - 找到左侧菜单栏里的“三道杠”按钮打开全部可用选项列表; - 定位目标地域节点信息后再切换回原路径继续浏览其他子栏目内容直到找到标注名称为 “ModelArts”的链接入口处单击跳转过去即可开始正式探索之旅啦! 此外还有些额外的小贴士可供参考借鉴:如果希望减少每次重新查找的时间成本的话不妨试试看那个固定图标的功能哟~它能让经常使用的某些特定项目始终保持在显眼的位置方便随时取阅查阅哦~ ```python # 示例代码展示如何连接远程服务器进行自动化脚本编写 import paramiko ssh_client =paramiko.SSHClient() ssh_client.set_missing_host_key_policy(paramiko.AutoAddPolicy()) ssh_client.connect(hostname='your_server_ip', username='root', password='password') stdin, stdout, stderr = ssh_client.exec_command('nvidia-smi') print(stdout.read().decode()) ssh_client.close() ``` 以上就是有关华为云 ModelArts 平台下服务器资源配置的一些基本介绍及相关注意事项。合理规划好各项参数指标能够极大地提升工作效率同时降低成本支出比例达到双赢局面的效果呢! ---
评论 41
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

.摘星.

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值