全尺寸完全版DeepSeek模型火山引擎一键部署使用火山方舟

火山引擎为通过方舟调用 DeepSeek 模型 API 的企业提供,并提供全网最高的限流,方便业务快速落地。推理整个生命周期在安全沙箱中完成,确保用户 Prompt 会话数据无痕。此外,助力企业畅享满血版 DeepSeek-R1!

在火山方舟中调用模型,适用于期望通过 API 快速集成预训练模型的企业,目前已经支持4个模型版本,并提供了全网最高的限流。

目前上线的的有

DeepSeek-R1

DeepSeek-V3

DeepSeek-R1-Distill-Qwen-7B

DeepSeek-R1-Distill-Qwen-32B

不会使用部署,或者需要高性能GPU服务器,都可以使用

来源来源:火山引擎代理

### 如何使用 CherryStudio 调用火山引擎 OpenAPI 使用 DeepSeek模型 #### 创建网关访问密钥 要在 CherryStudio 中调用火山引擎的 OpenAPI 并使用 DeepSeek模型,第一步是在边缘大模型网关产品的控制台创建网关访问密钥。这一步骤允许用户获取必要的认证凭证来安全地调用 AI 服务[^1]。 #### 获取请求示例代码与 API Key 完成上述设置之后,可以得到大模型网关 OpenAPI 请求示例代码以及对应的 API Key。这些资源对于后续集成工作至关重要,确保保存好所获得的信息以便稍后使用。 #### 配置用于 DeepSeek 调用的模型提供商 接下来,在 CherryStudio 内部环境中配置已创建好的网关访问密钥,指定其作为 DeepSeek 模型调用的服务提供者。这一过程通常涉及在应用程序中输入或上传之前从控制台下载下来的 API 密钥和其他必要参数。 #### 发起请求至 DeepSeek 模型 最后,通过编写简单的 HTTP POST 请求并附带适当负载数据结构向目标 URL 地址发送查询命令。下面是一个 Python 实现的例子: ```python import requests import json url = "https://api.volcengine.com/v1/deepseek/inference" headers = { 'Content-Type': 'application/json', 'Authorization': 'Bearer YOUR_API_KEY' } data = { "prompt": "你好", } response = requests.post(url, headers=headers, data=json.dumps(data)) print(response.json()) ``` 此段脚本展示了如何构建一个基本接口以交互方式询问 DeepSeek 模型,并打印返回的结果。请注意替换 `YOUR_API_KEY` 和其他特定于项目的变量值为实际使用的键和路径。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值