Chatbox无法调用阿里云DashScope灵积模型服务的模型(如qwen-turbo)

报错

遇到了来自 OpenAI API 的错误,一般是由错误设置或账户问题引起的。请检查 AI 设置和账户情况,或者点击这里查看常见问题文档。
API Error: Status Code 400, {“error”:{“code”:“invalid_parameter_error”,“param”:null,“message”:“Range of top_p should be (0.0, 1.0)”,“type”:“invalid_request_error”}}

可能你的设置是这样的:
qwen-turbo
提问后,报错:
在这里插入图片描述

分析与解决

首先,chatbox默认top p 为1,Range of top_p should be (0.0, 1.0)

只需要将top p 调整到0.99,

在这里插入图片描述

在这里插入图片描述
阿里的官方文档
在这里插入图片描述
阿里这里要求float类型

openai官方文档
在这里插入图片描述
这里defaults to 1 ,只要求number类型就行

本质上qwen是兼容openai,但不完全兼容,这部分的兼容没做好

在这里插入图片描述

Reference:
Reference:
OpenAI: top p

如何通过OpenAI接口调用通义千问模型_模型服务灵积(DashScope)-阿里云帮助中心 (aliyun.com)

### 如何从聊天框应用调用本地安装的 DeepSeek 模型 API 为了实现从聊天框应用程序调用本地部署的 DeepSeek 模型,可以遵循如下方法构建请求并发送给 Ollama 的 `/api/generate` 端点。此端点不同于 OpenAI 的兼容 API。 #### 构建 HTTP 请求 当准备向 `http://localhost:11434/api/generate` 发起 POST 请求时,需设置合适的头部信息以及 JSON 格式的主体内容。具体来说: - **URL**: 使用默认情况下 Ollama 监听于本机地址 11434 端口上的路径 `/api/generate`。 - **Headers ()**: 设置 `"Content-Type"` 为 `"application/json"` 来指明所传入的数据格式。 - **Body ()**: 提供必要的参数作为 JSON 对象的一部分,比如模型名称 (`model`) 和输入提示 (`prompt`)。 ```python import requests import json url = "http://localhost:11434/api/generate" headers = {"Content-Type": "application/json"} data = { "model": "deepseek-chat:latest", "prompt": "你好,世界!" } response = requests.post(url, headers=headers, data=json.dumps(data)) print(response.json()) ``` 这段代码展示了如何通过 Python 向本地运行的服务发起一次简单的对话请求[^1]。 对于集成到实际的应用程序中,特别是前端部分如聊天框界面,则可能涉及到更多细节处理,例如错误管理、异步通信机制等。通常会采用 JavaScript 或其他适合 Web 开发的语言和技术栈来进行这部分开发工作,在服务器端则继续沿用上述方式与模型交互。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值