Chatbox+阿里云免费秘钥打造专属自己的deepseek桌面客户端

一、阿里云百炼创建免费api秘钥

地址:阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台

 

 

  

二、Chatbox自定义模型提供方

1、设置

  

2、添加

 3、配置

API模式:

OpenAI API兼容(默认不需要修改)

名称:

阿里云(自定义)

API域名 :

https://dashscope.aliyuncs.com/compatible-mode/v1

API路径:

/chat/completions(默认不需要修改) 

API秘钥:

复制粘贴

模型:

复制粘贴

deepseek-r1-distill-qwen-7b

 

点击保存

 

三、新建对话

 

 

 

 

四、对话演示

 

### ChatboxDeepSeek 的技术实现 #### 一、ChatboxDeepSeek 整合的技术框架 在整合 ChatboxDeepSeek 方案中,整体架构依赖于现代微服务设计原则。通过 RESTful API 或 WebSocket 实现前端界面(即 Chatbox)与后端处理逻辑之间的交互[^1]。 对于 DeepSeek 模型而言,在本地环境中完成部署之后,其推理能力被封装成 HTTP 接口供外部调用。这意味着当用户向聊天框输入查询请求时,这些请求会被转发给负责管理 DeepSeek 模型的服务实例来执行具体的自然语言理解任务,并返回解析后的响应内容[^3]。 ```python import requests def query_deepseek_model(prompt): url = "http://localhost:8000/deepseek" payload = {"prompt": prompt} response = requests.post(url, json=payload).json() return response['result'] ``` 此代码片段展示了如何构建一个简单的函数 `query_deepseek_model` 来发送 POST 请求至本地运行的 DeepSeek 服务器并获取回复结果。 #### 二、连接到远程 Ollama 服务的方法 为了使 Chatbox 能够访问更广泛的资源和服务,可以将其配置为连接到位于云端或其他位置上的 Ollama 平台。这通常涉及到设置代理地址以及认证机制以确保安全通信通道的存在[^2]。 一旦成功建立了这种链接关系,则允许应用程序利用云平台上托管的大规模预训练模型来进行更加复杂的数据分析工作而无需担心计算资源不足的问题。 ```bash export CHATBOX_OLLAAMA_URL="https://remote-ollama.example.com/api/v1/" export CHATBOX_API_KEY="your_api_key_here" ``` 上述命令用于定义环境变量,以便程序能够识别远端 Ollama 服务的位置及其所需的验证密钥
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值