放弃没用的本地部署残血版DeepSeek吧,教你如何白嫖满血版DeepSeek

一、介绍​


春节期间,热度最高的当属DeepSeek了,嘟嘟春节期间也各种安利身边朋友使用DeepSeek,但是随着时间的发酵,大家会发现DeepSeek经常不能用,那是因为DeepSeek受到了大规模恶意攻击,IP地址都在美国。​
下面这个是查看DeepSeek状态的网站:​
https://status.deepseek.com/​
可以发现,最近标红的就是故障中在这里插入图片描述
如果你遇到使用的时候,提示服务器繁忙,就大概率是被攻击了
在这里插入图片描述
放弃没用的本地部署残缺版DeepSeek吧,教你如何白嫖满血版DeepSeek​


如果你遇到使用的时候,提示服务器繁忙,就大概率是被攻击了​


由于DeepSeek是开源生态,模型都提供了,所以有一种解决方案是本地部署,然后利用一些第三方软件来接入这个模型来使用。
在这里插入图片描述
最近我看很多博主写了很多这方面的教程,一些不明真相的人就跟着去本地搭建,然后本地接入使用,其实这有很大的缺陷:​
一方面电脑配置制约了你选择的模型,我个人4090显卡的电脑顶多只能跑32b,再往上就跑不了,又卡又慢。​

另一方面你可知道满血版本模型是671b的,个人电脑基本无望,你如果电脑配置不高,运行了7b这种低参数的模型,这种低配版本的没啥意思好吧,效果绝对不好的,只是个玩具。

二、推荐方案​

所以,最好的方案就是去寻找满配版本,目前,DeepSeek官网之外提供满血版DeepSeek能力的有两家。​

第一家是360的纳米AI搜索,原本只提供32b的,后面上了满血的但是有限度。​
https://www.n.cn/​
使用的时候勾上这个慢思考模式就是了
在这里插入图片描述
在这里插入图片描述
另外一个就是昨天刚出来的,经过硅基流动和华为云团队连日攻坚,今天,我们也为国内用户献上春节礼物:大模型云服务平台 SiliconCloud 首发上线基于华为云昇腾云服务的 DeepSeek-V3、DeepSeek-R1。  
在这里插入图片描述
硅基流动大家应该有印象吧,就是以前给大家推荐的ComfyUI BizyAir插件的公司,他们提供了 DeepSeek R1的API服务。​

API的价格和DeepSeek 官方优惠期价格保持一致,SiliconCloud 上的 DeepSeek-V3 的优惠期价格(截止 2 月 8 日 24:00)为 ¥1 / M tokens(输入)& ¥2 / M tokens (输出),DeepSeek-R1 的价格为 ¥4 / M tokens(输入)& ¥16 / M tokens (输出)。

一般情况下模型中 token 和字数的换算比例大致如下:
1 个英文字符 ≈ 0.3 个 token。
1 个中文字符 ≈ 0.6 个 token。
在这里插入图片描述

DeepSeek 的API价格其实也很便宜,随便充值了10多块可以用非常久了,但是官方的最近不是经常受到攻击么,API也无法使用,所以我是推荐直接用 SiliconCloud 家的API服务。​

那为什么标题上说白嫖呢,因为 SiliconCloud 邀请别人注册,您与好友均可获赠2000万Tokens(14元平台配额)​
直接邀请家人注册一下,你就有2000万Tokens,可以用很久很久。所以大家一会走我的邀请链接,就直接可以获得2000万Tokens了。​

弄到API密钥后,再配合一些第三方支持配置API接口的软件,就可以直接用上满血版本的DeepSeek 了,这才是大家应该学的。​

下面我就教大家如何搞定这个完整流程,免费的用上这个满血版本的 DeepSeek。

三、白嫖满血版 DeepSeek 流程

3.1 注册账号​


登录一下网址,通过手机号注册个账号​
https://cloud.siliconflow.cn/i/jLn1Ba4N
在这里插入图片描述

3.2 提取API key​

登录后,打开API密钥,新建一个API密钥,如下图这样,点击复制一下
在这里插入图片描述

3.3 安装客户端软件​

如果你想直接在客户端应用里体验 DeepSeek-R1 & V3 模型,可在本地安装以下产品,接入 SiliconCloud 的 API 后(可自定义添加这两款模型),即可体验 DeepSeek-R1 & V3。 ​
大模型客户端应用:ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat​
代码生成应用:Cursor、Windsurf、Cline​
大模型应用开发平台:Dify​
AI 知识库:Obsidian AI、FastGPT​
翻译插件:沉浸式翻译、欧路词典 ​

这里我是使用 Cherry Studio,就拿这个当做案例讲解,其他软件类似​
进入Cherry Studio官网(https://cherry-ai.com/),按步骤下载安装对应版本的Cherry Studio即可直接使用。
在这里插入图片描述
目前Cherry Studio支持Windows、Mac、Linux三种版本​

配置API并且管理模型​

运行 Cherry Studio,左下角点击设置,第一个就是硅基流动的,把API密钥填入,然后选择下方的管理,勾选上最新的DeepSeek-R1即可,最后点一下检查,没问题的话会提示链接成功。在这里插入图片描述
然后就可以开心的使用了,点击左侧上方的聊天菜单,顶部选择好了DeepSeek-R1模型,就可以开始愉快的使用了在这里插入图片描述

四、总结​

这种方案即不要求电脑配置,还能用上满血版的DeepSeek-R1,回答速度还很快,算是目前最优方案了。​
当然,如果官方后续稳定了,你也可以提取官方的API,这个软件也是支持官方的API配置的。​

### DeepSeek 本地部署与 FastAPI 调用 #### 准备工作 确保环境已准备好,对于没有 GPU 的情况,可以选择安装 CPU 本来运行必要的库。这可以通过命令 `pip install torch torchvision torchaudio` 来完成[^2]。 #### 安装 DeepSeek 及其依赖项 按照官方指南中的说明来安装 DeepSeek 和其他所需的依赖包。此过程通常涉及下载特定本的模型文件并配置相应的环境变量以便于后续的应用程序能够识别这些资源的位置[^3]。 #### 使用 FastAPI 创建 Web API 接口 创建一个新的 Python 文件用于定义 RESTful API 服务端逻辑: ```python from fastapi import FastAPI, File, UploadFile import uvicorn app = FastAPI() @app.post("/predict/") async def predict(file: UploadFile = File(...)): contents = await file.read() # 假设这里有一个函数 load_model() 加载已经训练好的 DeepSeek 模型, # 并且有另一个函数 model_predict(model, input_data) 对输入数据做出预测 result = "Prediction Result" return {"filename": file.filename, "prediction": result} if __name__ == "__main__": uvicorn.run(app, host="0.0.0.0", port=8000) ``` 上述代码片段展示了如何利用 FastAPI 构建一个简单的 POST 请求处理接口 `/predict/` ,它接收上传的文件作为参数,并返回由 DeepSeek 所产生的预测结果[^1]。 当一切设置完成后,在终端启动该应用程序即可让其监听指定地址上的 HTTP 请求。此时就可以通过发送请求到这个 URL 地址来进行交互操作了。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值