DeepSeek 使用入门
1 官网
官网:https://www.deepseek.com/
直接访问官网,点击开始对话即可。(需先用手机号注册)
deepseek 对话有,基础模式、深度思考、联网搜索这 3 种模式:
- 不选择是基础模式;
- 点击深度思考R1,模型有思考链对提问进行思考,会显示思考过程
- 点击联网搜索,可以实时联网获取信息
可能因为使用人数过多,导致服务器繁忙情况
当出现上述情况,可以改用下述其他方式进行访问。
2 第三方平台
2.1 Poe
官网:https://poe.com/(需科学上网)
选择 DeepSeek 进行对话即可
2.2 AskManyAI
官网邀请链接:https://dazi.co/login?i=430192d6
选择 DeepSeek 进行对话即可
2.3 跃问
官网链接:https://yuewen.cn/
选择 DeepSeek 进行对话即可
2.4 纳米AI
官网:https://bot.n.cn/
在模型广场中,选择 DeepSeek 进行对话即可
2.5 SCNet
官网:https://chat.scnet.cn/
选择 DeepSeek (残血版)进行对话即可
2.6 Monica
官网:https://monica.im/(需科学上网)
在模型列表中,选择 DeepSeek 进行对话即可
3 API
3.1 Together AI
官网:https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1
选择 DeepSeek 进行对话即可
3.2 硅基流动
官网:https://cloud.siliconflow.cn/i/k4a9VmLm
邀请码 k4a9VmLm,注册送 2000万 Tokens
选择 DeepSeek 进行对话即可
4 本地部署
不同的参数量的模型(参考下图),需要的显卡内存不同,根据自己的显卡内存选择对应的模型。
举例,我的显存是6G,可以使用1.5B的模型。
下载的大模型需要第三方工具进行承接和使用。
4.1 Ollama
下载 Ollama
选择电脑操作系统对应的版本。
双击安装
win+R 输入 cmd ,调出命令符,输入 ollama -v 查看,出现版本号则安装成功。
下载显卡可以承载的模型
选择对应的模型(1.5b),复制命令 ollama run deepseek-r1:1.5b 到 命令提示符
完成后可以进行对话。
命令提示符常用命令
- /exit,退出对话
- -ollama list,查看下载好的模型
- ollama run + deepseek-r1:1.5b(模型名称),进入对话
设置环境变量,Win +X 点击系统
选择高级系统设置
设置 2 个用户变量
- OLLAMA_HOST,0.0.0.0
- OLLAMA_ORIGINS,*
4.2 Chatboxai
使用命令提示符不是很直观,可以用 web 工具调用 ollama API
官网:https://chatboxai.app/zh
点击官网,选择本地模型→Ollama API→选择本地模型→ 发起对话
4.3 LM Studio
下载电脑系统对应 LM Studio 的版本进行安装
在 魔塔社区
检索 deepseek 模型 → 选择显存可以支持的模型 → 进入页面下载
打开 LM Studio 模型目录,
把刚刚下载的模型放到下述层级中:
… > models > DeepSeek > Model1 > 下载的模型
点击聊天 → 加载模型 → 聊天对话
5 小结
首选 DeepSeek 官网进行对话。
如果显示官网服务器繁忙,考虑使用第三方平台或者API
个人感觉,第三方平台 好用程度排名:Poe ≈ AskMany AI ≈ 跃问> 纳米AI >SCNet > Monica
个人感觉,API 个人感觉第三方平台好用程度排名:Together AI > 硅基流动
受限于笔记本显存,本地部署的模型较小,效果不如上述满血板,本地部署好用程度排名:LM Studio ≈ Chatboxai > 命令提示符