DeepSeek 使用入门(官网+第三方平台+API+本地部署)

1 官网

官网:https://www.deepseek.com/
直接访问官网,点击开始对话即可。(需先用手机号注册)
在这里插入图片描述

在这里插入图片描述

deepseek 对话有,基础模式、深度思考、联网搜索这 3 种模式:

  • 不选择是基础模式;
  • 点击深度思考R1,模型有思考链对提问进行思考,会显示思考过程
  • 点击联网搜索,可以实时联网获取信息

可能因为使用人数过多,导致服务器繁忙情况
在这里插入图片描述

当出现上述情况,可以改用下述其他方式进行访问。

2 第三方平台

2.1 Poe

官网:https://poe.com/(需科学上网)
选择 DeepSeek 进行对话即可
在这里插入图片描述

2.2 AskManyAI

官网邀请链接:https://dazi.co/login?i=430192d6
选择 DeepSeek 进行对话即可
在这里插入图片描述

2.3 跃问

官网链接:https://yuewen.cn/
选择 DeepSeek 进行对话即可
在这里插入图片描述

2.4 纳米AI

官网:https://bot.n.cn/
模型广场中,选择 DeepSeek 进行对话即可
在这里插入图片描述

2.5 SCNet

官网:https://chat.scnet.cn/
选择 DeepSeek (残血版)进行对话即可
在这里插入图片描述

2.6 Monica

官网:https://monica.im/(需科学上网)
模型列表中,选择 DeepSeek 进行对话即可
在这里插入图片描述

3 API

3.1 Together AI

官网:https://api.together.ai/playground/chat/deepseek-ai/DeepSeek-R1
选择 DeepSeek 进行对话即可

在这里插入图片描述

3.2 硅基流动

官网:https://cloud.siliconflow.cn/i/k4a9VmLm
邀请码 k4a9VmLm,注册送 2000万 Tokens
选择 DeepSeek 进行对话即可
在这里插入图片描述

4 本地部署

不同的参数量的模型(参考下图),需要的显卡内存不同,根据自己的显卡内存选择对应的模型。

举例,我的显存是6G,可以使用1.5B的模型。
在这里插入图片描述
下载的大模型需要第三方工具进行承接和使用。

4.1 Ollama

下载 Ollama
在这里插入图片描述

选择电脑操作系统对应的版本。

在这里插入图片描述
双击安装
在这里插入图片描述

win+R 输入 cmd ,调出命令符,输入 ollama -v 查看,出现版本号则安装成功。

在这里插入图片描述

下载显卡可以承载的模型

在这里插入图片描述

选择对应的模型(1.5b),复制命令 ollama run deepseek-r1:1.5b命令提示符

在这里插入图片描述

完成后可以进行对话。

在这里插入图片描述

命令提示符常用命令

  • /exit,退出对话
  • -ollama list,查看下载好的模型
  • ollama run + deepseek-r1:1.5b(模型名称),进入对话
    在这里插入图片描述
    设置环境变量,Win +X 点击系统

在这里插入图片描述

选择高级系统设置

在这里插入图片描述
设置 2 个用户变量

  • OLLAMA_HOST,0.0.0.0
  • OLLAMA_ORIGINS,*
    在这里插入图片描述

4.2 Chatboxai

使用命令提示符不是很直观,可以用 web 工具调用 ollama API
官网:https://chatboxai.app/zh

点击官网,选择本地模型Ollama API选择本地模型发起对话
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

4.3 LM Studio

官网:https://lmstudio.ai/

下载电脑系统对应 LM Studio 的版本进行安装

在这里插入图片描述

魔塔社区
检索 deepseek 模型 → 选择显存可以支持的模型 → 进入页面下载
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

打开 LM Studio 模型目录,
在这里插入图片描述

把刚刚下载的模型放到下述层级中:
… > models > DeepSeek > Model1 > 下载的模型

在这里插入图片描述

点击聊天 → 加载模型 → 聊天对话

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5 小结

首选 DeepSeek 官网进行对话。

如果显示官网服务器繁忙,考虑使用第三方平台或者API

个人感觉,第三方平台 好用程度排名:Poe ≈ AskMany AI ≈ 跃问> 纳米AI >SCNet > Monica

个人感觉,API 个人感觉第三方平台好用程度排名:Together AI > 硅基流动

受限于笔记本显存,本地部署的模型较小,效果不如上述满血板,本地部署好用程度排名:LM Studio ≈ Chatboxai > 命令提示符

### Java中使用DeepSeek API的方法 为了在Java应用程序中成功集成并使用DeepSeek API,需遵循一系列特定的操作流程来确保API的有效调用。首先,开发者应当访问官方平台完成注册过程,并创建专属的API Key用于后续的身份验证操作[^1]。 #### 创建API请求 构建HTTP请求是与DeepSeek服务交互的基础方式之一。通过设置URL指向目标端点,同时附带必要的查询参数或JSON格式的数据体,可以实现向服务器发送指令的目的。对于身份认证,则通常采用Header头部携带Token的方式进行: ```http POST /api/v1/endpoint HTTP/1.1 Host: deepseek.example.com Authorization: Bearer YOUR_API_KEY_HERE Content-Type: application/json ``` #### 使用HttpClient库发起请求 在Java环境中,`HttpURLConnection`类虽然能够满足基本需求,但对于更复杂的场景来说可能显得不够灵活。因此推荐利用Apache HttpClient或其他第三方库简化开发工作量。下面是一个简单的例子展示如何借助此工具包执行GET请求: ```java import org.apache.http.HttpResponse; import org.apache.http.client.methods.CloseableHttpResponse; import org.apache.http.client.methods.HttpGet; import org.apache.http.impl.client.CloseableHttpClient; import org.apache.http.impl.client.HttpClients; public class DeepSeekClient { private static final String BASE_URL = "https://deepseek.example.com/api/v1"; public void getExample() throws Exception{ try (CloseableHttpClient httpClient = HttpClients.createDefault()) { HttpGet request = new HttpGet(BASE_URL + "/example"); request.setHeader("Authorization", "Bearer YOUR_API_KEY"); try(CloseableHttpResponse response = httpClient.execute(request)){ System.out.println(response.getStatusLine().getStatusCode()); } } } } ``` 当涉及到POST提交数据时,除了更改请求类型外还需要注意正确序列化对象成字符串形式作为实体内容附加到请求之中。此外,考虑到实际应用中的错误处理机制以及超时控制等因素,建议进一步优化上述基础框架以适应具体业务逻辑的要求。 #### 安装和配置环境 针对想要快速上手体验DeepSeek功能特性的用户而言,按照官方指南指示下载并部署Ollama软件可能是更为便捷的选择[^2]。该方案不仅提供了图形界面辅助安装步骤说明,还内置了一系列预训练好的大型语言模型供实验之用,极大降低了入门门槛的同时也提高了工作效率。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值