将国产大模型DeepSeek集成到IDEA中

目录

下载IDEA

卸载旧版本的IDEA

安装IDEA

安装CodeGPT

进行配置

调用DeepSeek的API

Deepseek的简单使用

查看DeepSeek用量统计




下载IDEA

官网链接:IntelliJ IDEA – The IDE for Professional Development in Java and Kotlin

官网中下载链接:Download IntelliJ IDEA – The IDE for Professional Development in Java and Kotlin

在页面中点击 Download 进行下载,右边图片底下显示版本信息等。 

图为下载好的安装包。




卸载旧版本的IDEA

在安装最新的IDEA前,建议先卸载电脑上已安装的旧版本(如果有的话)。

Win11系统:设置 -->  应用 --> 安装的应用 --> 找到对应软件,点右边的三个点 --> 卸载

勾选图中2个选项后,点击 Uninstall 按钮。

中文为:

 卸载完成后,点击 Close (关闭)按钮完成卸载。




安装IDEA

双击图中已下载好的安装包。 

进入安装程序弹窗,点击 下一步 按钮。

选择安装位置(路径),图里为默认位置,可在 浏览 按钮中,选择你想安装的位置,点击 下一步 

勾选创建桌面快捷方式,点击 下一步。

点击 安装

正在安装。

勾选运行 IntelliJ IDEA,点击 完成 按钮,完成安装。




安装CodeGPT

打开 IntelliJ IDEA,鼠标点击左上角导航栏,File --> Settings

Settings 界面中,点击 Plugins,在右侧的 Marketplace 下的搜索框中搜索 CodeGPT

搜到图中的插件,点击 Install 按钮,进行下载安装。

若没有搜索到该 CodeGPT 插件,可以点击旁边的 设置 按钮,选择 Install Plugin from Disk 进行本地安装。


 【注】CodeGPT插件的压缩包在我主页的资源中即可下载。

CodeGPT插件压缩包


图中显示已完成安装。

安装完成后,重启 IntelliJ IDEA,使插件生效。




进行配置

 打开 IntelliJ IDEA,鼠标点击左上角导航栏,File --> Settings

Settings 界面中的搜索框中,搜索 CodeGPT,路径 Tools -->   CodeGPT -->  Providers -->  Custom OpenAI 。保留该页面,稍后会回到该页面进行配置。




调用DeepSeek的API

来到DeepSeek官网,链接:https://www.deepseek.com/

点击右上角的 API 开发平台

选择登录方式。

来到开放平台主界面,新注册的用户会赠送10元的余额,约500万tokens,有效期1个月多。 

最新有关价格调整的公告。

 查看配置文档。链接:首次调用 API | DeepSeek API Docs

 点击蓝色字体的 API key。即可在跳转的页面中创建 API keys,但请妥善保管自己的 API key,为了保护账号的安全,不要与他人共享,以及泄露等行为。

返回 IDEA 界面。

API key:将创建好的 API key 复制进来。

Chat Completions 下。

URL:填写 https://api.deepseek.com/chat/completions

然后点击 Body,修改下面的模型 model 改为:deepseek-chat

依次点击 Applyok 按钮。

点击 IDEA 界面最右侧竖状导航栏中的 CodeGPT。即可开始使用。

Code Completions 下。

勾选 Enable code completionsParse response as Chat Completions

FIM template:选择 DeepSeek Coder

URL:填写 https://api.deepseek.com/beta/completions

然后点击 Body,修改下面的模型 model 改为:deepseek-reasoner

点击 IDEA 界面最右侧竖状导航栏中的 CodeGPT。即可开始使用。

 点击这里可进行模型的切换,切换成 DeepSeek Coder V2后使用即可。

至此,完成将DeepSeek集成在IDEA中。




Deepseek的简单使用

鼠标选中一段代码后,鼠标右键,鼠标移动到 CodeGPT,右侧即显示可用的相关功能。

Ask Question:在代码编辑器中选中代码或描述问题,点击 Ask Question,deepseek会根据问题给出相关建议和解决方案。

Find Bugs:Deepseek会分析选中的这段代码并分析出代码中的bug。

Write Tests:为选中的代码编写出测试用例。

Explain:对于一些复杂难懂的代码,Deepseek会解读代码的功能逻辑,帮助开发人员理解。

Refactor:重构选中的代码。

Optimize:优化选中的代码。

查看DeepSeek用量统计

登录 DeepSeek 开放平台官网。

链接:https://platform.deepseek.com/sign_in

点击用量信息即可查看。

可以查看到:

        每月用量统计以及换算成的消费金额。

        deepseek-chat模型的使用量,包括API请求次数、Tokens使用量。

<think>好的,用户之前问过如何将DeepSeek和Cursor结合使用,现在他提到Cursor没有配置本地接口的地方。我需要先确认这个问题是否准确,因为之前的回答中提到了配置本地模型的方法。可能用户在使用过程中遇到了困难,或者在最新版本的Cursor中设置有所变化。 首先,我得回忆一下Cursor是否支持本地模型集成。之前的回答提到过可以通过插件或本地服务器配置,比如Continue插件或Ollama。但现在用户说没有配置选项,可能是因为界面变动或者插件需要特定步骤。需要检查当前Cursor的文档或社区讨论,看看是否有相关更新。 接下来,用户的需求可能是在无法找到本地配置选项的情况下,如何解决这个问题。可能的解决方案包括使用第三方插件、间接方法如中转服务器,或者等待官方更新。需要详细说明这些替代方法,并确保步骤清晰,用户容易操作。 另外,用户可能不太熟悉技术细节,比如设置本地服务器或使用命令行工具,所以需要用简单易懂的语言解释。同时,提醒用户注意模型兼容性、性能问题以及隐私安全,这些都是用户可能关心的问题。 最后,确保回答结构清晰,分点列出替代方案和注意事项,帮助用户一步步解决问题,并建议他们关注官方动态。需要确认所有信息都是最新的,避免提供过时的指导。</think>是的,目前 **Cursor 编辑器**(截至最新版本)并未提供直接的图形化界面(GUI)来配置本地模型接口。不过,可以通过一些替代方法间接实现本地模型接入。以下是具体说明和解决方案: --- ### **1. 官方限制与现状** - **默认依赖云端模型**:Cursor 默认集成 OpenAI 的 GPT 系列模型(如 GPT-4),其设计重心偏向云端服务,未开放本地模型配置入口。 - **本地模型需求场景**:若需使用本地部署的模型(如 DeepSeek、Llama 等),需通过技术侧方案绕行。 --- ### **2. 替代方案实现本地模型调用** #### **方案一:通过第三方插件(如 Continue)** 1. **安装 Continue 插件**: - 在 Cursor 插件市场搜索并安装 `Continue`(支持自定义模型接入的开源插件)。 2. **配置本地模型**: - 修改 Continue 插件的配置文件(`config.json`),指向本地模型 API 地址(如 `http://localhost:11434`)。 - 示例配置片段: ```json "models": [ { "title": "Local-DeepSeek", "model": "deepseek-coder", "apiBase": "http://localhost:11434/v1" } ] ``` 3. **重启 Cursor**:生效后可在代码提示、问答等功能中调用本地模型。 #### **方案二:通过本地 API 中转** 1. **部署本地模型服务**: - 使用 `Ollama`、`LM Studio` 或 `text-generation-webui` 等工具在本地运行模型(如 DeepSeek-Coder),并开启 API 服务。 2. **修改 Cursor 网络请求**(需开发者工具): - 通过抓包或拦截 Cursor 的 API 请求,将目标地址从 `api.openai.com` 重定向到本地端口(如 `127.0.0.1:8080`)。 - 工具推荐:使用 `mitmproxy` 或修改系统 Hosts 文件实现请求转发。 #### **方案三:社区改版或脚本扩展** - **社区分支**:部分开发者修改了 Cursor 的开源代码以实现本地模型支持(需自行编译,存在风险)。 - **自定义脚本**:编写 Python 脚本监听剪贴板,用本地模型处理代码片段后回传到 Cursor(自动化工具如 `AutoHotkey` 辅助)。 --- ### **3. 注意事项** 1. **兼容性问题**: - 本地模型需兼容 OpenAI API 格式(如使用 `ollama` 时需添加 `--format=openai` 参数)。 2. **性能限制**: - 本地模型对硬件要求较高(尤其是大模型),需确保 GPU 显存充足。 3. **隐私与稳定性**: - 本地部署可避免代码泄露风险,但需自行维护模型服务稳定性。 --- ### **4. 推荐替代工具** 若需更便捷的本地模型集成,可考虑以下编辑器: - **VSCode + Continue 插件**:原生支持本地模型配置。 - **IntelliJ IDEA + CodeGeeX 插件**:部分国产插件支持本地化模型。 - **FauxPilot**:专为本地代码补全设计的开源工具。 --- ### **总结** Cursor 暂时未开放本地模型配置入口,但通过插件修改、请求重定向等技术手段仍可实现本地模型调用。若追求开箱即用,建议关注 Cursor 官方更新或转向其他支持本地化的开发工具。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值