浅谈人工智能之VSCode:使用插件与ollama本地大模型交互
我们在之前的文档中已经说明如何使用Ollama部署本地大模型,这里就赘述,具体如何部署可参考文档:
浅谈人工智能之Windows:基于ollama进行本地化大模型部署
准备工作
安装Visual Studio Code
如果你还没有安装VSCode,请下载适合你操作系统的vscode版本并且进行安装,vscode安装比较简单,这里不再赘述。
安装VSCode插件
为了在VSCode中与Ollama模型交互,你需要安装一个支持Ollama的插件。当前市场上可能有多个插件选项,我们这里使用continue插件跟Ollama进行交互。
第一步:点击VSCode左侧的Extensions按钮
第二步:在搜索框中输入continue关键字进行搜索
第三步:我们对插件进行安装,我们需要安装的插件是“Continue-Codestral,Claude,and