前言
最近国产AI大模型Deepseek的爆火让大家都想尝试用一下来看看它到底有多好用,但是随着使用的人越来越多,大家也经常会发现提问时会得到服务器繁忙,请稍后再试的回复。其实我们完全可以在自己的Windows电脑上本地部署Deepseek大模型,并在浏览器中添加一个Page Assist插件来快速使用Web UI页面来与模型聊天,与之前介绍过的Open Web UI或Anything LLM相比,使用这款插件的使用门槛更低,新手也能立刻上手。

Page Assist浏览器插件,不用安装 Docker 环境,也不用安装 Python 环境。可以在Chrome浏览器的应用商店中在线安装,也可以下载应用程序后离线安装。然后再结合cpolar内网穿透工具就能轻松实现在任何有网络的设备中使用浏览器与DeepSeek在网页中对话,享受更方便快捷的AI交互体验。无需公网IP也不用准备云服务器那么麻烦。搭建过程非常简单,下面就来具体演示一下!

1. 本地部署Ollama+DeepSeek
如果您的Windows设备中还没有安装Ollama与DeepSeek,这篇教程:《Windows本地部署deepseek-r1大模型并使用web界面远程交互》 中有详细的安装步骤。
简单总结:
首先要访问Ollama的官网,下载适配你的操作系统的客户端,安装后用cmd打开Windows系统自带的终端界面:

然后回到Ollama的官网,找到你想要下载的各种量级的模型对应的模型下载命令:

比如我这里下载1.5b的轻量级deepseek模型,就在cmd终端中执行这个命令就能安装了:
ollama run deepseek-r1:1.5b

现在我们就已经能够在本地Windows电脑上通过ollama正常使用deepseek-r1模型与AI进行聊天了!
2. Page Assist浏览器插件安装与配置
Github 官网:https://github.com/n4ze3m/page-assist
首先打开Chrome浏览器,进入应用商店:

用Page Assist插件远程访问本地DeepSeek模型

最低0.47元/天 解锁文章
7669

被折叠的 条评论
为什么被折叠?



