太强了!DeepSeek本地部署+联网搜索,从此告别服务器繁忙!

大家好,我是小义。相信大家在使用DeepSeek的时候会时不时遇到服务器繁忙的问题,这是因为全球用户基数庞大带来的响应延迟、跨境网络攻击频发等迫使平台收紧安防。

那么为什么不选择自己本地部署一套呢,相比起API调用,DeepSeek本地部署具有以下几个优点。

  • 隐私安全:医疗/金融等敏感数据不出内网。

  • 定制自由:可修改模型结构,添加行业知识库。

  • 成本优势:对比API调用费,老旧服务器也能焕发第二春。

  • 国产之光:专门优化的中文理解能力,当前性价比最高的最强大脑。

今天小义就教大家零成本在个人电脑部署国产顶尖大模型DeepSeek!无需高端显卡,小白也能轻松玩转百亿参数模型。

一、为什么选择DeepSeek本地部署?

Ollama 部署

Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。其主要目标是简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。

Ollama 网址:https://Ollama.ai
配合Chrome插件Page Assist可实现图形界面对话。

第一步:安装 Ollama

1、进入https://ollama.com/download,这里以Windows系统为例,点击下载。

2、本地运行ollamaSetup.exe,点击install,然后等待安装完成。

第二步:下载 DeepSeek & 嵌入模型

  • 在Ollama官网页面里点击Models或者在搜索栏搜DeepSeek-R1
  • 选择一个合适的模型,不同模型大小不一,这里以最小的1.1GB的1.5b为例
  • 复制命令,然后打开命令行直接粘贴进去然后回车,显示“success”就OK了

  • 下载嵌入模型,他的功能主要是进行文本分割,方便让大模型读取大批量的文本内容中的特定内容。在搜索栏搜索“nomic-embed-text”,再复制命令到终端里粘贴,慢慢等待执行完就OK了。

Page Assist联网

Page Assist,一个开源的WEBUI,用于可视化的模型对话,特点是可接入联网搜索,并且很方便能配合嵌入模型。

第一步:安装插件

推荐谷歌浏览器,在扩展程序的应用商店里即可安装。

第二步:插件设置

点击【Page Assist】插件即可打开 DeepSeek 的可视化界面,点击RAG设置文本嵌入模型,然后就可以和AI聊天了。

第三步:搜索引擎

Page Assist默认的搜索引擎是duckduckgo,不科学上网是无法正常使用导致的,可以选择切换。

为提高搜索的准确性,还应适当提高Total Search Results网页搜索数量,这样DeepSeek回答的也更准确。

最后

DeepSeek实在太火爆了,相信大家都感受到了强烈的推背感,一个人可以走得很快,但一群人,可以走得更远。欢迎关注小义工粽号【程序员小义】,AI时代,一起扬帆起航!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值