大家好,我是小义。相信大家在使用DeepSeek的时候会时不时遇到服务器繁忙的问题,这是因为全球用户基数庞大带来的响应延迟、跨境网络攻击频发等迫使平台收紧安防。
那么为什么不选择自己本地部署一套呢,相比起API调用,DeepSeek本地部署具有以下几个优点。
-
隐私安全:医疗/金融等敏感数据不出内网。
-
定制自由:可修改模型结构,添加行业知识库。
-
成本优势:对比API调用费,老旧服务器也能焕发第二春。
-
国产之光:专门优化的中文理解能力,当前性价比最高的最强大脑。
今天小义就教大家零成本在个人电脑部署国产顶尖大模型DeepSeek!无需高端显卡,小白也能轻松玩转百亿参数模型。
一、为什么选择DeepSeek本地部署?
Ollama 部署
Ollama是一个开源框架,专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计。其主要目标是简化在Docker容器中部署大型语言模型的过程,使得非专业用户也能方便地管理和运行这些复杂的模型。
Ollama 网址:https://Ollama.ai
配合Chrome插件Page Assist可实现图形界面对话。
第一步:安装 Ollama
1、进入https://ollama.com/download,这里以Windows系统为例,点击下载。
2、本地运行ollamaSetup.exe,点击install,然后等待安装完成。
第二步:下载 DeepSeek & 嵌入模型
- 在Ollama官网页面里点击Models或者在搜索栏搜DeepSeek-R1
- 选择一个合适的模型,不同模型大小不一,这里以最小的1.1GB的1.5b为例
- 复制命令,然后打开命令行直接粘贴进去然后回车,显示“success”就OK了
- 下载嵌入模型,他的功能主要是进行文本分割,方便让大模型读取大批量的文本内容中的特定内容。在搜索栏搜索“nomic-embed-text”,再复制命令到终端里粘贴,慢慢等待执行完就OK了。
Page Assist联网
Page Assist,一个开源的WEBUI,用于可视化的模型对话,特点是可接入联网搜索,并且很方便能配合嵌入模型。
第一步:安装插件
推荐谷歌浏览器,在扩展程序的应用商店里即可安装。
第二步:插件设置
点击【Page Assist】插件即可打开 DeepSeek 的可视化界面,点击RAG设置文本嵌入模型,然后就可以和AI聊天了。
第三步:搜索引擎
Page Assist默认的搜索引擎是duckduckgo,不科学上网是无法正常使用导致的,可以选择切换。
为提高搜索的准确性,还应适当提高Total Search Results网页搜索数量,这样DeepSeek回答的也更准确。
最后
DeepSeek实在太火爆了,相信大家都感受到了强烈的推背感,一个人可以走得很快,但一群人,可以走得更远。欢迎关注小义工粽号【程序员小义】,AI时代,一起扬帆起航!