一、安装Ollama
1、官网下载: Download Ollama on macOS
验证安装:
打开终端(Terminal),输入命令ollama -v
或ollama --version
,检查是否返回版本信息,以验证Ollama是否安装成功。
2、选择deepseek模型
根据Mac的性能选择合适的DeepSeek模型。
我的是M4芯片24G运行内存,选择的8b模型。
3、下载并运行模型
输入命令ollama run deepseek-r1:<model_size>
ollama run deepseek-r1:8b
下载完就可以聊天了,先试一下:
二、安装可视化工具AnythingLLM
目前可视化工具很多,比如 AnythingLLM 、 Open WebUI、Dify、Chatbox等,根据个人喜好安装一个就行,我们以AnythingLLM为例
1、下载安装
官网下载:Download AnythingLLM for Desktop
2、配置
选择ollama,和下面 刚刚下载好的模型,然后下一步就行了
3、初体验
三、模型部署bge-m3模型 搭建知识库
知识库搭建我们选择使用 bge-m3 模型完成
1、通过 Ollama 下载 bge-m3 模型:
bge-m3 是一个嵌入模型,用于将文本转换为向量。我们这里通过 Ollama 下载:
ollama pull bge-m3
验证模型是否下载成功:
ollama list
2、配置 bge-m3 模型:
AnythingLLM 的设置中,选择 LLM 提供商为 Ollama,
Embedding 模型中选择 bge-m3
3、搭建自己的知识库
再新建一个工作区,上传一些数据。这里简单配置一下,如果聊天模式改成查询的话,就只从知识库里查找资料,聊天模式下如果知识库里没有AI会自己编造答案。
上次成功后会有提示的。
4、搭建完成,开始使用
测试一下,这里我们的资料里没有 鲻鱼 的资料,所以直接回答不知道。