在Mac mini上实现本地话部署AI和知识库
- 硬件要求:
- 软件要求:
- 步骤
-
- 先安装Ollama,步骤也很简单,主要下载官网的安装包安装即可;以下是下载页链接:[https://ollama.com/download](https://ollama.com/download)
- 安装完了Ollama之后,就可以在终端里用Ollama run openchat,
- 现在大模型本地安装就完成了,接下来就可以继续部署本地的知识库;
- 本地知识库的部署:
- anythingLLM的安装。
- 可以说,AI的出现就是懒人的福音,基本上你按照官网的指引来做不会有什么难的。唯独是如果英语阅读可能对某些同学有点障碍,不过这种障碍估计很快也要被AI消除了。
- anthingLLM的配置,资料的投喂,搜索检验。
- 总结,下一步考虑把系统的bug list喂给AI模型,看看能不能方便地查到有用的东西。
- 投喂网页数据之前的查询:
- 投喂数据之后的查询:
硬件要求:
大模型AI,也叫LLM,需要硬件支持,常见的方式有2种:一种是采用英伟达之类支持CUDA库的GPU芯片或者专用AI芯片;第二种是采用苹果M系列芯片架构的支持统一内存架构的硬件;
本文主要讲基于苹果M系列的方式,采用的内存建议16M,8M内存也能支持,但支持模型会比较少;除此之外,即使普通的电脑,如果你的内存够大,CPU够快,也是可以运行一些小的模型的,只是速度上会比较慢,CPU占用比较高,具体情况大家可以实际体验一下,例如我用一台T460,Intel i5 4核2.3G x4,16G内存,显卡GeForce 940MX/PCIe/SSE2,运行Ollama openchat 4B模型,一分钟大概生成100个词左右。