Ollama在macOS上修改models的存储位置
随着大语言模型的兴起&近几年的发展,我们已经可以在个人计算机上运行一些规模较小的模型,例如最近meta很火的llama3.1以及google的gemma等,我自己也在本人的macbook(M2 pro芯片)上简单体验了一下,效果还可以,同时也遇到了一些问题,写在下面:
写在开始:本文参考了网络上其他平台的一些文章,如在阅读时发现相近处,可能是小白编者也参考过相同的文章,大佬见谅🥹
Q1:存储空间问题
本人的MacBook pro并非十分高配的那种(16GB内存+512GB硬盘),因此适合运行的model大部分参数规模不会超过13B,以我现在安装的两个模型为例:
name | size | 参数规模 |
---|---|---|
gemma2:9b | 5.4 GB | 9B |
llama3.1 | 4.7 GB | 8B |
足以看出,如果多装几个模型的话很容易便产生了几十G的空间需求,对于我512GB的总空间显然是一笔不容小觑的空间开销,而刚好手头又有闲置的一些移动存储设备如朋友送的U盘,于是便自然有了将Ollama的模型存储位置修改的打算.