如何拥有自己私有化部署的大模型?Mac下部署Ollama并使用llama3.1模型的方法详解

😄啥是Ollama

Ollama 是一个开源的、专为本地环境设计的轻量级、可扩展框架,用于构建和运行大型语言模型(LLMs)。它允许用户在本地机器上部署和运行语言模型,无需依赖外部服务器或云服务,从而提高数据处理的隐私性和安全性。

简单来解释就是,Ollama是一个框架,可以用来在本地运行各种开源大模型,很方便。

🍆如何安装Ollama

首先,来到Ollama的官方网站:

Ollama

网页相当简洁,点击下载就可以了。

选择你的操作系统,这里选择macos,当然如果你是windows,就选择windows,然后下载。

下载完成后,解压缩,就可以得到一只小羊驼。

双击Ollama图标,会弹窗,点击“打开”就好。

之后会提示你,Ollama放在应用目录下运行效果比较好,为了保证兼容性或者不出一些奇奇怪怪的bug,我这里建议选择 “move to applications”.他会自动把这个应用复制一份到应用目录下。

点击Next。 

点击install进行安装即可。 

弹窗出来的页面,这里需要点击命令行右侧的小图标,复制这行命令。点击“finish”完成。 

这个时候,你会发现任务栏多了一只小羊驼

但这个时候,其实还没有安装模型,你需要手动安装一下模型。

找到你电脑上的应用-》终端,打开:

粘贴你刚才复制的命令,然后回车,系统会开始下载模型:

耐心等待即可,这里可能需要一些魔法。

当然,如果你网络断了,这个也是支持断点续传的,下次网络好了接着下载就可以。

如果你电脑配置特别棒,希望用更强的模型,那么也可以到官网下载别的模型:

然后在列表中选择你喜欢的模型:

然后选择你喜欢的版本:

 点击右边的复制小图标,复制命令行,并在终端执行,就可以下载对应的模型并使用了。

安装完成就可以在命令行愉快的对话了,不过前提是你的mac性能得好一点🤏

✨写在最后

如果对comfyui还不熟悉的话,最近面向ComfyUI的新手,写了一门系统性入门图文课程,现在已经更新完成了,内容主要包括如何下载软件、如何搭建自己的工作流、关键基础节点讲解、遇到报错怎么解决等等,如果大家在学习过程中遇到什么问题,也可以直接对应的文章下留言,会持续更新相关答疑内容哈。欢迎订阅哦~

https://blog.csdn.net/jumengxiaoketang/category_12683612.html

​​

感谢大家的支持~

  • 4
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

聚梦小课堂

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值