教你轻松本地电脑部署最新Llama3.1,搭建免费本地大模型助手

Facebook最新的Llama3.1大模型发布了。今天手把手教大家如何在本地电脑上部署Llama3.1大模型,个人电脑也可以轻松运行,打造一个属于自己的本地大模型助手。 😊

在开始之前,我们要先搞懂两个概念 OllamaLlama 3.1。看似写法差不多,但意思相差很大。

Llama 3.1 是什么?

Llama 3.1 是 Meta(Facebook 的母公司)发布的一系列最先进的开源大语言模型。Llama 3.1 系列包括 8B(80 亿参数)、70B(700 亿参数)和 405B(4050 亿参数)模型。其中,405B 是 Meta 迄今为止最大的模型,也是首个“前沿级”的开源模型。

Ollama 是什么?

Ollama 是一个开源的大模型管理工具,它提供了丰富的功能,包括模型的训练、部署、监控等。通过Ollama,你可以轻松地管理本地的大模型,提高模型的训练速度和部署效率。此外,Ollama还支持多种机器学习框架,如TensorFlow、PyTorch等,使得你可以根据自己的需求选择合适的框架进行模型的训练。

下面开始进行本地部署。

01

下载安装程序

官网下载地址: https://ollama.com/download

备注:如果不能下载的,关注后回复"ollama",获取安装包。

因为我的电脑是windows, 所以这里我下载Windows这个版本。

下载好了,程序大小一共是299M。

02

开始安装

下载好后,双击点开始安装:

默认安装到C盘。

安装完成后,Win+R键调出运行窗口:

03

安装 Llama 3.1 大模型

3、安装 Llama 3.1 大模型

在官网点击这里导航**「Models」**,可以看到所有可用大模型:

在窗口中键入cmd调出控制台,在控制台中运行命令:ollama run llama3.1

下载速度很快,最主要国内网就可以下载,32M/S。

稍等一会儿,就安装完成了。

04

测试

先测试一下,提个问题,看看回答怎么样?

再来测试一下中文。

回答速度挺快,答案不知道对不对,但可以自圆其说,哈哈,这个大家自己测试体验一下吧。

好了,使用Ollama在本地部署Llama3.1的教程就为大家教到这里,大家快动手试试,愿大家在本文中能有所收获。😊

😝有需要的小伙伴,可以Vx扫描下方二维码免费领取🆓

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值