本地部署 Llama3 – 8B/70B 大模型!

Llama3,作为Meta公司新发布的大型语言模型,在人工智能领域引起了广泛的关注。特别是其8B(80亿参数)版本,在性能上已经超越了GPT-3.5,而且由于是开源的,用户可以在自己的电脑上进行部署。

本文和大家分享一下如何在个人电脑上部署Llama3,拥有你自己的GPT-3.5+!

很多读者担心本地部署时个人电脑的硬件配置不够,实际上这种担心是多余的,笔者使用的是游戏本,主要通过GPU跑大模型(建议8g起步,CPU也可以,不过比较慢),硬件配置如下:

  • CPU i9-12900HX 16核24线程
  • GPU RTX4060-8G
  • RAM 32G

步骤大致如下:

  • 安装Ollama
  • 安装Docker Desktop
  • 下载WebUI
  • 下载Llama3并切换模型

一、安装Ollama

1.下载Ollama

Ollama,支持多平台!Windows / Mac /Linux 都可以运行
笔者这边是windows,读者们根据自己的环境,点击下载

image.png

2.安装

双击下载好的.exe文件,点击install

image.png 当电脑右下角弹窗出现下图,即已安装完成

image.png

二、Windows电脑打开WLS功能

  1. 点击windows搜索
  2. 输入启用或关闭windows功能
  3. 点击运行

image.png

  1. 弹出windows功能界面
  2. 勾选-适用于Linux的Windows子系统
  3. 点击确定
  4. 配置完成后需要立即重启电脑

image.png

三、安装Docker Desktop

1.下载

Docker Desktop

image.png

2.安装

双击下载好的.exe文件,点击ok,会自动安装docker环境

image.png

安装好后点击重启电脑

image.png

重启后会自动运行docker桌面版,点击Finish

image.png

看到如下界面代表已经安装完成,完成后会提示让我们注册docker账号,忽略就行

image.png

四、本地安装webUI

1. 打开windoiws搜索

输入cmd,运行 image.png

2. 选择运行方式

将代码复制,右键粘贴进终端,按回车,会自动下载并安装Webui,笔者这边选择GPU方式
image.png

a.在CPU下运行

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

b.在GPU下运行

docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

3. 下载会比较慢

建议提前做好全局科学上网
如下图即已在下载安装中 image.png

4. 提示弹窗,点击允许

image.png

5. 如下图显示即已安装完成

image.png

6. 通过地址访问

安装完成通过本地地址在浏览器端:[http://127.0.0.1:3000]进行访问,看到如下图所示,即成功访问

image.png

五、使用

1. 注册

点击Sign up

image.png

名称随便填写,邮箱确保输入正确,输入好后点击创建,创建成功后会自动跳转至聊天对话页面

image.png

2. 切换中文

点击设置图标,找到语言,选择chinese,点击保存 image.png

image.png

3. 下载模型

点击设置,点击模型,点击可下载的模型

image.png

这边选择llama3

image.png

选择8b(8b,80 亿参数)
70b的模型建议4090显卡再上

image.png

将llama3:8b 复制出来,粘贴至下方如图所示,再点击下载(可同时下载多个模型)

image.png

当进度条为100%时,模型下载成功

image.png

4. 切换模型

点击主界面选择模型,选择llama3:8b,至此,模型切换成功

image.png

六、效果展示

输入
image.png

输出 image.png

七、总结

1. 优点
  1. 本地部署大模型可带来飞一般的体验,可降低延迟
  2. 可微调属于私人的大模型
  3. 数据安全得以保证
2. 缺点
  1. 对硬件要求比较高,是个头疼的问题
  2. 大规模模型的训练和推理过程耗能巨大,可能对环境造成一定影响

如何学习AI大模型?

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

在这里插入图片描述

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

在这里插入图片描述

👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

在这里插入图片描述

1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集

👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

在这里插入图片描述

  • 22
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
VITS(Variational Inference for Text-to-Speech)是一种端到端的文本到语音合成方法,它可以将文本转化为自然流畅的语音。VITS-Fast Fine-Tuning是对VITS模型进行快速微调的方法。 在传统的语音合成任务中,需要大量的语音对齐标注数据来训练模型。然而,这个过程非常耗时和昂贵。VITS-Fast Fine-Tuning的目标就是通过少量的标注数据来快速微调已有的VITS模型,以在新的任务上取得更好的性能。 VITS-Fast Fine-Tuning方法的关键在于使用变分推断(variational inference)来构建先验和后验分布。通过这个方法,我们可以使用其他大型语音合成数据集训练好的模型作为先验分布,然后使用少量目标任务的标注数据来估计后验分布。这样一来,我们就能够在新任务上快速微调VITS模型。 具体而言,VITS-Fast Fine-Tuning的过程分为两步。第一步是预训练,它使用大型语音数据集来训练VITS模型,并生成一个先验分布。第二步是微调,它使用目标任务的标注数据来调整VITS模型的参数,以获得更好的性能。由于预训练的先验分布已经包含了一定的知识,微调的过程可以更快速和高效。 总之,VITS-Fast Fine-Tuning是一种用于快速微调VITS模型的方法。它利用变分推断和预训练的先验分布,通过少量目标任务的标注数据来优化模型性能。这个方法可以加快语音合成模型的训练过程,降低训练的时间和成本。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值