第二课堂笔记

一、大语言模型

定义与背景

大语言模型,通常指的是那些拥有亿级乃至万亿级参数的深度学习模型,它们在自然语言处理、图像识别、语音识别等领域展现出了前所未有的性能。这些模型的核心在于其规模——更多的参数意味着模型可以学习到更复杂的语言结构和语境,从而实现更自然、更精准的交互和生成任务。

大语言模型:技术框架

当前国内外主流的大语言模型都是基于Transformer架构的。自从2017年Vaswani等人提出Transformer模型以来,由于其并行处理能力、长距离依赖捕捉能力以及独特的自注意力机制,Transformer已经成为自然语言处理(NLP)领域特别是大语言模型中的主导架构。

代表性的大语言模型,如GPT系列(GPT-3、GPT-4)、BERT系列(BERT、RoBERTa)、通义千问(Qwen)、文心一言(ERNIE)等,均采用了Transformer架构,并通过大规模预训练和特定任务的微调,在各种NLP任务上展现了卓越的性能。这表明,无论是在研究领域还是工业界,Transformer架构已成为推动自然语言处理技术进步的关键因素。

二、准备工作

注册云算力平台:

https://growthdata.virtaicloud.com/t/NA

part1

创建项目,选择B1.medium规格服务器

选择CUDA12.1 PyTorch2.1.1的镜像

在模型中搜索Qwen2-0.5B-Instruct

点击启动后,进入环境。
在/gemini/code中存放代码,/gemini/pretrain中是我们挂载的模型

part2

不选B1.small,选B1.medium,镜像和数据集选择完毕之后,点击"立即启动"

进入环境后在网页终端输入以下命令:

tar xf /gemini/data-1/stable-diffusion-webui.tar -C /gemini/code/ 

chmod +x /root/miniconda3/lib/python3.10/site-packages/gradio/frpc_linux_amd64_v0.2

cd /stable-diffusion-webui && python launch.py --deepdanbooru --share --xformers --listen

开设端口7860,端口用途随便写

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值