从零复现Llama3代码库爆火,大神Kapathy一键三连,GitHub狂揽2k+

西风 发自 凹非寺
量子位 | 公众号 QbitAI

让大神Andrej Karpathy一键三连❤️(点赞+转发+评论),一个教你从头开始实现Llama3的代码库爆火。

X上转赞收藏量超6.8k,GitHub揽星2k+。

a9543a3a3593fedf6e120e4181fb2a20.png

火就火在,它教你从头用Meta开源的权重进行推理,详细解释和展开了注意力机制中多个头的矩阵乘法、位置编码以及所有中间层

换句话说,他解释了每行代码都在干啥。

95179c9f5b73c5c372da4566db018b81.png

Karpathy看后直呼打造者Nishant Aklecha(后文暂称“纳哥”)是个有品的人:

aea1bc6dc959587324282ab875557c0e.png

完全展开后,比起模块相互嵌套和调用时,更容易理解每一步具体在做什么。

fa2f15508004e43b6d95be41304c0c01.png

网友们对其也是赞不绝口,纷纷致敬:

c43845062d5f9b79b8a1087f7f380035.png
3675ac5a9d69a26d213ff53fb98b1628.png
6943b9b025fa14831e0c5f7a04d1ecb7.png

话不多说,一起来看纳哥是如何手把手教的。

(量子位在不改变原意的基础上,进行了编译整理)

从头实现llama3

在运行纳哥提供的文件前,大伙儿需要预先下载Meta官方提供的Llama3模型权重。

ddb66bfe1a0836c5abd12f879b2f80bf.png

纳哥表示自己没搞分词器,推荐用Karpathy的现成简洁版BPE代码。

9e8c2d209c5cc1997afaaa01e7339a54.png

943f7f15f12e000baaaeec3eb3fc5582.png

PS:

“字节级(byte-level)”BPE算法,在UTF-8编码的字符串上运行,广泛应用于大模型分词。Karpathy提供的这个代码库包含两个分词器,都能在给定文本上训练分词器的词汇表和合并规则、将文本编码为token、将token解码为文本。

b587a570365d9bad36be4acbe2e43a0e.png

读取模型文件的方式通常取决于model classes的编写方式以及class中变量的命名。但由于纳哥是从头开始实现Llama3,所以将逐个张量地读取文件内容。

278061561275c6da4b3799cdd11f572f.png

309c6a60cf354c2b57a154a3a96db227.png

通过此配置可以推断出模型的结构和参数信息,例如模型包含的Transformer层数、多头注意力块中的头数,以及词汇表的大小等细节。

3d801d5e0c0c7ac403257664e5ddbfdc.png

将文本转换为token时,纳哥使用tiktoken作为分词器。

c49f6b8cf24978e4001ff450397dbd8d.png

a99e8521c2d77c1cf796de567fc0873f.png

接下来,纳哥展示了在代码中将token转换为高维的嵌入表示。这是代码库中唯一使用内置神经网络模块的部分。

[17x1]的token矩阵变成了[17x4096]的嵌入矩阵。也就是说,每个token被转换为一个长度为4096的嵌入向量,总共有17个这样的嵌入向量。

bf8efd7edf21ac2ae1c548cd30c6eba1.png

55982323295bd3033c5f109a16af05b1.png

然后,纳哥对嵌入进行RMS归一化。经过这一步后,嵌入的形状不会改变,只有数值被归一化了。纳哥强调需要一个norm_eps,避免意外将RMS值设为0导致除以0的错误。

以下是公式:

e7572648fd68e8dfce47be75a2da3ade.png

0561a9207efd55e89d98c4c556b5dd0c.png

构建Transformer的第一层,进行归一化处理,从模型字典中访问layer.0(即第一层)。归一化之后,张量的形状仍然是[17x4096],与嵌入时相同,但数值已被归一化。

4c3a7bd82f1496c4f2284fecf554d0ca.png

71abdd3032bf3691c6ee85170c2a2dbb.png

跟着纳哥从头实现注意力机制,加载Transformer第一层的注意力头。

从模型中加载query、key、value和output向量时,它们的形状分别是 [4096x4096]、[1024x4096]、[1024x4096] 和 [4096x4096]。

纳哥表示乍一看有点奇怪,因为理想情况是每个注意力头的q、k、v和o向量是独立的。而代码作者将它们捆绑在一起,是为了方便并行计算注意力头的矩阵乘法。

把所有这些向量解包开来:

955b3ca3d5ebf26b02313c7a38b6c2dd.png

efd27d013c24449ca45a24f826665d16.png

下一步,纳哥将从多个注意力头中解包query,解包后的形状是[32x128x4096],32是Llama3中的注意力头数量,128是query向量的大小,4096是token嵌入的大小。

3a8b283a12d3fac5529af5c487b939ff.png

在这里,纳哥访问了第一层第一个注意力头的query权重矩阵,query权重矩阵的大小是[128x4096]。

bcc244e08ee91b33d0756041a3e82249.png

将query权重矩阵与token嵌入相乘,获得每个token的query向量。结果的形状为[17x128],有17个token,每个token对应一个长度为128的query向量。

8c16bfe263f25e8eb181abe787ce94cb.png

81e5b328ecd58ba76060651cdaab489d.png

接下来需要位置编码。

现在已经为prompt中的每个token生成了query向量,但每个单独的query向量并不知道它在prompt中的具体位置。

例如,query:“the answer to the ultimate question of life, the universe, and everything is ”(生命、宇宙和一切的终极问题的答案是)。

在这个prompt中,使用了三次”the”,需要根据它们在prompt中的位置,使这三个”the”token的query向量有所不同(每个向量的大小为[1x128])。

通过使用RoPE(旋转位置嵌入)来进行这些旋转操作。

328f16e928d169ea4a3e031de73108cc.png

846b4a56ed3e968674f18a415002ac85.png

上一步中,纳哥将query向量分成对,并对每一对应用一个旋转角度偏移。

由此,得到的向量大小为 [17x64x2],这是将长度为128的query向量对每个prompt中的token分成64对。这64对中的每一对都会根据m*(theta) 进行旋转,其中m是要旋转query的token的位置。

c4ec64472f4a93c8e954804631ffded6.png

使用复数的点积来旋转一个向量:

610c0f4c5299e0844b56c26bdf52dca2.png

76add69e54c84dffdab07211f8c553f9.png

210434c957af4ead3aa10a8716f36fe3.png

7f0c935f3219d561be8953d068fb77a2.png

现在每个token的query元素都有一个复数(角度变化向量),可以将query向量(之前分成的对)转换为复数,然后通过点积根据位置旋转query向量。

ad9c6eaddd2c459517c56719f75fab7d.png

获得旋转后的向量后,可以通过将复数重新视为实数来得到成对的query向量。

fa16d7d310d9655c2a9407971084548a.png

旋转后的对现在已经合并,有一个新的query向量(旋转后的query向量),其形状为[17x128],其中17是token的数量,128是query向量的维度。

b85f8fdcf206abfbcbb3265986747f9d.png

key与query几乎相同。

722df0d5c2b278d5a267c74d4afff5b9.png

纳哥表示自己不会详细讲解key的数学原理,只需要记住以下几点:

key生成的key向量维度也是128;key的权重只有query的四分之一,这是因为key的权重在同一时间内被4个头共享,来减少计算量;key也会旋转添加位置信息,原因与query相同。

f29a8c7cdb995b73557dc7f31d6ad10f.png

be9d81ae517d934b5cf2828d7a5749d6.png

此时,纳哥已经为每个token获得了旋转后的query和key。每个query和key现在的形状都是[17x128]。

a254e922d7b6e0f4d3b79d31a4b86633.png

下一步,纳哥将对query矩阵和key矩阵进行相乘操作。这样做会生成一个评分矩阵,将每个token关联起来。这些评分描述了每个token的query与每个token的key之间的相关性,这就是自注意力机制。

注意力评分矩阵(qk_per_token)的形状为[17x17],其中17是prompt中的token数量。

eb07779715e2830117e1b9ddf596222d.png

4be7f7605cfeafcba5d702e424bde662.png

接下来需要对query key评分进行掩码处理。在Llama3的训练过程中,未来token的qk评分是被掩码的,只通过过去的token来预测token。

因此,在推理时,要将未来的token评分设置为0。

52b7a5c9d7552ad5e304a519cc7e9a07.png

c690144c644b616a2fbf596d0012af4f.png

a51bc6b546f8d39b7d9da19b37762a70.png

22de2b8e79b8b06a952b293489b66291.png

76d19fad14c299861dab27e81c0d80a9.png
c857f65b367f1f4414f58e5c6ea4eb5d.png

495ede4d8b2969387c3f1c2a25017e4e.png

e894521a7f98b858bed0083928ea2935.png

接下来是value,接近注意力机制的最后一步。

c440f6914fef46b08a79963692b27216.png

这些评分(0-1)用于确定每个token使用多少value矩阵。

和key一样,value的权重也在每4个注意力头之间共享,所以下面value权重矩阵的形状是[8x128x4096]。

464652da78a6219fce4a7e52de20bbc8.png

第一层,第一个注意力头的value权重矩阵如下所示:

1c7e6da6713e3766071ffa931763670e.png

然后是value向量。

9041c7f687f2b3abb032d9d965dc762e.png

使用value权重来获取每个token的注意力值,矩阵的大小是[17x128],其中17是prompt中的token数量,128是每个token的value向量的维度。

3da229982125604ea8726ed20a865973.png

注意力:与每个token的value相乘后得到的注意力向量的形状为[17x128]。

8a1918b497a8c74da53026aa57bbd838.png

518123a21fba8aec7dfa82e63768f152.png

现在有了第一层第一个头的注意力value。然后纳哥运行一个循环,对第一层的每个头执行与上面的计算完全相同的数学运算。

37d51ba4e58a2d6b066e090811cca63b.png

33a82d9ba8960a502aac01e9200203e1.png

然后得到了第一层所有32个头的qkv_attention矩阵,接下来将所有注意力得分合并成一个大小为[17x4096]的大矩阵。

9a9298721c3184d42c8ffadf9a36cfc2.png

13bc8e71c7c0b49fbf5fe77d3804addc.png

对于第0层注意力机制的最后步骤,其一是将注意力得分矩阵与权重矩阵相乘。

16bbb80f02a506e9bd8378b486cebfcf.png

37d0df9d2d31bf1b6116da06af5f00ac.png

这是一个简单的线性层,所以只需进行矩阵乘法。

7a750f61673bd65dcbecb7abd962ca88.png

882831a88670940d8dae54d13dc51921.png

现在得到了注意力机制后的嵌入value变化,应该被添加到原始的token嵌入中。

6e7be8ebbf6bf3d5fd6401aa2c8b552e.png

对嵌入增量进行归一化处理,然后通过嵌入增量运行一个前馈神经网络。

2fd7c0ed729ee0e3f9e7d73682c60788.png

b868a8494f4073434c612b2fcaa345d7.png

在Llama3中,加载前馈权重并实现前馈网络。使用了一种名为SwiGLU的前馈网络,这种网络结构在模型需要的时候,能够有效地增加非线性。

54252eeee0fbac320d662aec45a3b658.png

cbc54c23ac282ad6ab973bff49266d6a.png

现在完成了第一层之后每个token的新嵌入。现在只剩下31层了,只需通过一个循环来完成。

纳哥表示可以将这个编辑后的嵌入想象成包含了第一层中所有查询信息的嵌入。随着层数的增加,每一层都会对输入的信息进行越来越复杂的处理,直到最终得到一个能够全面了解下一个需要预测的token的嵌入。

940c50e909a10891fba94b9c9309a743.png

之前做的所有事情,对每一层都重复一次。

2fd976bf53f565e849e00a0ae08738d1.png

9f83800610d0b222abe25da50e618bf7.png

然后得到了最终的嵌入,这是模型对下一个token的最优预测。这个嵌入的形状与常规的token嵌入相同,为[17x4096],其中17是token的数量,4096是嵌入的维度。

a735d2e37b13040bd98e7b5803c92ca4.png

1561bc865f9a4151cf0e4ef54c5dbc3e.png

最后,将嵌入解码成token值。

59698d60e4be04f05f70896cb9d28701.png

使用输出解码器将最终的嵌入转换成一个token。

ef07afa74c1e3be324dac6b35e6ecea0.png

接下来看纳哥使用最后一个token的嵌入来预测下一个value,希望预测的结果是42。

因为根据《银河系漫游指南》一书中的说法,42是“生命、宇宙及一切的终极问题的答案”。大多数LLM在这里都会回答42,这将验证整个代码的正确性。

d26b1f05dfeb43e1c3041e20335d4731.png

模型预测下一个token的编号为2983。这个编号对应数字42吗?

c2527e15d6a7ab71e6792d176b7afcb5.png

4e2a08276d99701067ad9da3df8ac51d.png

f903a5c446b871d2360ed4a3f45c5165.png

OK,结束。

“让研究变得更加触手可及”

简单介绍一下Nishant Aklecha。

00e4a6bedd1014dc0b756cdf3be06320.png

Nishant Aklecha是构建和改进定制语言模型平台Glaive AI的研究员,曾任职于摩根士丹利,负责训练和微调大语言模型。

55468fc49a7d361a1e39c2b54d0fa3de.png

此外,他还和朋友一同创立了一个研究实验室,名为A10(AAAAAAAAAA)。

f5b95d4d82b7eb5d989077a6532ed2b0.png

他们的目标可以总结成一句话:让研究变得更加触手可及。

ccf884467a1e9426ed80e3d1aecd4ef7.png

除了放出这个代码库,Nishant Aklecha可谓好人做到底。

网友想更好地理解这个代码库的内容,Nishant直接一个YouTube视频甩了过来:

c738911dc963276b4611ca0d92f39dfa.png

之前Nishant Aklecha还曾写过一篇Blog,详解了潜在一致性模型(LCM),同样收获了不少好评。

a8c203813dfb341d302cb3e80af3c66b.png

啥也不说了,感兴趣的家人们赶紧码住吧。

af9d889108b2cd30501f82f0fab45466.png

GitHub链接:https://github.com/naklecha/llama3-from-scratch

参考链接:
[1]https://x.com/naklecha/status/1792244347225641338
[2]https://naklecha.notion.site/explained-latent-consistency-models-13a9290c0fd3427d8d1a1e0bed97bde2
[3]https://www.youtube.com/watch?v=o29P0Kpobz0&t=530s
[4]https://www.youtube.com/watch?v=eMlx5fFNoYc

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

ae0aa1b68213da9ceedddeff7d71aa53.png

点这里👇关注我,记得标星哦~

  • 0
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值