从Karpathey那里获得灵感,推特上这位工程师居然可视化了GPT的工作流程!

工程师BrendanBycroft创建的LLM-viz网站,通过动画和交互式演示,揭示了GPT的自回归推理机制,包括Transformer块、注意力机制和输出计算。这个工具帮助用户理解GPT内部工作,尤其在OpenAI转向CloseAI的背景下,加深对生成内容背后原理的认识。
摘要由CSDN通过智能技术生成

图片

深度学习自然语言处理 原创
作者:pp

OpenAI创始人之一的Karpathy之前曾亲自下场教大家如何动手学习搭建一个小号的GPT模型--minGPT。而最近,推特上一位叫做Brendan Bycroft的工程师从Karpathy那里汲取到了灵感,居然将GPT在推理时候的数学过程进行了可视化(以下简称LLM-viz),还做成了可以交互的网站(https://bbycroft.net/llm)!任何人都可以轻松地跟随动画和一旁的讲解,学习到GPT内部的工作原理。

图片

自回归推理

GPT是Transformer中Decoder-only这一类模型的代表,采用Next token prediction的方式进行自回归推理。

图片

拆解GPT

图片

Transformer block里的layer norm, multi-head attention背后的点积,矩阵乘法等操作也都统统被详细拆解,一旁的注释也都恰到好处。文图交互,点击左侧的每个部分的模块,拖动滑块,右侧相应的成分便会开始进行计算。

图片

计算如何进行

通过LLM-viz,可以看见GPT推理流程的全过程,包括每个计算发生的位置,计算的组成和复杂程度,每个tensor的维度和权值,应有尽有!

图片

图片

GPT的输出部分

最后的输出部分,作者配合动画解释了softmax,temperature,logits计算以及token选择等,语言简明扼要。

图片

整个LLM可视化对于GPT推理整个流程可以说是从头到尾全覆盖了,对于想对GPT推理过程一探究竟的小伙伴是个非常合适的学习工具。随着OpenAI逐渐转向CloseAI,人们也更加关注LLM生成的内容,不再溯源这一切是如何发生的。ChatGPT也许很复杂,但其本质也可以很简单。

参考资料

  1. https://bbycroft.net/llm

  2. https://cameronrwolfe.substack.com/p/language-model-training-and-inference

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值