bert pytorch源码_快速掌握BERT源代码(pytorch)

本文提供了一个简化的BERT源代码解析,适用于英语基础较弱或想要快速了解BERT实现的人。主要关注BertModel、BertEncoder、BertLayer等关键组件,以及它们之间的交互。通过阅读,你可以理解BERT的embedding、attention机制和编码过程。
摘要由CSDN通过智能技术生成

这个应是最简单了解bert源代码的文章,看英语头晕的人和怕麻烦的人,适合看我这个,我不会拓展太多,每一个功能大致都会介绍。

文件定位在 pytorch-transformers/pytorch_transformers/modeling_bert.py

当然啦,依然需要一些预备知识attention、seq2seq、mask、embedding等才能快速看懂,比如我文中说的self-attention,语义向量,要知道是在说什么,不会解释,我就按照代码结构给大家解释整个意思,按顺序读就行。

包含的结构class类:BertModelforward 函数接收 参数 :inputs,segment,mask'(符号'是可以为None的意思),position_ids',head_mask'

输出 :元组 (最后一层的隐变量,最后一层第一个token的隐变量,最后一层的隐变量或每一层attentions 权重参数)

方法过程:embedding(关联类BertEmbeddings)->encoder(关联类BertEncoder)->pooler(关联类BertPooler)

BertEmbeddingsforword 函数接收 参数 :inputs,segment',position_ids'

输出 :words+position+segment的embedding

方法过程 :调用nn.Embedding构造words、position、segment的embedding -> 三个embedding相加 -> 规

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值