自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 BERT(gpu)代码复现

逐行注释,逐行解析。本地配备gpu环境可直接运行。相比cpu版本没有任何删减,增加的几行代码已做标识。code from https://github.com/graykode/nlp-tutorial/tree/master/5-2.BERT

2023-04-29 21:02:21 404

原创 BERT(cpu)代码复现

逐行注释,逐行解析。可直接运行。codefrom https://github.com/graykode/nlp-tutorial/tree/master/5-2.BERT

2023-04-29 20:59:03 325

原创 pytorch中多维度索引切片

比如现在有一个三维形状的矩阵:[2, 7, 8],切片时要对应的写:[:, :, :],三个冒号分别代表要取第一维、第二维、第三维位置上的元素。(索引下标从0开始)3. 第三个维度(随后一个[]):表示要取第几个批次中的第几行里的第几个元素。2. 第二个维度(中间的[]): 表示要取第几个批次的第几行。1. 第一个维度(最外面的[]):表示有。7行8列的矩阵,相当于批次的控制信息。

2023-04-22 19:13:16 355

原创 Transformer(gpu)代码复现

逐行注释,逐行解析。本地配备gpu环境可直接运行。相比cpu版本没有任何删减,增加的几行代码已做标识。code from https://github.com/graykode/nlp-tutorial/tree/master/5-1.Transformer

2023-04-15 17:55:17 776

原创 Transformer(cpu)代码复现

逐行注释,逐行解析。可直接运行。code from https://github.com/graykode/nlp-tutorial/tree/master/5-1.Transformer

2023-04-15 17:45:34 493

原创 Transformer原理详解

一篇通俗易懂的Transformer原理解析。

2023-04-15 02:29:06 1311 1

原创 Transformer论文精读

根据李沐老师论文精读总结(Transformer)

2023-04-14 16:27:09 344 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除