自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(2)
  • 收藏
  • 关注

原创 读论文:Attention Is All You Need

文章目录0、Abstract1、Introduction2、Background3、Model Architecture3.1 Encoder and Decoder Stacks3.2 Attention3.3 Position-wise Feed-Forward Networks3.4 Embeddings and Softmax3.5 Positional Encoding4、Why Self-AttentionThis paper is all you need!听了宏毅老师课和沐神的带读,写

2022-03-18 21:42:55 552

原创 读论文:BERT Pre-training of Deep Bidirectional Transformers for Language Understanding

读论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding浅谈一下读这篇论文中对bert的理解文章目录读论文 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标

2022-03-12 15:38:10 1386

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除