- 博客(2)
- 收藏
- 关注
原创 为什么Transformer会出现位置编码(Positional Encoding)?
为什么Transformer会出现位置编码(Positional Encoding)? Transformer被提出首先应用在NLP领域,处理的数据对象为语言的序列数据,既然是序列数据,则序列的顺序对于语言的表达是至关重要的。在这之前,RNN已经被提出用于解决NLP中的机器翻译、文本生成等任务,且RNN是按照序列顺序逐个对句子中的单词进行处理,使得序列的顺序自然而然地保存在模型中。而Transformer的输入是将句子中的所有单词一次性输入到网络中进行学习,这使得序列的顺序信息丢失。因此我们需要通过其他
2021-07-16 22:01:58
2122
2
原创 Pytorch实现MNIST手写数字识别(全连接神经网络及卷积神经网络)
目录项目简介1、数据集读取功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入大家好,这是我第一次在CSDN上写文章,如果下面内容有错误或者不合适的地方,恳请大家批评指正。项目简介MNIST手写数字识别数据集是入门卷积神经网络(C
2020-12-25 20:59:07
2401
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人