自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 自然语言处理Transformer

Transformer与RNN不同,可以比较好地并行训练。Transformer本身是不能利用单词的顺序信息的,因此需要在输入中添加位置Embedding,否则 Transformer就是一个词袋模型了。Transformer的重点是Self-Attention 结构,其中用到的QKVQ, K, VQKV矩阵通过输出进行线性变换得到。

2024-06-24 02:02:46 1032

原创 自然语言处理机器翻译

目录一、实验原理1.1 编码器—解码器(seq2seq)1.1.1 编码器1.1.2 解码器1.1.3 训练模型1.2 束搜索1.2.1 贪婪搜索1.2.2 穷举搜索1.2.3 束搜索1.3 注意力机制1.3.1 计算背景变量1.3.1.1 矢量化计算1.3.2 更新隐藏状态1.3.3 发展二、实验步骤2.1 读取和预处理数据2.2 含注意力机制的编码器—解码器2.2.1 编码器2.2.2 注意力机制2.2.3 含注意力机制的解码器2.3 训练模型2.4 预测不定长的序列2.5 评价翻译结果三、实验总结四、

2024-06-23 12:01:45 957

原创 自然语言处理前馈网络

感知器是现存最简单的神经网络。感知器的一个历史性的缺点是它不能学习数据中存在的一些非常重要的模式。例如,查看图4-1中绘制的数据点。这相当于非此即彼(XOR)的情况,在这种情况下,决策边界不能是一条直线(也称为线性可分)。在这个例子中,感知器失败了。图4-1 XOR数据集中的两个类绘制为圆形和星形。请注意,没有任何一行可以分隔这两个类。在本次实验中,我们将探索传统上称为前馈网络的神经网络模型,以及两种前馈神经网络:多层感知器和卷积神经网络。

2024-06-13 21:25:36 773

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除