- 博客(3)
- 收藏
- 关注
原创 基于含注意力机制的编码器—解码器的机器翻译
编码器负责理解并捕获输入序列的语义信息,通常由一个或多层循环神经网络(RNN模型,如LSTM或GRU)构成,也可以是Transformer等结构。输入序列按照时间步(或单词顺序)依次输入编码器,编码器在每次时间步都会更新其内部状态,最终输出一个固定长度的上下文向量(Context Vector)或一系列上下文向量(在使用双向RNN时会有前后向两个方向的信息),这个向量包含了输入序列的整体信息。
2024-06-29 22:39:32
406
原创 基于Transformer实现机器翻译(日译中)
1.有gpu的可以用自己电脑跑,记得装对pytorch版本,否则用不了gpu。我电脑是3060,跑一轮大概1600s左右2.没有gpu可以用云平台跑,我用的是矩池云,直接租用一个服务器,然后选择JupyterLab,打开,导入代码,导入相应文件,pip install要用到的包就行了。
2024-06-29 19:45:20
398
原创 NLP实验——基于MLP的姓氏分类
MLP是最简单的神经网络,有一个输入层和输出层,最少有一个隐藏层,每个层之间的神经元是全连接的。个人理解MLP是f(wx+b)的多层嵌套来表征或拟合复杂关系,其中f为激活函数,有了激活函数MLP才有处理非线性问题的能力,否则无论多少层,多少节点都将归结为wx+b。
2024-06-09 23:19:29
299
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人