看transformer源代码时候遇到的问题(ONMT)

看源代码时候遇到的问题

以前没有什么项目经历,所以现在每次看源代码就头痛得要死。

Q1:项目源代码里面的.yml文件是什么?

在这里插入图片描述
这个文件的介绍网友已经写得很仔细了,我就不搬运了,参考:https://zhuanlan.zhihu.com/p/433176170

transformer源代码仓库链接

把源代码贴在这里便于查找:
https://github.com/harvardnlp/annotated-transformer
哈佛大学团队实现的pytorch版本。
一位大佬的该源码讲解:
https://zhuanlan.zhihu.com/p/398039366

另一个源代码版本

其实我之前看的源代码是另一个版本,这里也贴在这里,我刚刚克隆下来,还没有仔细看
:https://github.com/OpenNMT/OpenNMT-py
这里目录也太复杂了,本菜鸟实在不明白每个部分是干啥的,有大佬路过愿意指点一二的话,本人感激不尽。如图:
在这里插入图片描述

查看cuda版本的命令(服了我自己,每次都忘记)

在这里插入图片描述
conda list

查看pytorch与python等的对应版本

https://blog.csdn.net/shiwanghualuo/article/details/122860521

uniform_()函数解析

在这里插入图片描述
博主已经说得很清楚,我不搬运了,参考:
https://blog.csdn.net/qq_39665216/article/details/126217031
在这里插入图片描述

xavier_函数

以下内容来源于:https://blog.csdn.net/dss_dssssd/article/details/83959474
在这里插入图片描述
在这里插入图片描述

深度学习模型混合精度训练

这个我也不太懂,救命,我项目都没怎么跑过呀,研一导师放养过得可快乐了,现在啥也不会。
现在导师还是放养,该如何自救啊!!!大佬路过指点一下,感激不尽!!!
混合精度训练,参考下面的文章:
https://zhuanlan.zhihu.com/p/103685761

这个源代码太复杂了

我放弃了,这个源代码对我来说太复杂了,我决定先看看哈佛团队的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值