- 博客(6)
- 资源 (1)
- 收藏
- 关注
转载 transformer中positional encoding的理解(转)
如何理解Transformer论文中的positional encoding,和三角函数有什么关系?
2020-04-02 21:52:40 695
转载 层规范化技术(转)
摘要 训练目前性能最好的深度神经网络计算代价高昂. 一种减少训练时间的方法是规范化神经元的激活值. 近期引入的批规范化(batch normalisation)技术对一个训练样本批量集使用了求和的输入分布来计算均值和方差,然后用这两个来规范化那个神经元在每个训练样本的求和输入. 这个方法显著减少了前驱神经网络的训练时间. 然而,批规范化的效果依赖于 minibatch 的大小,而且对于循环神经网络...
2020-04-02 12:08:24 348
转载 linux下切换python2和python3(转)
linux下切换python2和python3 0x00 为什么需要有两个版本的Python Python2和Python3不兼容是每个接触过Python的开发者都知道的事,虽说Python3是未来,但是仍然有很多项目采用Python2开发。Linux的许多发行版本(如Ubuntu)都会自带Python2.7,但是当我们准备开发一个Python3项目的时候,我们该怎么办? 那就把Python3也下...
2020-04-02 11:43:49 763
stanford-corenlp-full-2016-10-31.zip
2020-07-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人