深度学习
weberyoung
这个作者很懒,什么都没留下…
展开
-
Ubuntu下载pytorch太慢情况解决
今天又迫不得已尝试下载pytorch比如从官网上找到对应配置和命令,直接输入,你会发现下载速度异常慢,而且中间会报错HTTP连接的错误,导致下载中断。然后你添加了国内的清华镜像依旧没有改善,根本原因在于上面的-c pytorch这句话...原创 2020-06-10 15:14:48 · 1016 阅读 · 1 评论 -
tensorflow的tf.nn.rnn_cell.LSTMCell和pytorch的nn.LSTM区别
tf.nn.rnn_cell.LSTMCell函数初始化:init(num_units,use_peepholes=False,cell_clip=None,initializer=None,num_proj=None,proj_clip=None,num_unit_shards=None,num_proj_shards=None,forget_bias=1.0,state_is_tuple=True,activation=None,reuse=None,name=None,原创 2020-06-06 21:56:12 · 3311 阅读 · 1 评论 -
《深度学习》:循环神经网络II
第8讲 循环神经网络II–长程依赖问题–长短期记忆网络(LSTM)–门控循环神经网络(GRU)–深层循环神经网络–实验④(循环神经网络实验)布置文章目录RNN的长时依赖问题长短时记忆网络(LSTM)深入了解LSTM结构具体原理GRUGRU结构更新记忆阶段LSTM和GRU的联系RNN的作业布置参考文献RNN的长时依赖问题首先回顾一下上篇文章推导出来的RNN的误差项随时间反向传播的公式。(误差项:误差EEE对神经元j的输出netjnet_jnetj的偏导)我们可以看到,误差项从t时刻传.原创 2020-05-17 17:30:45 · 618 阅读 · 0 评论 -
《深度学习》:循环神经网络I
《深度学习》课程资料第7讲 循环神经网络I–网络记忆能力–循环神经网络(RNN)–随时间反向传播(BPTT)–双向循环神经网络第8讲 循环神经网络II–长程依赖问题–长短期记忆网络(LSTM)–门控循环神经网络(GRU)–深层循环神经网络–实验④(循环神经网络实验)布置1 引言全连接神经网络和卷积神经网络都只能单独的取处理一个个的输入,前一个输入和后一个输入是完全没有关系的。但是,某些任务需要能够更好的处理序列的信息,即前面的输入和后面的输入是有关系的。比如,当我们在理解一句.原创 2020-05-16 17:59:33 · 737 阅读 · 0 评论