![](https://img-blog.csdnimg.cn/20200215131603776.jpg?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
关于深度学习介绍博文
hzgao
这个作者很懒,什么都没留下…
展开
-
cuda cudaError_t cudaerr = cudaDeviceSynchronize()运行报错“misaligned address”解决办法
最近用cuda去做加速计算,发现当计算数据量较大时,报错“misaligned address”,如下:出现这种情况可能是因为指针没有与处理器所需的边界对齐造成的。This is what the debugger is trying to tell you: Basically, you shouldn't dereference a pointer pointing to a 32-bit value from an address not aligned at a 32-bit boundary...原创 2022-06-08 14:13:34 · 4666 阅读 · 0 评论 -
神经网络GRU
现在目前用的最多的三种神经网络是CNN,LSTM,GRU。其中,后两者都是RNN的变种,去年又给RNN发明了个SRU(优点是train RNN as fast as CNN),SRU以后再讲,目前先消化了这个GRU再说。GRU,Gated Recurrent Unit,门控循环单元。意思大概理解就是在RNN上多加了几个门,目的和LSTM基本一样,为了加强RNN神经网络的记忆能力。...原创 2020-02-17 22:32:15 · 2647 阅读 · 0 评论 -
基于attention的seq2seq机器翻译实践详解
思路 文本处理,这里我是以eng_fra的文本为例,每行是english[tab]french,以tab键分割。获取文本,清洗。 分别建立字典,一个english,一个french。 根据字典写好seq2id的函数(文本序列->数字序列),并调用将文本序列化。 初始化Encoder,Decoder模型;选择合适的优化器;设置lr,epochs等参数; ...原创 2020-02-17 21:56:22 · 839 阅读 · 2 评论 -
深度学习之RNN、LSTM及正向反向传播原理
综述RNN( Recurrent Neural Network 循环(递归)神经网络)跟人的大脑记忆差不多。我们的任何决定,想法都是根据我们之前已经学到的东西产生的。RNN通过反向传播和记忆机制,能够处理任意长度的序列,在架构上比前馈神经网络更符合生物神经网络的结构,它的产生也正是为了解决这类问题而应用而生的。 RNN及改进的LSTM等深度学习模型都是基于神经网络而发展的起来的认...原创 2020-02-17 21:43:39 · 1091 阅读 · 0 评论 -
基于注意力机制的seq2seq网络
seq2seqseq2seq的用途有很多,比如机器翻译,写诗,作曲,看图写文字等等用途很广泛!该模型最早在2014年被Cho和Sutskever先后提出,前者将该模型命名为“Encoder-Decoder Model”也就是编码-解码模型,后者将其命名为“Sequence to Sequence Model”也就是序列到序列模型,两者有一些细节上的差异,但总体大致思想基本相同。seq...原创 2020-02-17 20:39:36 · 497 阅读 · 0 评论