深度学习
csdn_inside
这个作者很懒,什么都没留下…
展开
-
tensorflow 迁移学习 transfer learning
在各种神经网络结构中,前面很多层(卷积、池化)可以看做是特征提取的过程,比如提取图像的各种纹理、颜色、线条等等。最后几层(全连接层),一般将提取好的特征进行压缩,用于分类。 训练大型网络,需要很好的设备,也需要很长的时间。迁移学习,就是将一个问题上训练好的模型参数,通过简单的调整使其适用于一个新的问题,一般保留前面N层(瓶颈层)的参数,重新训练最后的全连接层,这样做,可以节省大量时间,得到的效果...原创 2019-01-22 20:49:46 · 613 阅读 · 0 评论 -
【笔记】吴恩达 深度学习 序列模型 第二周 知识点总结
第二周主要讲Word Vectors(Word Embeddings),具体的可以看: cs224n Lecture 2 :Word2Vec Skip-Gram CBOW Negative Sampling 总结 cs224n Lecture 3: GloVe skipgram cbow lsa 等方法对比 / 词向量评估 /超参数调节 总结 GloVe :Global Vectors 全局...原创 2019-02-23 17:50:26 · 327 阅读 · 0 评论 -
【笔记】吴恩达 深度学习 序列模型 第一周 知识点总结
大约半年前在coursera上学完了Ng的深度学习,受益匪浅。只不过时间长了,有的知识点也忘了。趁着寒假宅家,索性复习总结一遍。 第一周主要引入了循环神经网络,然后介绍了其基本结构,随后抛出普通RNN的问题(不能记录先前信息、梯度消失等),引出用于解决这些问题的改进RNN结构——GRU和LSTM,最后介绍了双向RNN和深层RNN。 Why sequence models 这一小节,介绍了...原创 2019-02-19 16:29:14 · 300 阅读 · 0 评论 -
吴恩达 深度学习 序列模型 第一周 编程作业二 字符级别语言模型项目 总结
Assignment 2 : Character level language model - Dinosaurus land 这个作业,是个小项目,很有意思,利用作业一中我们自己构建的RNN,来建立一个字符级别的语言模型。 背景:利用人类已经命名的恐龙名字,作为训练集,让模型知道某个字母(比如D)后面应该接什么字母(比如D-e-c-a-r-u-s),由此生成一系列新的恐龙名字。 当然这个项...原创 2019-02-20 11:40:29 · 436 阅读 · 0 评论 -
吴恩达 深度学习 序列模型 第一周 编程作业一 手动建立RNN LSTM 总结
Assignment 1 : Building a recurrent neural network - step by step 1.RNN Cell 这个函数用来计算RNN Cell。RNN Cell的结构和公式如下: 输入有三个:一个是该时刻的序列x<t>,一个是上一次传过来的信息激励a<t-1>。 parameters用于获取Cell的参数Wax、Waa...原创 2019-02-20 11:40:22 · 984 阅读 · 4 评论