deep learning
烊萌
欲戴王冠,必承其重;欲登高峰,必忍其痛;欲有大成,必有其梦。
展开
-
【超详细】【吴恩达课后作业】Course 1-神经网络与深度学习-第四周编程作业
前言 最近在学习吴恩达的深度学习课程,关于《神经网络和深度学习》已经学习完,刚编写完最后一周的作业,这次任务主要是设计一个L层网络,每次网络的节点数也可以自己设置,现附上整个设计过程,供大家学习讨论!若有不对的地方,希望大家不吝赐教,谢谢! 一、整个流程1、处理数据先下载数据:https://pan.baidu.com/s/1VhQeol_eSYLoANO...原创 2019-06-16 14:40:04 · 2826 阅读 · 8 评论 -
【momentum&Adam】对梯度下降法进行优化,加快训练速度
前言 这一篇博客是在上一篇博客的基础上对网络训练使用梯度下降法进行改进,加快训练的速度,主要从两方面进行改进:(1)对数据集进行分割,以部分数据集为单位进行梯度下降;(2)分别采用momentum和Adam算法进行梯度下降,加快收敛速度。上一篇博客:采用L2正则化和随机删除节点的L层神经网络 最后,如果有写得不对的地方,希望大家不吝赐教,谢谢!一、主要任务:...原创 2019-06-25 12:38:42 · 822 阅读 · 0 评论 -
采用L2正则化和随机删除节点的L层神经网络
前言 这段时间在学习吴恩达的《神经网络和深度学习》课程,在前一篇博客:设计L层网络中有详细介绍如何设计一个L层网络,这篇博客是在前一篇的基础上加上了以下任务:(1)对w和b的三种不同的初始化;(2)是否采用L2正则化;(3)是否随机删除节点。所以如果对网络的实现部分还有不理解的地方,可以看看我的前一篇博客,会有帮助。 最后,如果有什么写得不对的地方,希望大家不吝赐教,谢...原创 2019-06-23 14:22:17 · 502 阅读 · 1 评论 -
Tensorflow入门--用tensorflow实现一个三层的神经网络
前言 这段时间在学习吴恩达的深度学习视频,前面博客中一直在利用numpy自己构造网络框架实现前向传播、损失函数、反向传播、优化等,在这一篇博客中将实现利用tensorflow库里的函数直接实现上面所说的功能,使整个程序更加简洁。 最后,如果有写得不对的地方,希望大家不吝赐教,谢谢!Tensorflow入门一、怎样实现Tensorflow代码步骤(1)创建...原创 2019-07-01 10:45:28 · 8299 阅读 · 6 评论