- 博客(19)
- 资源 (1)
- 收藏
- 关注
原创 吴恩达 深度学习 编程作业(2-1)- Initialization & Regularization & Gradient Checking
Part 1:Initialization、Part 2:Regularization、Part 3:Gradient Checking
2017-09-29 20:56:49 14962 37
原创 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(2-1)-- 深度学习的实践方面
改善深层神经网络:超参数调试、正则化以及优化 ---- 深度学习的实践方面
2017-09-28 17:00:57 18346 14
原创 吴恩达 深度学习 编程作业(1-4)- Building your DNN & DNN for Image Classification: Application
Part 1:Building your Deep Neural Network: Step by Step Part 2:Deep Neural Network for Image Classification: Application
2017-09-26 10:18:13 32213 61
原创 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-4)-- 深层神经网络
神经网络和深度学习 ------- 深层神经网络
2017-09-25 17:42:15 14732 4
原创 吴恩达 深度学习 编程作业(1-3)- Planar data classification with one hidden layer
Planar data classification with one hidden layer 利用浅层神经网络实现平面数据分类
2017-09-22 22:11:52 21735 44
原创 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-3)-- 浅层神经网络
神经网络和深度学习 -------- 浅层神经网络
2017-09-22 10:14:23 19451 7
原创 吴恩达 深度学习 编程作业(1-2)- Python Basics with Numpy & Logistic Regression with a Neural Network mindset
Part 1:Python Basics with Numpy (optional assignment)Part 2: Logistic Regression with a Neural Network mindset
2017-09-21 21:18:41 75402 89
原创 吴恩达Coursera深度学习课程 DeepLearning.ai 提炼笔记(1-2)-- 神经网络基础
神经网络和深度学习 --------- 神经网络基础
2017-09-20 21:14:18 36962 24
原创 TensorFlow图像数据处理
TensorFlow图像数据处理 作者: 大树先生 博客: http://blog.csdn.net/koala_tree GitHub:https://github.com/KoalaTree 2017 年 09 月 18 日–自《TensorFlow实战Google》在卷积神经网络的训练过程中,图片的很多因素都会对训练数据产生很大的影响,进而影响神经网络模型的训练;同时也
2017-09-18 17:14:19 4653
原创 迁移学习的TensorFlow实现
迁移学习的TensorFlow实现迁移学习,就是将一个问题上训练好的模型通过简单的调整使其适用于一个新的图像分类问题。下面通过卷积神经网络的Inception-v3模型中所有卷积层的参数,只是替换最后一层全连接层。在最后这一层全连接层之前的网络层称之为瓶颈层。一般来说,在数据量足够的情况下,迁移学习的效果不如完全重新训练;但是迁移学习所需要的训练时间和训练样本的个数要远远小于训练完整的模型。模型和数
2017-09-14 15:37:08 3867 3
原创 动态规划问题
动态规划动态规划方法通常用来求解最优化问题。问题可以有很多可行解,每个解都有一个值,我们希望寻找具有最优值的解。这样的解为问题的一个最优解(an optimal solution),而不是最优解(the optimal solution),因为可能有多个解都达到最优值。
2017-09-04 22:57:39 1537
原创 增强学习(Reinforcement Learning)
增强学习(Reinforcement Learning)1. 增强学习基础Q-learningDQNDouble DQN
2017-09-02 10:48:48 2911
原创 生成对抗网络-GAN
生成对抗网络-GAN1. GAN基础2. 深度 GAN3. 条件 GAN4. Info GAN5. Wasserstein GAN
2017-09-01 15:59:41 7263
原创 卷积网络循环网络结合-CNN+RNN
卷积网络循环网络结合-CNN+RNN1. CNN+RNN相同点都是传统神经网络的扩展;前向计算产生结果,反向计算进行模型的更新;每层神经网络横向可以多个神经元共存,纵向可以有多层神经网络连接。不同点CNN进行空间扩展,神经元与特征卷积;RNN进行时间扩展,神经元与多个时间输出计算;RNN可以用于描述时间上连续状态的输出,有记忆功能;CNN则用于静态输出;CNN高级结构可以达到100+深
2017-09-01 09:29:16 41342 8
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人