2017吴恩达深度学习
快乐成长吧
努力努力再努力!
展开
-
吴恩达2017深度学习作业-c1w2-Logistic Regression with a Neural Network mindset
Welcome to your first (required) programming assignment! You will build a logistic regression classifier to recognize cats. This assignment will step you through how to do this with a Neural Network m...原创 2019-05-25 23:17:27 · 385 阅读 · 0 评论 -
吴恩达2017深度学习作业-c1w3-Planar data classification with one hidden layer
一、前言 可以去github下载,目录如下,主要是标记的三个文件就可以完成作业。第一个ipynb就是下面次序来的,按照一步一步进行即可,但是要先下载后面两个py文件,在本文后面附上了,下载好后你就可以运行作业,看作业效果啦。 我觉得很巧妙的地方: 1预测时: . 但也有人用了—————— predictions = np.round(A2) 超级赞呢! 2、梯度的计...原创 2019-05-27 22:16:03 · 363 阅读 · 1 评论 -
吴恩达2017深度学习作业-c1w4-Deep Neural Network for Image Classification: Application
放项目目录: 4_1是基础,一些函数,4_2是本次作业的ipynb文件,其中需要用的函数来自于dnn_utils_v2.py咯。这个py文件算是底层代码了哈,可以好好看看消化一下,等会在文末附上。 When you finish this, you will have finished the last programming assignment of Week 4, and al...原创 2019-06-03 16:20:00 · 337 阅读 · 0 评论 -
2017年吴恩达深度学习问题积累
问题1 多元逻辑回归 这里得到N个模型二分类器后,接下来怎么办?我主要是对红圈这里不知道怎么操作的,难道是将一个新的样本输入到N个二分类器,然后看谁的概率大就认为是哪类吗?还是说N个模型分类器会综合融合到一个模型中?这里很糊涂,请老师帮忙解释一下。 答:前者 问题2 差别 交叉熵损失函数 二元逻辑回归 多元逻辑回归 Softmax回归 https://blog.csdn.net...原创 2019-06-15 21:40:09 · 150 阅读 · 0 评论 -
吴恩达2017深度学习作业-c2w1-Optimization Methods(下)
这次作业其实总的来说花费了很长时间,主要是自己不能集中去写代码,第二是基础知识很多不扎实,很多需要查,但是我查也不是深究,我就简单记录一下用法,主要还是需要多用。每次都小结一下。 前面一些错误的点: s["dW" + str(l+1)] = beta2 * s["dW" + str(l+1)] + (1-beta2)* np.square(grads["dW" + str(l+1)]) ...原创 2019-06-26 00:24:47 · 370 阅读 · 0 评论 -
吴恩达2017深度学习作业-c2w2-TensorFlow Tutorial(上)
TensorFlow Tutorial 欢迎来到本周的编程作业。到目前为止,您一直使用numpy来构建神经网络。现在我们将带领你通过一个深度学习框架,这将使你更容易地建立神经网络。机器学习框架,如TensorFlow、paddleblade、Torch、Caffe、Keras等,可以显著加快机器学习的开发。所有这些框架都有很多文档,您可以随意阅读。在这次作业中,你将学习在TensorFlow中做...原创 2019-06-27 19:36:07 · 329 阅读 · 0 评论 -
吴恩达2017深度学习作业-c2w1-Optimization Methods(上)
先看下下载题目后的目录: 本题目在Optimization Methods中。 Until now, you've always used Gradient Descent to update the parameters and minimize the cost. In this notebook, you will learn more advanced optimization ...原创 2019-06-24 23:13:11 · 380 阅读 · 0 评论