![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 82
别点开,会变得不幸
酉鬼2333
废物本废
展开
-
吴恩达深度学习 C2_W1
C2_W1刚刚把大物的PPT做完,突然想起有什么东西好久没做了。于是赶紧对这一周的学习进行一个整理。训练_开发_测试集经过了第一部分深度学习神经网络概念的学习,我们对于神经网络是什么,长什么样,有什么作用,该如何构建,已经有了一个非常粗浅的了解(这点存疑)。在这一部分,我们将继续去学习如何有效运作神经网络,内容包括超参数调优,数据处理和算法优化等一系列保证神经网络正确且快速运作的方法。在建立一个神经网络时,我们首先要考虑如下一些问题:这些数据显然我们不能一下子就能够预测出最准确的值。因此,我们原创 2021-05-30 07:31:47 · 527 阅读 · 1 评论 -
吴恩达深度学习 C1_W4
C1_W4上周一直在忙着改申报书,所以直到现在才开始对第四周的学习进行整理(orz)。深度神经网络笑死根本没做(orz)。学到这里,我们对logistic回归和多层神经网络都有一个粗浅的概念了,上面的四个从左到右从上到下,分别为单层神经网络(logistic回归),双层神经网络,三层神经网络,多层神经网络。人工智能的初期阶段多用第一个浅层的神经网络,但是后来大家发现很多函数只有深层的神经网络才可以学习,将隐层数量看作一个可以自由选择数值大小的超参数(超参数是在开始学习过程之前设置值的参数,而原创 2021-05-18 22:25:18 · 138 阅读 · 0 评论 -
吴恩达深度学习 C1_W3
C1_W3鸽了很久的第三周学习。神经网络概览首先是我们上周主要学习的内容:接下来老师拿出了一个“简单的”神经网络:这里一共进行了两次最上面的操作。方括号里面加一个数字i,表示这个变量为第i层的变量,圆括号里加个i表示这一层的第i个变量。这里先把x1,x2,x3堆叠成一个矩阵,然后将这三个变量作为输入层,得到第一层的结果,然后将第一层的结果作为第二层的输入作为相同的运算我们想要的y hat。神经网络表示这一章节的内容和上一章节结合起来看比较好。首先是下面的三个英文单词,就是指输入层原创 2021-05-04 01:57:07 · 230 阅读 · 0 评论 -
吴恩达深度学习 C1_W2
C2_W2接下来我们开始第二周(?)的学习二分分类原创 2021-04-24 04:37:25 · 412 阅读 · 0 评论 -
吴恩达深度学习 C1_W1
C1_W11. 欢迎以下是我们这门课会学到的内容:1.了解神经网络和深度学习的基础,学习如何建立神经网络,深度神经网路以及如何用数据训练它,最后建一个深度神经网络去识别猫咪(有谁不喜欢小猫咪呢)事实上,深度学习和有很多关于猫和狗识别的课题,有兴趣的话可以了解一下:由一只猫看深度学习面临的挑战2.进行深度学习方面的实践,学习严密地构建神经网络,如何真正地让他表现良好,学习超参数的调整,正则化,如何诊断偏差和方差,以及一些高级优化算法。3.如何构建属于自己的机器学习工程原创 2021-04-10 02:02:03 · 147 阅读 · 0 评论 -
开始学习深度学习啦!
学习目标:学习一些关于深度学习的知识一个关于连python基础都没有学好却要去学深度学习的悲惨故事别点开,会变得不幸学习内容:主要是关于吴恩达老师对深度学习这门课的讲解:后续有待补充······(大概?别问,问就是鸽了)须知:1.首先这个博客是我自己写的用来娱乐和复习,所以描述语言用的都不是非常专业,有些地方甚至会有问题,欢迎大家前来沟通交流。2.因为是自己写的博客,所以比较针对自己的需要,代码的编译习惯可能也比较难懂,有些地方也不是详略有当,请见谅。3.本人非常讨厌画流程图,所以流程原创 2021-04-09 22:51:42 · 57 阅读 · 0 评论