深度学习
文章平均质量分 61
sLuca_Tian
这个作者很懒,什么都没留下…
展开
-
吴恩达卷积神经网络学习笔记【第二周 深度卷积神经网络】
吴恩达卷积神经网络学习笔记【第二周 深度卷积神经网络】目录吴恩达卷积神经网络学习笔记【第二周 深度卷积神经网络】2.1实例探究2.2 经典网络LeNetAlexNetVGG-16 VGG-192.3残差网络2.1实例探究在图像识别方面 效果好的神经网络框架往往具有借鉴性;2.2 经典网络推荐了两篇论文 AlexNet大概有6000w参数 而 LeNet只有60K 因此AlexNet可以识别区分很多相似的特征VGG网络结构很有规律 图像缩小和信道增加...原创 2021-03-20 14:31:15 · 207 阅读 · 0 评论 -
吴恩达卷积神经网络学习笔记【第一周 卷积神经网络】
第一周 卷积神经网络目录第一周 卷积神经网络1.1 计算机视觉1.2 1.3 边缘检测1.4 Padding1.5 卷积步长1.6 卷积为何有效1.7 单层卷积网络1.8 简单卷积网络示例1.9 池化层1.9.1最大池化1.9.2平均池化1.10 采用全连接的卷积神经网络示例1.11为什么使用卷积1.1 计算机视觉如果采用深度神经网络的话需要大量的存储单元 计算量极大 因此如果要处理 例如1000*1000*3的图片 引入卷积这一操作。.原创 2021-03-19 22:54:50 · 137 阅读 · 0 评论 -
吴恩达深度学习笔记【第四周 深层神经网络】
第四周---神经网络基础目录第四周---神经网络基础4.1深层神经网络4.1深层神经网络神经网络的层数不计算输入层 只包含隐藏层和输出层可以逐渐加高隐藏层L进行效果测试 n[5] = 为第五层的节点数目## 4.2深层神经网络中的前向传播 如何在深层神经网络中有效进行正向和反向传播 利用L 在 for循环中 计算每一层的数据 ## 4.3核对矩阵的维度 ## 为什么用深层表示...原创 2021-03-19 17:20:07 · 134 阅读 · 0 评论 -
吴恩达深度学习笔记【第三周 浅层神经网络】
第三周 浅层神经网络目录第三周 浅层神经网络3.1神经网络概览3.2神经网络表示(图形的意义)3.3计算神经网络的输出3.4多个例子中的向量化3.5向量化实现的解释3.6激活函数3.7为什么需要非线性激活函数3.8激活函数的导数3.9神经网络的梯度下降法3.10直观理解反向传播3.11随机初始化3.1神经网络概览注:上标方括号表示不同的层 上标圆括号表示不同的样本3.2神经网络表示(图形的意义)3.3计算神经网络的输出..原创 2021-03-18 22:44:52 · 124 阅读 · 0 评论 -
吴恩达深度学习笔记【第二周 神经网络基础】
第二周---神经网络基础目录第二周---神经网络基础2.1 二分分类2.2 logistic回归2.3 logistic 回归损失函数损失函数L(为0-正无穷 所有样本的损失函数L的求和平均值为成本函数J):成本函数J:2.4 梯度下降法(如何让利用梯度下降法寻找w b)2.5 2.6 导数2.7 2.8 计算图及其导数运算2.9 logistic回归中的梯度下降法2.10 m个样本的梯度下降法2.11 2.12 向量化及其更多例子2.13 向量化的l原创 2021-03-18 10:44:18 · 112 阅读 · 0 评论 -
吴恩达深度学习笔记 【第一周课程 简介】
目录P2什么是神经网络?1.Supervised Learning的应用:2.数据P4为什么深度学习会兴起?P2什么是神经网络?relu Function 价格不会为负多个输入 和限制条件 获得一个预测价格。只需要输入x 就会得到y 所有的中间过程它都会自己完成。理解:这是一个监督学习的例子,输入多个有关特征的x,y值 神经网络会自己计算每一条边的权值 计算得到一个x到y的精准映射函数。问题:隐藏层的节点的层数如何确定 ? 人为确定吗? 这个例子...原创 2021-03-16 17:51:44 · 68 阅读 · 0 评论