![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络与深度学习
cherry1307
这个作者很懒,什么都没留下…
展开
-
吴恩达神经网络与深度学习——深度学习概述
吴恩达神经网络与深度学习深度学习概述什么是神经网络?单个神经网络预测房价问题:多元神经网络用神经网络进行监督学习深度学习概述什么是神经网络?神经网络是手人脑启发而产生的一类学习算法单个神经网络预测房价问题:假设我们有6间房子的面积(平方英尺/平方米)及对应房子的价格,想要得到一个模型根据房子的面积预测房子价格。可以得到如下模型:由于房价不可能为负,所以y总是大于0所以,我们可以...原创 2018-11-02 09:17:29 · 440 阅读 · 0 评论 -
吴恩达卷积神经网络——深度卷积网络:实例探究
经典网络LeNet5随着网络的加深,图像的高度和宽度在缩小,信道数量增加池化后使用sigmoid函数AlexNet与LeNet相似,但大得多使用ReLu函数VGG-16网络大,但结构并不复杂图像缩小的比例和信道增加的比例是有规律的64->128->256->521残差网络非常深的网络是很难训练的,因为存在梯度消失和梯度爆炸问题。...原创 2018-11-26 12:29:27 · 242 阅读 · 0 评论 -
吴恩达卷积神经网络——卷积神经网络
计算机视觉相关问题:1)图像分类:2)目标检测:3)图像风格迁移:挑战:数据输入可能会非常大输入10001000的彩色图像,则需要输入的数据量为100010003 =3M,这意味着特征向量X的维度高达3M ,如果在第一隐藏层有1000个神经元,使用标准全连接,那么权值矩阵中将会有10003M=3B的参数。参数量过于庞大,难以获得足够的数据用来防止过拟合,并且需要存储3B数据的内存...原创 2018-11-24 11:28:00 · 389 阅读 · 0 评论 -
吴恩达改善深层神经网络参数:超参数调试、正则化以及优化——超参数调试、batch正则化和程序框架
调试处理一般情况下,需要调试的超参数顺序:怎样调试:在一个范围内,随机取值先大范围随机取值,然后局部取值为超参数选择合适的范围1.节点个数、网络层数——>随机均匀取值2.α——>随机对数取值r=-4*np.random.rand()alpha = 10^r3.ββ在接近1的时候会很敏感,可以更密集的取值...原创 2018-11-22 22:24:42 · 192 阅读 · 0 评论 -
吴恩达改善深层神经网络参数:超参数调试、正则化以及优化——深度学习的实用层面作业
初始化0初始化def zeros_initializations(layer_dims):""" argu: input: layer_dims:a list the size of each layer output: parameters:a dictionary contains the parameters of each layer{'W1','b1',原创 2019-03-07 10:00:20 · 192 阅读 · 0 评论 -
吴恩达改善深层神经网络参数:超参数调试、正则化以及优化——优化算法
机器学习的应用是一个高度依赖经验的过程,伴随着大量的迭代过程,你需要训练大量的模型才能找到合适的那个,优化算法能够帮助你快速训练模型。难点:机器学习没有在大数据发挥最大的作用,我们可以利用巨大的数据集来训练网络,但是在大数据下训练网络速度很慢;使用快速的优化算法大大提高效率mini-batch梯度下降法...原创 2018-11-15 11:42:59 · 277 阅读 · 0 评论 -
吴恩达神经网络与深度学习——深度神经网络习题4:构建DNN架构
吴恩达神经网络与深度学习——深度神经网络习题4构建DNN包作业大纲初始化2层NNL层NN前向传播2层NN线性部分激活函数线性+激活函数L层NN代价函数反向传播线性部分激活函数+线性部分构建DNNa^[l]:第l层的激活函数w^[l],b^[l]:第l层的参数x^(i):第i个训练样本a^[l]_i:第l层第i个神经元的激活函数包numpymatplotlibdnn_utils...原创 2018-11-03 12:06:23 · 912 阅读 · 0 评论 -
吴恩达改善深层神经网络参数:超参数调试、正则化以及优化——深度学习的实用层面
吴恩达改善深层神经网络参数:超参数调试、正则化以及优化——深度学习的实用层面训练/开发/测试集训练/开发/测试集在配置训练、验证和测试数据集的过程中做到正确决策会在很大程度上帮助大家创建高效的神经网络。训练神经网络时,我们要做很多决策:1.网络层数2.每层隐藏单元数3.学习速率4.各层激活函数我们不可能从一开始就准确测出这些信息和其他超参数。神经网络是一个高度迭代的过程,通常在项...原创 2018-11-04 12:53:20 · 337 阅读 · 3 评论 -
吴恩达神经网络与深度学习——深度神经网络习题4:DNN分类应用
吴恩达神经网络与深度学习——深度神经网络习题4DNN图像分类应用包数据集预处理2层NNL层NNDNN图像分类应用将上次实现的DNN应用于猫分类问题包import timeimport numpy as npimport h5pyimport matplotlib.pyplot as pltimport scipyfrom PIL import Imagefrom scipy ...原创 2018-11-04 12:33:16 · 1782 阅读 · 0 评论 -
吴恩达神经网络与深度学习——浅层神经网络习题3
吴恩达神经网络与深度学习——浅层神经网络习题3浅层神经网络包数据集X和Y的尺寸可视化逻辑回归神经网络定义神经网络结构初始化参数前向传播代价函数反向传播梯度下降model预测测试调整隐藏层大小其他数据集的性能浅层神经网络实现具有单个隐藏层的两分类神经网络使用具有非线性激活,如tanh计算交叉熵损失实现向前和向后传播包numpymatplotlibsklearn# Packag...原创 2018-11-02 09:20:40 · 525 阅读 · 0 评论 -
吴恩达神经网络与深度学习——浅层神经网络
吴恩达神经网络与深度学习——浅层神经网络神经网络概述神经网络表示计算神经网络的输出m个样本的向量化神经网络概述神经网络表示计算神经网络的输出m个样本的向量化X:(nx,m)竖向指标代表神经网络的不同节点,横向指标代表不同的训练样本...原创 2018-11-02 09:20:13 · 2501 阅读 · 0 评论 -
吴恩达神经网络与深度学习——神经网络基础习题1
吴恩达神经网络与深度学习——神经网络基础习题Building basic functions with numpysigmoid函数basic_sigmoid.pySigmoid 导数sigmoid_derivative.pyReshaping arraysimage2vector.pyNormalizing rowsnormalizeRows.pyBroadcasting and the sof...原创 2018-11-02 09:19:02 · 1501 阅读 · 0 评论 -
吴恩达神经网络与深度学习——神经网络基础习题2
吴恩达神经网络与深度学习——神经网络基础习题2神经网络逻辑回归判断图像上是否有猫神经网络逻辑回归判断图像上是否有猫#!/usr/bin/env python3# -*- coding: utf-8 import numpy as npimport matplotlib.pyplot as pltimport h5pyimport scipyfrom PIL import Ima...原创 2018-11-02 09:18:29 · 1083 阅读 · 0 评论 -
吴恩达神经网络与深度学习——神经网络概述
吴恩达神经网络与深度学习——神经网络基础神经网络基础2.1二分分类识别图像中是否有猫一些符号2.2logistic回归2.3 Logistic回归损失函数损失函数代价函数2.4 梯度下降梯度下降法的思想2.5导数2.6更多导数的例子2.7计算图神经网络基础2.1二分分类识别图像中是否有猫输入图像X为彩色图像大小为64*64,输出j结果标签y等于0时,图像中无猫,等于1图像中有猫。将输...原创 2018-11-02 09:17:56 · 390 阅读 · 0 评论 -
吴恩达神经网络与深度学习——深度神经网络
吴恩达神经网络与深度学习——浅层神经网络深层神经网络深层神经网络原创 2018-11-02 23:03:07 · 8383 阅读 · 0 评论