自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 吴恩达deeplearning第二周作业

参考【目录】【中文】【deplearning.ai】【吴恩达课后作业目录】_何宽的博客-CSDN博客_吴恩达课后作业目的:搭建一个能够【识别猫】的简单的神经网络。先试着查看一下训练集中的图片:PS:在pycharm里会出现无法显示Matplotlib绘图的情况,这是由于matplotlib.imshow()导致的,在绘图参数等语句和plt.imshow()之后加上plt.show(),即可正常显示Matplotlib绘图。改变index的值,可以查看不同的图片,eg分别将index的值改为3

2022-01-07 15:58:42 1091

原创 吴恩达深度学习课程学习笔记 第四周 深层神经网络

上周的小尾巴~【3.11 随机初始化】训练神经网络时,随机初始化权重非常重要,对于logistic回归,可以将权重初始化为0。但如果将神经网络的各参数组全部初始化为0,再使用梯度下降算法,将会无效。原因:设有两个输入特征,给W全部初始化为0,两个隐藏单元在做一样的事,用0.01而不是100、1000的原因: 计算tanh或sigmoid函数时,如果权重过大(W很大,就会落在z很大地方),计算激活函数时,或落在函数图像两端斜率小平缓的部分,即会导致tanh或sigmo...

2021-10-09 17:03:03 100

原创 吴恩达深度学习课程学习笔记 第三周 浅层神经网络(中)

【3.5 向量化实现的解释】对不同训练样向量化的神经网络,四个矩阵的行表示神经元个数,列表示样本数目m到目前为止,我们使用的激活函数只有函数有很多种激活函数,sigma函数知识其中的一种选择...

2021-09-24 19:17:07 1056

原创 吴恩达深度学习课程学习笔记 第三周 浅层神经网络(上)

【3.1 神经网络概览】如何实现一个神经网络?注:x表示输入特征,参数W和b,中的[1]表示神经网络的“层”,表示与节点相关的量,区分的(i)-表示单个训练样本。把很多个sigmoid单元堆叠起来构成一个神经网络,节点对应类似z和a的计算。也可进行反向计算。【3.2 神经网络表示】例:单隐层神经网络,也称双层神经网络(输入层为第0层)=x可表示输入层,a"激活“; 为隐藏层,隐藏层中的值在训练集中无法看到,本例中的是一个四维向量(矩阵形式:紫色字体)..

2021-08-27 22:18:31 104

原创 吴恩达深度学习课程学习笔记 第二周 神经网络基础(2.15-)

2.15 Python中的广播广播是一种手段,可以让代码段执行更快eg:注:axis=0为竖直相加使用reshape()函数来对矩阵设定所需的维度,可以保证矩阵运算正确python广播通用规则:对不同维度的矩阵进行四则混合运算时,至少保证有一个维度是相同的。让所有输入数组都向其中shape最长的数组看齐:例如上图中第二行,第二个矩阵只有一行,进行运算时,再复制一行(如蓝色字体),变为(2,3)的矩阵,再与第一个矩阵中的元素对应相加。2.16 关于pytho..

2021-08-27 13:25:53 105

原创 吴恩达深度学习课程学习笔记 第二周 神经网络基础(下)

【2.8 计算图的导数计算】偏导数 链式法则eg:J对v的求导就是完成了一步反向传播v比原来增加0.001时,J比原来增加0.003,是v增量的三倍【2.9 logistic回归中的梯度下降法】计算偏导数来实现logistic回归中的梯度下降法 单个训练样本的logistic回归中的梯度下降法: logistic回归的公式:logistic回归中单个样本的导数计算图计算(偏导数流程图):设样本只有两个x1和x2,为了计算z,需输入w1,w2,b。变.

2021-08-20 17:57:04 138

原创 吴恩达深度学习课程学习笔记 第二周 神经网络基础(上)

m个样本的训练集,用for循环。实际上,遍历整个训练集,并不需要直接使用for循环。【2.1二分分类】神经网络的计算过程通常有一个正向过程(正向传播步骤),和一个反向步骤(反向传播步骤)。神经网络的计算过程可以分为前向传播和反向传播。用logistic回归来阐述,logistic回归是一个用于二分分类的算法。引例:二分分类问题假如有一张图片作为输出,想输出识别此图的标签:如果是猫,输出1;如果不是,则输出0。用y来表示输出的结果标签。一张图片,在计算机中是如何...

2021-08-13 11:16:52 196

原创 吴恩达深度学习课程笔记 第一周 深度学习概论

深度学习——训练神经网络【1.2什么是神经网络】举例:假设有一个数据集,组成元素为6间面积不同的房屋,已知这6间房屋的面积与价格,想找到一个函数来根据房屋面积来预测房价:根据线性回归拟合ReLu function(rectified linear unit)线性修正单元例如房屋价格总不能是负的,rectified 修正表示的取的都是不小于零的值neuron神经元:输入面积,完成运算,取不小于0的值,得出预测价格(这是一个单个的神经元,复杂...

2021-08-12 17:46:47 200

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除