自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(7)
  • 收藏
  • 关注

原创 吴恩达深度学习deeplearning.ai学习笔记(一)3.9 3.10 3.11

对于单隐层神经网络而言,主要参数就是,并且输入特征的维度可以记为,第一层有个隐藏单元,第二层有个输出单元,目前仅仅见过只有一个输出单元的情况;的维度是的维度是的维度是的维度是,成本函数为:训练神经网络时,随机初始化参数很重要,而不是全令其为0;每个梯度下降循环都要计算的预测值,即,然后要计算导数,即,最后更新参数,即正向传播过程为:那么反向传播求导数的方程怎么写?假设我们在做二元分类,则,方程如下:版本:m个样本Back Prop#注意。

2024-08-02 12:21:58 182

原创 吴恩达深度学习deeplearning.ai学习笔记(一)3.4 3.6 3.7 3.8

记住一条原则:横向堆叠就可遍历不同样本;版本2:Vectorized这些矩阵的维度怎么判断?首先从入手,显然是的矩阵;,它的列数是,而它的行数是,表示第一层的隐藏单元数;,它的列数是1,而它的行数是;,它的列数等于m,它的行数等于;的维数与保持一致;,它的列数等于,它的行数等于1,也等于是巧合吗?,是一个数,但是也可以说它的列数是1,而它的行数等于是巧合吗?,它的列数等于m,它的行数等于1,也等于;,它的维度与保持一致;

2024-08-02 08:55:11 257

原创 吴恩达深度学习deeplearning.ai学习笔记(一)3.1 3.2 3.3

一个典型的logistic回归如上图所,但这是计算图,并不是神经网络图;为了简化,假设是三维的即,并将logistic回归画成神经网络图:输入层由输入特征组成,也叫第0层,一般不计入神经网络层数,所以单个logistic回归就是单层神经网络,一般将输入层记为:圆形叫做节点,一个节点包含了两种运算:第一层运算:第二层运算:并且这个节点的输入是,输出是;方括号[]和它里面的数字表示了这是哪一层的参数;不改变节点对应的计算,让它变得复杂一些:第0层仍然是输入层;

2024-08-01 21:14:40 644

原创 吴恩达深度学习deeplearning.ai学习笔记(一)2.11 2.12 2.13 2.15 2.16 2.17

就相当于完成了所需的次操作;编程时,用表示转置后的矩阵,用表示两矩阵相乘;于是用一行代码就可以代替上面。

2024-08-01 17:30:44 602

原创 吴恩达深度学习deeplearning.ai学习笔记(一)2.7 2.9 2.10

其实在2.9节也早就求过了,当时是单样本下写成这样的:现在只不过要带上标了,以第个样本为例,扩展到。

2024-08-01 14:30:58 241

原创 吴恩达深度学习deeplearning.ai学习笔记(一)2.1 2.2 2.3 2.4

如果定义为,当你学习这些参数时,后面讨论优化问题时会发现函数是非凸的,最后会得到很多个局部最优解,在使用梯度下降法时可能找不到全局最优值;当然有人也去研究了非凸函数的优化,建议看看老吴的采访视频,有很多启发;我们通过定义损失函数来衡量你的预测输出值和实际值有多么接近,一般设计成损失函数的值越小,代表接近效果越好,常用的logistic回归的损失函数定义为:一个粗浅的理解是枚举,如果,则,训练时会往损失函数降低的方向前进,当损失函数尽量小时,会尽量大,

2024-08-01 11:26:39 683

原创 吴恩达深度学习deeplearning.ai学习笔记(一)1.2 1.3 1.4

表示输入特征。

2024-07-31 23:30:57 249

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除