- 博客(7)
- 收藏
- 关注
原创 吴恩达深度学习—超 参 数 调 试 、 Batch 正 则 化 和 程 序 框 架(第二课第三周)
如图为要处理的参数 ,用红色框圈起来的学习率最为重要,黄色框圈起来的参数𝛽,隐藏单元,mini-batch 的大小是其次比较重要的,然后是紫色框圈起来的层数,学习衰减率。事实上,基本从不调试𝛽1,𝛽2和𝜀,默认其分别为 0.9,0.999 和10**−8。在早一代的机器学习算法中,常见的做法是在网格中取样点,如左图,然后系统的研究这些数值。这里我放置的是 5×5 的网格,实践证明,网格可以是5×5,也可多可少,但对于这个例子,你可以尝试这所有的 25 个点,然后选择哪个参数效果最好。
2024-06-19 21:52:53
891
原创 吴恩达深度学习第二门课第一周——深度学习的实践层面学习笔记
本周将学习如何有效运作神经网络,内容涉及超参数调优,如何构建数据,以及如何确保优化算法快速运行,从而使学习算法在合理时间内完成自我学习。
2024-06-16 11:02:33
1202
原创 用python实现识别图像中的文字
主要使用的是paddleocr库(一个基于PaddlePaddle的OCR(光学字符识别)库),安装这个库之前还需要安装其依赖项lmbd(是一个C库,用于存储键值对的数据库),而安装lmdb,又需要安装一个名为patch-ng。
2024-06-03 19:49:16
520
原创 吴恩达深度学习第一门课第四周—深层神经网络学习笔记
目前为止我们学习了只有一个单独隐藏层的神经网络的正向传播和反向传播,还有逻辑回归,并且还学到了向量化,这在随机初始化权重时是很重要。本周所要做的是把这些理念集合起来,就可以执行你自己的深度神经网络。复习下前三周的课的内容:1.逻辑回归,结构如下图左边。一个隐藏层的神经网络,结构下图右边:注意,神经网络的层数是这么定义的:从左到右,由 0 开始定义,比如上边右图,𝑥1、𝑥2、𝑥3,这层是第 0 层,这层左边的隐藏层是第 1 层,由此类推。如下图左边是两个隐藏层。
2024-06-03 19:13:42
635
原创 吴恩达深度学习第一门课第二周—神经网络的编程基础学习笔记
在这个图中,横轴表示你的空间参数𝑤和𝑏,在实践中,𝑤可以是更高的维度,但是为了更好地绘图,定义𝑤和𝑏,都是单一实数,代价函数(成本函数)𝐽(𝑤, 𝑏)是在水平轴𝑤和𝑏上的曲面,因此曲面的高度就是𝐽(𝑤, 𝑏)在某一点的函数值。我们所做的就是找到使得代价函数(成本函数)𝐽(𝑤, 𝑏)函数值是最小值,对应的参数𝑤和𝑏。由于逻辑回归的代价函数(成本函数)𝐽(𝑤, 𝑏)特性,必须定义代价函数(成本函数)𝐽(𝑤, 𝑏)为凸函数。
2024-05-23 20:49:54
1075
原创 吴恩达深度学习第一门课第三周—浅层神经网络学习笔记
这一周主要学习的是含有一个隐藏层的神经网络 ,它的样子如下图:图中从左到右分别为 输入层,隐藏层,输出层。在上一周学习的逻辑回归中,通过直接计算𝑧得到结果𝑎。而这个神经网络中,需要重复计算两次𝑧和𝑎,(每一个圆圈都代表了两步运算,分别为计算z和𝑎),最后得到了最终的输出。同样在逻辑回归中学习了从后向前的计算用来计算导数𝑑𝑎、𝑑𝑧,在神经网络中也有从后向前的计算,看起来就像这样,最后会计算𝑑𝑎[2] 、𝑑𝑧[2],计算出来之后,然后计算计算𝑑𝑊[2]、𝑑𝑏[2] 等。
2024-05-22 21:29:30
1091
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人