- 博客(7)
- 收藏
- 关注
原创 python控制台运行cv2.imshow()图像无法加载
导入后右边可以看见我们的img_path数据。接下来再使用cv2.imshow()是不行的。要使用cv2.waitkey(0)打开控制台,进行导入cv2库。使用绝对路径进行图像数据导入。
2025-09-09 09:47:54
231
原创 机器学习 day3
本文介绍了神经网络中的反向传播算法,通过将复杂求导问题分解为链式法则来简化计算。作者以z=(x+y)^2为例,说明如何将正向传播转换为反向传播,并应用链式法则进行求导。文章还通过Python实例演示了反向传播的实现:构建乘法层类Mullayer,计算2个苹果(单价100日元)和10%消费税的总金额(220日元),并展示了反向传播过程。该示例清晰地呈现了反向传播的基本原理和实现方法,为理解神经网络优化提供了实用参考。
2025-05-29 23:49:32
286
原创 机器学习day2 神经网络的梯度
本文介绍了神经网络中梯度下降法的实现过程。首先构建了一个简单的2*3权重矩阵神经网络,包含损失函数、激活函数和网络结构三个核心部分。通过实例化网络并输入测试数据,计算初始损失值。然后采用数值微分法计算梯度,进行100次权重迭代优化,每次更新权重矩阵并重新计算损失值。实验结果表明,经过优化后的损失函数值显著降低,验证了梯度下降法在神经网络权重优化中的有效性。整个过程展示了神经网络训练的基本流程:前向传播计算损失,反向传播更新权重,最终实现模型性能提升。
2025-05-28 00:50:39
394
原创 机器学习 day1
梯度是多元函数中各变量偏导数组成的向量,指向函数值上升最快的方向。本文通过代码实现展示了梯度下降法的原理:1)一元函数中,沿负梯度方向逐步调整参数可使函数值收敛到极小值;2)扩展到多元函数时,通过数值微分计算各变量偏导,同样采用负梯度方向更新参数。实验结果表明,梯度下降法能有效找到函数最小值点,其中学习率和迭代次数是关键参数。可视化结果直观展示了函数值收敛过程和参数优化轨迹,验证了梯度下降在优化问题中的有效性。
2025-05-27 22:21:34
310
原创 机器学习记录 day0
摘要:本文介绍了梯度下降法求解损失函数极值的方法。首先通过代码实现了高数中的导数定义,使用中心差分思想提高了求导精度。然后扩展到多元函数求导,通过对其他变量取定值处理来实现。文中展示了二元二次函数的求导示例,验证了代码实现的正确性。这些方法为神经网络自动学习模型权重提供了理论基础,是优化模型参数的重要工具。
2025-05-25 23:14:25
229
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1