- 博客(7)
- 收藏
- 关注
原创 彻底搞懂广义表-求其深度的代码(递归)【数据结构】
完全搞懂广义表最难部分!求深度!假设你已经知道了广义表长什么样(一堆括号、图像长得挺像二叉树。网课可以很快理解) 且对递归有一点熟悉了,接下来我们审题
2024-10-25 00:07:38
935
原创 Datawhale X 李宏毅苹果书AI夏令营P 5-3
在图像识别中,我们往往不需要看整张图像,只需看局部的特征,如鸟的嘴巴、眼睛等。图像中的同一模式(如猫的耳朵)可能会出现在图像的不同区域。为了检测这些模式,我们可以在不同区域使用相同的检测方法。除了图像识别,卷积神经网络还可以用于下围棋。例如,AlphaGo使用卷积神经网络来分析棋盘,并预测最佳的下一步棋。卷积神经网络通过共享参数来处理这些重复的模式,这样不仅减少了计算量,还使得网络能够在不同位置检测相同的特征。卷积神经网络中的神经元并不会处理整张图像,而是专注于局部的区域,这些区域被称为感受野。
2024-09-03 23:18:30
674
原创 Datawhale X 李宏毅苹果书 AI夏令营P 5-2
想象你在做数学作业,而不是每道题做完后再去检查答案,你可以做一组题(比如10道),然后一次性检查所有题目。计算机在学习的时候也会这样,把数据分成一组一组的来学习,这一组数据就叫做“批量”。在学习的过程中,计算机会根据学习的进展调整它学习的速度。就像当你学骑自行车时,刚开始可能会慢一点,但掌握技巧后,你可以骑得更快。自适应学习率就是让计算机根据需要调整它的学习速度。动量法就是让计算机在学习时,不仅考虑当前的学习,还考虑之前的学习,这样它可以更快地找到正确答案。//没学线代 看不太懂。
2024-08-30 19:46:32
213
原创 Datawhale X 李宏毅苹果书AI夏令营5-2
训练数据用来训练模型,测试数据用来评估模型。:一种优化方法,通过计算损失函数相对于参数的梯度来更新参数,使损失最小化。:控制模型学习步伐的参数,学习率过大可能导致模型不稳定,过小则可能训练速度过慢。
2024-08-30 19:42:16
534
原创 Datawhale X 李宏毅苹果书 AI夏令营P 5-1
当我们无法直接知道整个损失函数的形状时,可以使用泰勒级数近似来估算损失函数在某个点附近的样子。通过这两个步骤,我们可以判断出一个临界点是局部极小值还是鞍点,从而决定是否继续优化神经网络。同时报的入门和进阶,高数和线代内容暂时没法实践和理解。海森矩阵是一个二阶导数矩阵,可以帮助我们判断临界点的类型。通过数学方法判断临界点是局部极小值还是鞍点。步骤2:使用海森矩阵判断。步骤1:泰勒级数近似。
2024-08-27 23:10:04
635
1
原创 Datawhale X 李宏毅苹果书AI夏令营5-1
局部最小值和全局最小值:有时候我们找到的最小点并不是全局最小值,而是一个“局部最小值”,这可能不是最好的结果,可能还得通过别的办法继续找。比如,我们预测今天的观看次数是5300次,但实际是4900次,那么损失就是这两者的差距。它就像爬山或者下山,找到一个点,使得在这个点附近,损失值是最小的。优化就是调整w和b的数值,找到最合适的值,使损失L最小。计算所有预测值和实际值之间的平均差距,得到一个总的损失值(L)。回归: 预测一个具体的数字,比如预测明天的空气质量指数。
2024-08-27 21:21:35
199
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅