- 博客(190)
- 收藏
- 关注
原创 【机器学习300问】91、如果数据集一开始就标注错了标签怎么办?
如果数据集一开始就标注错了标签怎么办?1、什么是标注错误?2、不同数据集中的标注错误对模型产生的影响?3、如何修正标注错误
2024-05-22 13:03:05 561
原创 【机器学习300问】88、什么是Batch Norm算法?
什么是Batch Norm?Batch Norm算法步骤、Batch Norm的好处。
2024-05-12 23:06:29 496
原创 【机器学习300问】87、学习率这种超参数在优化时选择随机搜索方法,为什么要在对数尺度范围进行随机搜索?
学习率这种超参数在优化时选择随机搜索方法,为什么要在对数尺度范围进行随机搜索?对数尺度随机搜索的步骤
2024-05-12 22:03:01 350
原创 【机器学习300问】86、简述超参数优化的步骤?如何寻找最优的超参数组合?
本文想讲述清楚怎么进行超参数优化?都有哪些重要的超参数?为什么要进行超参数优化?
2024-05-12 21:23:45 1095
原创 【机器学习300问】84、AdaGrad算法是为了解决什么问题?
一、学习率衰减。二、AdaGrad算法的原理。三、AdaGrad算法能解决哪些问题
2024-05-10 19:32:28 774
原创 【机器学习300问】83、深度学习模型在进行学习时梯度下降算法会面临哪些局部最优问题?
深度学习模型在进行学习时梯度下降算法会面临哪些局部最优问题?非凸函数的局部极小值、鞍点问题、平台区域。
2024-05-10 18:17:19 445 1
原创 【机器学习300问】82、RMSprop梯度下降优化算法的原理是什么?
一、通过举例来感性认识。二、通过定义来理性认识。三、RMSprop梯度下降优化算法的优点
2024-05-10 17:02:06 659
原创 【机器学习300问】81、什么是动量梯度下降算法?
1、基础梯度下降法:缓慢探索的徒步者。2、动量梯度下降法:带上滑板的探险者。3、通过定义来理性认识。4、动量梯度下降法的优点
2024-05-10 16:29:08 635
原创 【机器学习300问】79、Mini-Batch梯度下降法的原理是什么?
Mini-Batch梯度下降是BGD的一种改良方法,通过将整个数据集分成若干个小批次,每次只使用一个小批次的数据来更新梯度。这样既保留了BGD的一些优点,比如更准确地朝向极值所在的方向,又显著减少了每次迭代所需的计算量。
2024-05-09 19:44:03 1071 2
原创 【机器学习300问】78、都有哪些神经网络的初始化参数方法?
都有哪些神经网络的初始化参数方法?随机初始化、Xavier初始化、He初始化;选择方法的原则是什么?不同的激活函数选择不同的初始化参数方法、分析神经网络的深度和网络结构。
2024-04-20 01:50:36 1176
原创 【机器学习300问】77、什么是梯度消失和梯度爆炸?
梯度消失(Vanishing gradients)是什么?梯度爆炸(Exploding gradients)是什么?
2024-04-19 21:06:51 901
原创 【机器学习300问】76、早停法(Early Stopping)是如何防止过拟合的?
早停(Early Stopping)是如何防止过拟合的?早停是什么呀?通过验证集上的损失函数随迭代轮次变化的图像来帮助理解早停法,早停的具体实现细节,早停的优点与缺点。
2024-04-19 20:19:44 1074
原创 【机器学习300问】75、如何理解深度学习中Dropout正则化技术?
Dropout正则化的原理是什么?如何具体实现Dropout?为什么Dropout会起作用?它是怎么解决过拟合的?
2024-04-18 20:11:12 1042
原创 【机器学习300问】74、如何理解深度学习中L2正则化技术?
如何理解深度学习中L2正则化技术?包括L2正则化项的损失函数长什么样,L2正则化到底是怎么起作用的?微观上,对激活函数的影响。宏观上,对神经网络结构的影响。
2024-04-17 20:57:23 1152
原创 【机器学习300问】73、神经网络中有哪些常见超参数?
神经网络中的常见超参数举例。学习率、正则化参数、激活函数、网络深度、神经元数量、批量大小、迭代次数、Dropout比例
2024-04-17 19:52:49 1041
原创 【机器学习300问】72、神经网络的隐藏层数量和各层神经元节点数如何影响模型的表现?
评估深度学习的模型的性能依旧可以用偏差和方差来衡量。它们反映了模型在预测过程中与理想情况的偏离程度,以及模型对数据扰动的敏感性。我们简单回顾一下什么是模型的偏差和方差?神经网络的深度和节点数对模型性能有何影响?
2024-04-17 18:16:39 1602
原创 【机器学习300问】70、向量化技术来计算神经网络时维度如何确保正确?
向量化技术在进行神经网络计算时的优势,向量化技术来计算神经网络时维度如何确保正确?
2024-04-15 23:59:04 324
原创 【机器学习300问】69、为什么深层神经网络比浅层要好用?
深层神经网络在计算些什么?为什么要使用深层表示?不是所有神经网络任务都需要很深的层次。
2024-04-15 23:36:35 1377
原创 【机器学习300问】68、随机初始化神经网络权重的好处?
固定的初始化神经网络权重可能带来的问题。随机初始化神经网络权重的好处。打破对称性、避免梯度消失/爆炸、促进模型收敛
2024-04-14 23:15:21 623
原创 【机器学习300问】66、ReLU激活函数相对于Sigmoid和Tanh激活函数的优点是什么?ReLU它有局限性吗?如何改进?
ReLU激活函数相对于Sigmoid和Tanh激活函数的优点是什么?ReLU它有局限性吗?如何改进?
2024-04-10 21:07:08 1314
原创 【机器学习300问】65、为什么Sigmoid和Tanh激活函数会导致梯度消失?
什么是梯度消失现象?为什么Sigmoid和Tanh激活函数会导致梯度消失?
2024-04-10 19:58:18 587
手语识别-深度学习-自建ASL数据集-模型训练(分卷压缩第三卷/最后一卷)
2024-04-01
手语识别-深度学习-自建ASL数据集-模型训练(分卷压缩第二卷)
2024-04-01
手语识别-深度学习-自建ASL数据集-模型训练(分卷压缩第一卷)
2024-04-01
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人