ML
文章平均质量分 72
GYHlf
这个作者很懒,什么都没留下…
展开
-
卷积神经网络(Datawhale X 李宏毅苹果书AI夏令营)
全连接网络是弹性最 大的。全连接网络可以决定它看整张图像还是只看一个范围,如果它只想看一个范围,可以 把很多权重设成 0。但加上感受野的概念以后,只能看一个小范围,网络的弹性是变小的。参数共享 又进一步限制了网络的弹性。本来在学习的时候,每个神经元可以各自有不同的参数,它们 可以学出相同的参数,也可以有不一样的参数。但是加入参数共享以后,某一些神经元无论 如何参数都要一模一样的,这又增加了对神经元的限制。而感受野加上参数共享就是卷积层 (convolutional layer)原创 2024-09-03 21:40:14 · 1162 阅读 · 0 评论 -
深度学习基础(Datawhale X 李宏毅苹果书AI夏令营)
在神经网络中,当优化到梯度为0的地方,梯度下降就无法继续更新参数了,训练也就停下来了,如图:梯度为0的情况包含很多种情况:局部最小值、鞍点等。我们统称为临界值。原创 2024-08-27 21:11:38 · 742 阅读 · 0 评论 -
贝叶斯回归
简单来说,贝叶斯推断 (Bayesian inference) 就是结合“经验 (先验)”和“实践 (样本)”,得出“结论 (后验)”。贝叶斯推断把模型参数看作随机变量。在得到样本之前,根据主观经验和既有知识给出未知参数的概率分布叫做先验分布 (prior)。。(由因推出果)先验概率是指在实验或采样之前,根据以往经验和分析得到的概率。这是独立于具体实验的知识,通常不依赖于实际观测数据。例如,数学中的公式、重言式以及纯粹理性的演绎推理都属于先验知识1。原创 2024-05-01 23:06:00 · 300 阅读 · 0 评论 -
贝叶斯回归
简单来说,贝叶斯推断 (Bayesian inference) 就是结合“经验 (先验)”和“实践 (样本)”,得出“结论 (后验)”。贝叶斯推断把模型参数看作随机变量。在得到样本之前,根据主观经验和既有知识给出未知参数的概率分布叫做先验分布 (prior)。。(由因推出果)先验概率是指在实验或采样之前,根据以往经验和分析得到的概率。这是独立于具体实验的知识,通常不依赖于实际观测数据。例如,数学中的公式、重言式以及纯粹理性的演绎推理都属于先验知识1。原创 2024-05-01 23:04:47 · 726 阅读 · 0 评论 -
正则化回归
L1正则化是回归参数各个元素绝对值之和。原创 2024-04-30 23:33:17 · 610 阅读 · 0 评论