李宏毅机器学习
文章平均质量分 70
超级虚空
hypervoid
展开
-
【李宏毅机器学习】task06-卷积神经网络
经过卷积层和池化层降维过的数据,全连接层才能”跑得动”,不然数据量太大,计算成本高,效率低下,还会出现过拟合。具体的,如下图,我们定义一些卷积核函数,这些函数能表示图像中的特征,且可以通过组合卷积核来拼凑出完整的图像。这个部分就是最后一步了,经过卷积层和池化层处理过的数据输入到全连接层,得到最终想要的结果。并且也解释了,先对g函数进行翻转,相当于在数轴上把g函数从右边褶到左边去,也就是卷积的“然后再把g函数平移到n,在这个位置对两个函数的对应点相乘,然后相加,这个过程是卷积的“在概率论中,卷积表示成这样。原创 2022-11-24 00:31:47 · 128 阅读 · 0 评论 -
【李宏毅机器学习】task05-网络设计的技巧
在训练过程中,不可避免的会有局部最小值和鞍点的问题。它们的梯度都为0,我们把这两种点统称为临界点(Critical Point)当然为了防止陷入局部最小值,我们可以在学习率十分低时突然清零,跳出局部,看看最后收敛是否还在原来位置。如下图,下一步有梯度和学习率共同决定,随迭代次数逐渐增加,梯度会越来越小。我们需要梯度朝向损失函数小的地方,所以使用负特征值对应特征向量。:即使有一个段是局部最小值,其他部分不是,那么就不是局部最小值。,使梯度由当前梯度和历史梯度共同决定。为正定矩阵(所有特征值为正)时,原创 2022-11-24 00:31:00 · 267 阅读 · 0 评论 -
李宏毅机器学习-
李宏毅机器学习-1-机器学习介绍原创 2022-06-13 20:35:07 · 3306 阅读 · 1 评论