![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 93
小灰灰的大灰灰
嘿嘿
展开
-
深度学习-损失、优化器
L1的Smooth loss可以用汉书表示为,挺好的,结合了L1、L2的优点。L2的loss可以用汉书表示为,0点可导,但远处容易梯度爆炸。优化器的最终目标是最小化Loss函数,从而优化网络本身参数。又名随机梯度下降,前期算法没有增加动量,目前是一类动量法。L1的loss可以用函数表示为,挺好的,就是0点不可导。它包含了 learning rate 和 函数两部分。优化参数的过程可以表示为如下,其中。此文仅供学习使用,禁止其他用处。Momentum-动量法。原创 2023-03-13 13:48:48 · 390 阅读 · 0 评论 -
深度学习---聚类
聚类聚类解释:将n个数据,按照某种约定来描述他们的相似度,分成k种种类,每种种类内具有很高的相似度,而种类间相似度很低。K-means处理过程:随机选取K个点作为聚类中心,剩下的点根据到聚类中心的距离不同,分配到不同类别中对每种种类进行均值处理,结果作为聚类中心重复2、3直到结果不变...原创 2020-07-13 11:52:47 · 964 阅读 · 0 评论