![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
ipv-tao
这个作者很懒,什么都没留下…
展开
-
使用chatGPT编写的self-attention模块
self-attention原创 2022-12-08 18:39:52 · 323 阅读 · 0 评论 -
对深度学习中一些模块的理解
残差单元对原始的输出进行差分残差单元的解决了什么问题?梯度消失(差分突出了变化);使得加深网络深度很work。inception单元split-transform-merge加宽网络,更好的选择特征。Squeeze and Excitation对特征图的通道产生一个权重进行选择。卷积核1x13x31x33x1SENetResneXtSE_ResNeXt...原创 2020-04-21 17:55:27 · 520 阅读 · 0 评论 -
基于PaddlePaddle实现多分类的Focal Loss
在网上找了一下,有一位博主尝试写了一个,但是没有实现类别平衡。于是我继续了这位博主的工作,添加了类别平衡。在我的数据集上表现的很好。 这几天做一个图像分类的项目,每个标签的训练集数量差别很大,分类难易程度差别也很大,于是想用Focal Loss试一下,但是PaddlePaddle的函数库没有实现这个损失函数。 Focal Loss的理解可以看这一篇文章。首先看一下使用Focal Loss...原创 2020-03-28 10:48:51 · 1966 阅读 · 4 评论