- 博客(4)
- 问答 (1)
- 收藏
- 关注
原创 回归损失函数:L1 Loss,L2 Loss与Smooth L1 Loss的对比
对于大多数CNN网络,我们一般是使用L2-loss而不是L1-loss,因为L2-loss的收敛速度要比L1-loss要快得多。对于边框预测回归问题,通常也可以选择平方损失函数(L2损失),但L2范数的缺点是当存在离群点(outliers)的时候,这些点会占loss的主要组成部分。比如说真实值为1,预测10次,有一次预测值为1000,其余次的预测值为1左右,显然loss值主要由1000决定。所以FastRCNN采用稍微缓和一点绝对损失函数(smooth L1损失),它是随着误差线性增长,而不是平方增长。
2025-04-18 12:18:36
1354
原创 深度学习过程中遇见的问题及解决方法
pkl 是 Python 提供的标准序列化格式。序列化是将对象转换为二进制数据的过程,这样就可以将对象保存到文件中,以便后续加载使用。它非常适合在Python环境中保存和加载模型。pth 是 PyTorch 专门用来保存和加载模型的格式。与 pkl 不同,pth 格式只会保存模型的参数(即权重和偏置),不会保存模型的结构,故在加载模型时,需要定义或者导入模型结构,一般模型结构会单独保存到一个.py的文件中。
2025-04-12 18:32:31
1449
原创 数据结构总结
2.在一串数中,找到只出现奇数次的数(只有一个数出现奇数次,其余数都出现偶数次)进阶:找到两个出现奇数次的数(只有两个数出现奇数次,其余数都出现偶数次)2.在有序数组中,找>=某个数最左侧的位置,或找
2023-09-19 00:20:49
93
空空如也
只要使用BeginBatchDraw()就会报错,如何解决?
2023-04-03
TA创建的收藏夹 TA关注的收藏夹
TA关注的人