- 博客(7)
- 收藏
- 关注
转载 linux安装latex教程
http://www.360doc.com/content/19/0126/22/52645714_811482441.shtml
2021-05-18 16:07:14 510
转载 回归损失函数1:L1 loss, L2 loss以及Smooth L1 Loss的对比
https://www.cnblogs.com/wangguchangqing/p/12021638.html
2021-04-19 19:02:38 280
转载 Focalloss详细解释
撤销:Ctrl/Command + Z重做:Ctrl/Command + Y加粗:Ctrl/Command + B斜体:Ctrl/Command + I标题:Ctrl/Command + Shift + H无序列表:Ctrl/Command + Shift + U有序列表:Ctrl/Command + Shift + O检查列表:Ctrl/Command + Shift + C插入代码:Ctrl/Command + Shift + K插入链接:Ctrl/Command + Shift +
2021-03-27 11:56:03 242
转载 梯度消失和梯度爆炸问题详解,学习率、权重衰减、动量
https://www.jianshu.com/p/3f35e555d5bahttps://blog.csdn.net/rocling/article/details/92828799
2020-08-24 10:25:24 967
转载 2020-08-22熵 交叉熵 交叉熵损失函数
https://cloud.tencent.com/developer/article/1424525
2020-08-22 10:23:33 162
原创 卷积操作和池化操作输入矩阵尺度变化
卷积操作后N = (W − F + 2P ) / S + 1输入图片大小 W×W Filter大小 F×F 步长 S padding的像素数 P注意:如果计算结果不为整数,pytorch会自动舍弃最后一行和一列池化操作后N = (W − F ) / S+ 1注意:如果计算结果不为整数,pytorch会自动向上取整...
2020-06-04 14:38:59 257
原创 torch.max()参数和用法解释
torch.max(intup)返回input矩阵的最大值torch.max(intup,dim)dim = 0 按照列取最大值和索引并返回dim = 1 按照行取最大值和索引并返回
2020-06-03 11:48:05 1853
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人