- 博客(6)
- 收藏
- 关注
转载 神经网络训练
不同的损失函数会对深度神经网络带来什么样的影响?二次损失函数会在神经元犯了明显错误的情况下使得网络学习缓慢,而使用交叉熵损失函数则会在明显犯错的时候学的更快。...
2018-07-11 14:36:02 188
转载 Evaluation for Object Detection
交并比 IoU = 预测框与真实框的交集/预测框与真实框的并集IoU > threshold (一般为0.5)认为预测正确(True positive)给定一张图片,已知该图像中给定类别的实际目标数量N(TotalObjects)_C,检测结果中预测正确的数量为N(TruePositives)_C则该图像中给定类别的精度为 Precision_C = N(TruePositives)_C/N...
2018-07-04 14:50:25 192
原创 center loss训练与可视化代码解析
参考博客:https://blog.csdn.net/sinat_24143931/article/details/79033414 损失函数改进总结代码:https://github.com/pangyupo/mxnet_center_loss1, Mxnet自定义Op 本代码中center_loss.py定义了center_loss的前后向传播第一步继承CustomOp,重写方法forwar...
2018-07-02 15:09:36 2548
原创 DarkRank: Accelerating Deep Metric Learning via Cross Sample Similarities
论文地址阅读论文参考资料:论文翻译https://blog.csdn.net/sinat_35188997/article/details/78180419总结
2018-06-27 22:54:16 1967
原创 2016AAAI_Face model compression by distilling knowledge from neurons (商汤)
论文地址 http://www.aaai.org/ocs/index.php/AAAI/AAAI16/paper/download/11977/12130总结 代替Distilling the knowledge in a neural network (Hinton 2015)中作为知识的soft target,从隐藏层的神经元学习知识,同时考虑到神经元可能包含噪声或无关信息...
2018-06-22 18:10:20 540
原创 Channel Pruning for Accelerating Very Deep Neural Networks论文笔记
论文阅读https://arxiv.org/abs/1707.06168总结利用channel pruning实现网络inference过程中的加速,预训练模型上剪枝,包括两个步骤(1)LASSO regression based channel selection (2)least square reconstruction 方法1. 单层剪枝,两步操作: (1)channel selecti...
2018-06-22 16:30:47 911
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人