yimiyangguang1994
码龄10年
关注
提问 私信
  • 博客:6,544
    6,544
    总访问量
  • 4
    原创
  • 1,866,639
    排名
  • 3
    粉丝
  • 0
    铁粉
IP属地以运营商信息为准,境内显示到省(区、市),境外显示到国家(地区)
IP 属地:上海市
  • 加入CSDN时间: 2014-12-10
博客简介:

yimiyangguang1994的博客

查看详细资料
个人成就
  • 获得1次点赞
  • 内容获得0次评论
  • 获得6次收藏
创作历程
  • 6篇
    2018年
  • 最近
  • 文章
  • 代码仓
  • 资源
  • 问答
  • 帖子
  • 视频
  • 课程
  • 关注/订阅/互动
  • 收藏
搜TA的内容
搜索 取消

神经网络训练

不同的损失函数会对深度神经网络带来什么样的影响?二次损失函数会在神经元犯了明显错误的情况下使得网络学习缓慢,而使用交叉熵损失函数则会在明显犯错的时候学的更快。...
转载
发布博客 2018.07.11 ·
210 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

Evaluation for Object Detection

交并比 IoU = 预测框与真实框的交集/预测框与真实框的并集IoU > threshold (一般为0.5)认为预测正确(True positive)给定一张图片,已知该图像中给定类别的实际目标数量N(TotalObjects)_C,检测结果中预测正确的数量为N(TruePositives)_C则该图像中给定类别的精度为 Precision_C = N(TruePositives)_C/N...
转载
发布博客 2018.07.04 ·
216 阅读 ·
0 点赞 ·
0 评论 ·
0 收藏

center loss训练与可视化代码解析

参考博客:https://blog.csdn.net/sinat_24143931/article/details/79033414  损失函数改进总结代码:https://github.com/pangyupo/mxnet_center_loss1, Mxnet自定义Op 本代码中center_loss.py定义了center_loss的前后向传播第一步继承CustomOp,重写方法forwar...
原创
发布博客 2018.07.02 ·
2572 阅读 ·
0 点赞 ·
0 评论 ·
3 收藏

DarkRank: Accelerating Deep Metric Learning via Cross Sample Similarities

论文地址阅读论文参考资料:论文翻译https://blog.csdn.net/sinat_35188997/article/details/78180419总结
原创
发布博客 2018.06.27 ·
2020 阅读 ·
1 点赞 ·
0 评论 ·
3 收藏

2016AAAI_Face model compression by distilling knowledge from neurons (商汤)

论文地址    http://www.aaai.org/ocs/index.php/AAAI/AAAI16/paper/download/11977/12130总结    代替Distilling the knowledge in a neural network (Hinton 2015)中作为知识的soft target,从隐藏层的神经元学习知识,同时考虑到神经元可能包含噪声或无关信息...
原创
发布博客 2018.06.22 ·
560 阅读 ·
0 点赞 ·
0 评论 ·
1 收藏

Channel Pruning for Accelerating Very Deep Neural Networks论文笔记

论文阅读https://arxiv.org/abs/1707.06168总结利用channel pruning实现网络inference过程中的加速,预训练模型上剪枝,包括两个步骤(1)LASSO regression based channel selection (2)least square reconstruction 方法1. 单层剪枝,两步操作: (1)channel selecti...
原创
发布博客 2018.06.22 ·
954 阅读 ·
0 点赞 ·
0 评论 ·
4 收藏