机器学习
文章平均质量分 74
小笨丹
这个作者很懒,什么都没留下…
展开
-
图像数据库
本文转载自:图像数据库ImageNet ImageNet是一个计算机视觉系统识别项目,是目前世界上图像识别最大的数据库。是美国斯坦福的计算机科学家李飞飞模拟人类的识别系统建立的。能够从图片识别物体。目前已经包含14197122张图像,是已知的最大的图像数据库。每年的ImageNet大赛更是魂萦梦牵着国内外各个名校和大型IT公司以及网络巨头的心。图像如下图所示,需转载 2017-04-04 11:24:14 · 1846 阅读 · 0 评论 -
图像视觉领域部分新进展对应的开源代码
图像视觉领域部分新进展对应的开源代码持续跟新可以看看这个 http://blog.csdn.net/workerwu/article/details/46537849场景识别: SegNet: A Deep Convolutional Encoder-Decoder Architecture for Robust Semantic Pixel-Wise Labellin转载 2017-04-04 11:34:17 · 346 阅读 · 0 评论 -
Batch Normalization 学习笔记
Batch Normalization 学习笔记原文地址:http://blog.csdn.net/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by转载 2017-08-28 11:12:11 · 199 阅读 · 0 评论 -
RCNN\fastRCNN\fasterRCNN
论文下载地址:RCNN: https://arxiv.org/abs/1311.2524 中文算法详解:http://blog.csdn.net/shenxiaolu1984/article/details/51066975fast RCNN: https://arxiv.org/abs/1504.08083faster RCNN: https://arxiv.org/a原创 2017-08-28 12:13:55 · 707 阅读 · 0 评论 -
pytorch代码个人心得
#1nn.crossentropyloss()类包含两步函数: log_softmax和nllloss,(log-likelihood loss), 后者没有log步骤。如果loss只想要交叉熵,不要softmax步骤,可以在网络最后加上nn.softmax层,以及torch.log()函数进行输出,训练的loss使用nn.NLLLoss()类。#2torch.log()等运算不需...原创 2018-10-30 17:20:47 · 1124 阅读 · 0 评论 -
机器学习中的损失函数分析
这里分析讨论了机器学习中分类与回归问题应用的几个经典、简单的损失函数。在机器学习中,所有的机器学习算法都或多或少的依赖于对目标函数最大化或者最小化的过程,我们常常把最小化的函数称为损失函数,它主要用于衡量机器学习模型的预测能力。回归会预测给出一个数值结果而分类则会给出一个标签。最小二乘法是损失函数的一种优化方法。但是有些损失函数采用传统数学方法是很难求解最小值的,而机器学习中的反向传播算法...原创 2018-12-18 11:23:27 · 21971 阅读 · 0 评论 -
如何快速选择最合适的物体检测框架:一个基于深度学习物体检测算法的简单测评
转载自:https://yq.aliyun.com/articles/616578摘要:本文的主要内容来自于Google的一篇2017年的CVPR论文,“Speed/accuracy trade-offs for modern convolutional object detectors”,这篇文章从各种不同的角度比较了现今几大流行的深度学习检测算法,即Faster RCNN,SSD和R-F...转载 2019-05-27 10:16:21 · 1037 阅读 · 0 评论 -
网络蒸馏算法的一些汇总和想法。
最近在做关键点的算法,需要用到网络蒸馏的思路,但是目前大部分都是分类任务的蒸馏,偶然找到一些其他的思路,整理一下。1.分类任务的蒸馏方法——软标签传统的分类任务,输出就是one hot 的标签。蒸馏网络让student去学习teacher的软标签,相当于一个更真实的概率分布。这是因为分类任务有天然的概率解释,所以软标签十分合理。2.检测任务的蒸馏方法,这里只整理分类以外的部分1)中...原创 2019-07-12 23:11:30 · 1946 阅读 · 0 评论