自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 python编程时经常修改了原始数据

python编程时经常修改了原始数据python一直用的很零散和基础,从现在开始记录一下遇到过的小坑,加强一下记忆。最近在写CS224N的作业的时候,经常把输入数据改了(一般是包含list类型的数据)导致找错误找了很长时间,终于被我发现了。至于为什么会导致输入数据的改变,这跟python引用传值的机制应该是分不开的,然额我并没有理解,这里暂时记录下对比的两个例子。。。。# 会改变原始数据的例...

2019-03-24 16:09:06 855

原创 nvidia 驱动重装踩坑之路

背景:本来用gpu用的好好的,有一天系统软件自动更新手贱点了确定,里面包含nvidia字眼,当时看到就感觉有点不妥,仍然点了确定。 恩,直觉真准,但是手快啊!!于是开启了踩坑之路。报错:使用gpu版本的tensorflow,运行session时会出现如下问题: 于是乎gpu就不能用了,nvidia-smi也报错说类似版本不匹配的意思。查看当天的系统更新内容: 可以发现驱动被更新了,但是由错误可

2017-10-27 00:00:11 20767

原创 Predicting Human Eye Fixations via an LSTM-based Saliency Attentive Model

SAM显著性检测模型本文特点:1、相比之前做显著性检测的模型,本文最大的特点是采用了neural attentive mechanism这种机制是什么意思,给出原文的解释(自己不太明白): Machine attention [16] is a computational paradigm which aims to compute an output as a weighted sum of

2017-09-20 23:17:50 2110

原创 A Deep Spatial Contextual Long-term Recurrent Convolutional Network for Saliency Detection

这篇文章的特点:利用了global context的信息利用了scene context的信息背景: 什么是global context?在我的理解就是,图的整体性的重要性,一张图上出现一个新的物体,显著性会发生明显的变化。论文中有这样解释,如果不考虑global context,在图b中也会对图a中显著性高的地方做出类似的反应,这样ground truth就不是很好。什么是scene co

2017-09-16 00:27:00 1135

原创 saliency detection by forward and backward cues in deep-cnn

本文主要工作:本文结合forward和backward的特征,利用弱监督的方式进行了显著性检测(这里若监督的意思是使用预训练好的分类模型,不需要再训练显著性数据即可得到saliency map,即通过反向传播的方式)在计算saliency map时,相比之前工作中的back propagation(BP)和guided back propagation(GBP)方法,进行了改进,得到partia

2017-09-12 00:18:25 740

原创 Couple Net论文阅读笔记

CoupleNet: Coupling Global Structure with Local Parts for Object Detection背景:R-FCN在利用了FCN之后,目标检测的效果仍然十分可观并在速度上有较大提升,比faster r-cnn快2.5-20倍,R-FCN利用的是卷积产生的位敏得分feature map(一个ROI的k*k个位置对每一类均产生一个score map),基

2017-08-22 00:04:19 3912

原创 Focal Loss论文阅读笔记

Focal Loss for Dense Object Detection引入问题目前目标检测的框架一般分为两种:基于候选区域的two-stage的检测框架(比如fast r-cnn系列),基于回归的one-stage的检测框架(yolo,ssd这种),two-stage的效果好,one-stage的快但是效果差一些。本文作者希望弄明白为什么one-stage的检测器准确率不高的问题,作者给出的解释

2017-08-15 21:10:33 31842

原创 tensorflow object detection API 使用记录3

将训练好的模型用于视频上的目标检测将训练好的模型用于视频上的目标检测冻结模型处理图片处理视频前言:一直都是用来检测图片,未来肯定是要应用在视频上,刚好想做个在视频上检测的小demo,不是做跟踪,所以实现起来很简单,只要把视频的每一帧都处理,另存到另一个视频里就可以了。 流程:把已经训练好的模型冻结下来,即得到.pb文件(既包括权重也包括网络结构)利用模型对视频每一帧进行处理并保存冻

2017-08-13 23:12:11 3817 1

原创 tensorflow object detection API 使用记录2

使用API训练自己的数据使用API训练自己的数据说明实际使用总结说明本文仍然使用谷歌API提供的网络模型框架,有了框架,现在要解决的是如何让网络训练自己的数据,而数据要提供两个东西给配置文件:一是对应的TFrecord文件,二是对应的.pbtxt文件.pbtxt文件:很简单,照着object_detection/data文件夹下的示例写就好了,注意id: 0代表背景,自己的类别对应的id应为

2017-07-28 23:54:39 2482 2

原创 tensorflow object detection API 使用记录1

目录:开始熟悉API的使用简介第一步准备数据第二步训练模型第三步评估总结开始熟悉API的使用简介安装就不用说了 首先介绍一下配置文件的格式,我是参照官方给的API配置说明记录的:API配置 目标检测API是使用protobuf配置训练评估的过程,配置文件可以看作分为5个部分:model:决定你用什么样的模型train_config: 训练的参数eval_config: 决定评估时

2017-07-21 22:07:14 5420 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除