自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 TX2跑YOLOv4代码所需硬件配置

sudo tar zxvf ./jdk-8u271-linux-aarch64.tar.gz -C /usr/lib/jvm sudo gedit ~/.bashrc # set java environment JAVA_HOME=/usr/lib/jvm/jdk1.8.0_271 PATH=$JAVA_HOME/bin:$PATH CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar export JAVA_HOME PAT

2020-12-07 20:45:14 822

转载 【目标检测】YOLOv3&YOLOv4学习过程

前言 本博客为学习之用,为博主在研究生期间学习目标检测初期,了解目标检测的学习记录。 1.自己制作了一个只有行人和车辆的数据库 链接:https://pan.baidu.com/s/1gR5GFd0KjeYlCljmsTRI3w 提取码:lxj6 2.在YOLOv3和YOLOv4上进行了对比 YOLOv3 YOLOv3是学习目标检测的基础,学习的教程有很多,关于理论和代码编写都是需要我们掌握的。对于初学者可能需要掌握一些卷积神经网络的基础,了解一下卷积运算就可以。 理论方面:可以观看吴恩达老师的讲解视频,

2020-09-17 20:31:53 245

原创 YOLO吴恩达(候选区域)

候选区域: 在滑动窗口算法中,使用训练好的分类器在图像中滑动,或者后面使用卷积网络预测图像时都会有一个缺点:在显然没有任何对象的区域浪费时间。 上图矩形框中,我们明显知道上面没有任何目标,但是网络还会再上面进行预测。 R-CNN算法(带区域的卷积网络)–选出一些区域,再这些区域上运行卷积网络分类器是由意义的。 选出候选区域的方法是运行图像分割算法 在色块突出的地方选择一个方框,在上面运行分类器,即可得到分类结果,可能有,可能没有。但是这样处理的位置会比全图进行分类器少很多,可以减少卷积网络分类运行时间。

2020-07-16 14:01:26 218

原创 YOLO吴恩达(0714)

YOLO algorithm 1.构造训练集 假设要训练一个算法去检测三种对象,网格设置为3*3,使用两个anchor boxs,那么输出y的大小就是3*3*2*8,2指anchor box的数量,8指向量维度(5 pc和边界框参数+3 类别数量)。要构造训练集,需要遍历9个格子,然后构成相应的目标向量y。对于格子中没有上述类别的情况,Y=[0xxxxxxx0xxxxxxx]Y=\left[\begin{array}{l} 0\\ x \\ x \\ x \\ x\\ x \\ x \\ x\\ 0\\

2020-07-16 10:49:39 114

原创 YOLO吴恩达(0713)

anchor boxs 在一个格子中可以检测多个对象 example: 在上面的图片中,行人和汽车中点在同一个格子中。按照之前的8个向量输出,c1,c2,c3只能有一个为1,即只能判定这个格子中一个类别。那么对于有两个类别和对象的情况,就需要引入anchor boxs。 思路:预先预定两个不同形状的anchor box,把预测结果和这两个anchor box关联起来。一般来说可能用到更多的anchor box,这里只举例两个。定义类别标签时,需要将输出变量重复两次,第一组为anchor box的参数,这里

2020-07-13 23:02:53 150

原创 YOLO吴恩达(0710)

1.交并比函数(intersection over union) 用途:判断对象检测算法是否运作良好 做法:计算实际边框和预测边框的交集和并集之比 在计算机检测任务中,一般要求“Correct” if IoU>=0.5。0.5为阈值来判断预测实测是否正确 这是衡量定位精确度的一种方式,可以判定正确检测和定位对象的次数。0.5是人为规定的阈值,可以向上进行变化,表明更加严格的要求。 2. ...

2020-07-11 12:55:25 168

原创 YOLO吴恩达(0709)

获得更精确的边界框——YOLO algorithm 如果输入是一个100*100的图像,在图像上放一个网格(演示时使用3*3的网格,实际应用中使用更细致的网格) 算法思路:使用图像分类和定位算法,将算法应用到网格中。 具体用法:定义训练标签,对于9个格子中的每一个指定一个标签y,y是0706笔记中提到的8维向量Y=[pcbxbybhbwc1c2c3]Y=\left[\begin{array}{l} p_{c} \\ b_{x} \\ b_{y} \\ b_{h} \\ b_{w} \\ c_{1} \\

2020-07-09 11:59:45 119

原创 YOLO吴恩达(0707)

3.特征点检测:需要改进神经网络的最后一层,让其多输出特征数据,输出单元可以进行改变。对于想要输出单元变多的情况,在制造数据集的时候,特征点需要人为提前进行标注,作为目标标签输入。 4.对象检测算法(基于滑动窗口的目标检测算法) step1:创建一个标签训练集。可以适当剪切一些图片,让汽车占据整张图片的中心位置。 step2:训练卷积神经网络。输入这些剪切过的图像,卷积网络输出结果Y。 step3:滑动窗口目标检测。对于一张大的照片,使用一个较小的方框在图片中截取小图片作为输入,使用上面训练好的卷积网络进行

2020-07-09 09:57:14 124

原创 YOLO吴恩达(0706)

1.classification with localization(定位分类) 图像识别只是可以将图片中的物体进行分类,而目标识别是在可以分类的基础上,对物体进行定位。 2.图像分类:图片进入卷积神经网络,输出一组特征向量,并反馈给softmax单元来预测图片类型 一、只考虑图片中包含一个对象 1.训练集的制作 以自动驾驶为例,需要将图片分为四类:行人、汽车、摩托车、背景(不含上面三类)。这是softmax输出的四种结果。 如果想要进一步确定图中车的位置,就需要神经网络多输出几个单元,确定一个边界框(b

2020-07-06 11:49:23 181

转载 win10+anaconda+pytorch

win10安装anaconda和pytorch

2020-02-22 18:54:11 132

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除