- 博客(145)
- 资源 (99)
- 收藏
- 关注
原创 YOLO-v5训练自己的数据+TensorRT推理部署(2)
YOLO-v5训练自己的数据+TensorRT推理部署(2)代码下载地址:下载地址YOLO v5转TensorRT模型并调用0.pt模型转wts模型python3 gen_wts.py# 注意修改代码中模型保存和模型加载的路径1.修改部分文件0.修改CMakeLists.txtcmake_minimum_required(VERSION 2.6)project(yolov5)add_definitions(-std=c++11)option(CUDA_USE_STATIC_CUD
2022-03-06 12:28:50 5866
原创 YOLO-v5训练自己的数据+TensorRT推理部署(1)
YOLO-v5训练自己的数据+TensorRT推理部署(1)代码下载地址:下载地址YOLO v5在医疗领域中消化内镜目标检测的应用YOLO v5训练自己数据集详细教程🐛 🐛 现在YOLOv5 已经更新到6.0版本了,但是其训练方式同本Repo是一致的,只需要按照对应版本安装对应Python环境即可,其数据集的构建,配置文件的修改,训练方式等完全与本Repo一致!🐛 🐛 我们提供了YOLOv5 TensorRT调用和INT8量化的C++和Python代码(其TensorRT加速方式不同于本Repo提
2022-03-06 12:28:07 5274 1
原创 基于YOLOv5模型压缩、模型量化、模型剪枝
代码下载地址:下载地址Requirementspip install -r requirements.txtPruning for YOLOsModelmAPmAP@50Parameters(M)GFLOPsFPS@CPUYOLOv5s18.4347.0515.9YOLOv5n1326.21.784.2YOLOv5s-EagleEye@0.614.327.94.599.61、Prune Strategy(1)基于YO
2022-03-06 10:19:45 7881
原创 YOLOV5的多主干网络backbone实现(Mobilenetv3Small、EagleEye、EfficientNetLite-0、PP-LCNet-1x、SwinTrans-YOLOv5等)
代码下载地址:下载地址支持的backbone为Ghostnet、Shufflenetv2、Mobilenetv3Small、EagleEye、EfficientNetLite-0、PP-LCNet-1x、SwinTrans-YOLOv5Requirementspip install -r requirements.txtMulti-Backbone Substitution for YOLOs1、Base ModelTrain on Visdrone DataSet (Inp
2022-03-05 15:28:25 10914 6
原创 基于YOLO的目标检测界面化部署实现(支持yolov1-yolov5、yolop、yolox)
基于YOLO的目标检测界面化部署实现(支持yolov1-yolov5、yolop、yolox)代码下载地址:下载地址操作系统:Win10、Win7、Ubuntu16.04(其他操作系统没有测试过)Python环境:python3.7Cuda环境:cuda10.1(也可以不用cuda,使用cpu预测)1.下载源码:2.解压工作目录,进入到根目录3.升级pippython -m pip install --upgrade pip4.安装依赖项pip install -r requireme
2022-03-05 15:13:53 3664 2
原创 【camera】基于深度学习的车牌检测与识别系统实现(课程设计)
基于深度学习的车牌检测与识别系统实现(课程设计)代码+数据集下载地址:下载地址用python3+opencv3做的中国车牌识别,包括算法和客户端界面,只有2个文件,surface.py是界面代码,predict.py是算法代码,界面不是重点所以用tkinter写得很简单。使用方法:版本:python3.4.4,opencv3.4和numpy1.14和PIL5下载源码,并安装python、numpy、opencv的python版、PIL,运行surface.py即可算法实现:算法思想来自于网
2022-03-05 14:54:25 3810
原创 【camera】基于YOLO的车辆多维特征识别系统(车色,车品牌,车标,车型)与PYQT实现(课程设计)
基于YOLO的车辆多维特征识别系统(车色,车品牌,车标,车型)与PYQT实现(课程设计)代码下载地址:下载地址DEMOget started:PyQt5, 3.3以上的cv2 ,hyperlpr暂时不提供车型识别与颜色分类的模型下载 https://pjreddie.com/media/files/yolov3.weights ,并保存到yolo 目录下INTRO模型采用opencv DNN模块读取,所以确认你安装了含有DNN模块版本(3.3以上)的cv2车辆定位采用darknet
2022-03-05 14:41:19 2985
原创 基于pytorch的yolo稀疏训练与模型剪枝
基于pytorch的yolo稀疏训练与模型剪枝数据集+代码下载地址:下载地址参数数量模型体积Flops前向推断耗时(2070 TI)mAPBaseline (416)61.5M246.4MB32.8B15.0 ms0.7692Prune (416)10.9M43.6MB9.6B7.7 ms0.7722Finetune (416)同上同上同上同上0.7750加入稀疏正则项之后,mAP 反而更高了(在实验过程中发现,其实 mAP上
2022-03-05 14:20:08 2079
原创 基于pytorch的模型稀疏训练与模型剪枝示例
基于pytorch的模型稀疏训练与模型剪枝示例稀疏训练+模型剪枝代码下载地址:下载地址CIFAR10-VGG16BNBaselineTrained with Sparsity (1e-4)Pruned (0.7 Pruned)Fine-tuned (40epochs)Top1 Accuracy (%)93.6293.7710.0093.56Parameters20.04M20.04M2.42M2.42MPruned Ratio00.10
2022-03-05 13:55:54 2122
原创 基于YOLO的密集人脸检测(课程设计)
基于YOLO的密集人脸检测(课程设计)数据集+代码下载地址:下载地址实现的功能添加关键点检测分支,使用wing lossInstallationClone and install使用src/retinaface2yololandmark.py脚本将retinaface的标记文件转为yolo的格式使用,使用src/create_train.py 创建训练样本训练python train.py --net mbv3_large_75 --backbone_weights \./pr
2022-03-05 13:45:52 1290
原创 【lidar】基于YOLO的3D目标检测(激光雷达点云)课程设计
基于YOLO的3D目标检测(激光雷达点云)课程设计代码+数据集下载地址:下载地址Complex-YOLOComplex-YOLO: Real-time 3D Object Detection on Point Clouds pytorchIntroductionThis is an unofficial implementation of Complex-YOLO: Real-time 3D Object Detection on Point Clouds in pytorch. A l
2022-03-05 13:39:14 2248
原创 基于YOLOv5的智慧工地安全帽检测(1)
基于YOLOv5的智慧工地安全帽检测数据集+代码下载地址:下载地址指标yolov5s 为基础训练,epoch = 50分类PRmAP0.5总体0.8840.8990.888人体0.8460.8930.877头0.8890.8830.871安全帽0.9170.9210.917对应的权重文件:百度云,提取码: b981yolov5m 为基础训练,epoch = 100分类PRmAP0.5总
2022-03-05 13:23:11 1284 5
原创 基于YOLOv5的智慧工地实现---安全帽检测(2)
基于YOLOv5的智慧工地安全帽检测代码下载地址:下载地址Smart_Construction该项目是使用 YOLOv5 v2.x 的程序来训练在智能工地安全领域中头盔目标检测的应用指标yolov5s 为基础训练,epoch = 50分类PRmAP0.5总体0.8840.8990.888人体0.8460.8930.877头0.8890.8830.871安全帽0.9170.9210.917对应的权重文件:百度云,提取码: b
2022-03-05 13:10:02 1129 1
原创 中科大-计算机类考研真题(初试笔试真题详解+复试笔试机试真题详解+面试问题汇总分析)
中科大-计算机类考研真题(初试笔试真题详解+复试笔试机试真题详解+面试问题汇总分析)初试笔试真题2003年~2019年:答案+详解复试面试问题总结:问题汇总+详解分析复试面试经验总结:个人小结复试机试真题:答案+试题分析下载链接下载链接...
2022-03-03 22:11:47 1576 5
原创 借助深度卷积神经网络对图片 & GIF & 视频进行超分辨率放大(即放大与降噪) 以及 对视频进行 插帧(即补帧).
借助深度卷积神经网络对图片 & GIF & 视频进行超分辨率放大(即放大与降噪) 以及 对视频进行 插帧(即补帧).软件下载地址:下载地址界面效果:处理效果:图像清晰化图像放大:gif清晰化:主要特性:📺自动化处理多种媒体: 支持处理 图片 的同时,实现了自动化处理 GIF&APNG 和 视频.😍全图像风格支持: 内置多种算法, 无论是 二次元动漫 还是 您日常拍摄的照片&录像 ,都可以进行清晰化处理.🎞视频插帧(补帧): 在对视频进行超分辨率后
2022-02-26 17:21:08 2668 1
原创 【camera-lidar-radar】基于卡尔曼滤波和扩展卡尔曼滤波的相机、激光雷达、毫米波雷达多传感器后融合
【camera-lidar-radar】基于卡尔曼滤波和扩展卡尔曼滤波的相机、激光雷达、毫米波雷达多传感器融合代码下载地址(C++ and Python):红点和蓝点分别表示radar和lidar的测量位置,绿点表示多传感器融合后的输出结果,真值为小车所在的位置...
2022-02-26 16:44:22 2663
原创 【camera-radar】相机-毫米波雷达联合标定方案介绍+实现
【camera-radar】相机-毫米波雷达联合标定方案介绍+实现代代码下载地址:下载地址部分代码:#include "typedef.h"#include <opencv2/opencv.hpp>#include <iostream>#include "WaveRadar2Image.h"#include "CGetVideo.h"//�������//CGetVideo m_getVideo(18072414); // ����������:17369069
2022-02-26 15:05:46 2608 1
原创 【camera-radar】自动驾驶相机-毫米波雷达融合方案综述
![在这里插入图片描述](https://img-blog.csdnimg.cn/6fae198aa8b64d519be46ee3312555a4.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA6Lif6Lmw5qiq5rih5Y-jLOW9s-S6jeS4iua7qeiIn-OAgg==,size_20,color_FFFFFF,t_70,g_se,x_16)如今的自动驾驶需要满足应多种复杂场景
2022-02-26 14:11:39 2893
原创 【camera-lidar】自动驾驶相机-激光雷达融合方案综述
数据集:多模态融合是感知自动驾驶系统的一项基本任务,最近引起了许多研究人员的兴趣。然而,由于原始数据噪声大、信息利用率低以及多模态传感器的无对准,达到相当好的性能并非易事。本文对现有的基于多模态自动驾驶感知任务方法进行了文献综述。分析超过50篇论文,包括摄像头和激光雷达,试图解决目标检测和语义分割任务。与传统的融合模型分类方法不同,作者从融合阶段的角度,通过更合理的分类法将融合模型分为两大类,四小类。此外,研究了当前的融合方法,就潜在的研究机会展开讨论。最近,用于自动驾驶感知任务的多模态融合方法发展迅
2022-02-26 12:23:34 952
原创 【radar】毫米波雷达简介
毫米波雷达的分类频率在10GHz~200GHz的电磁波,由于其波长在毫米量级,因此处于该频率范围的电磁波也被工程师们称为毫米波。应用在自动驾驶领域的毫米波雷达主要有3个频段,分别是24GHz,77GHz和79GHz。不同频段的毫米波雷达有着不同的性能和成本。以Audi A8的传感器布局为例,讲解不同频段毫米波雷达的功能。短距离雷达:24GHz频段如上图所示被标注了橙色框的Corner radar和Rear radar,就是频段在24GHz左右的雷达。处在该频段上的雷达的检测距离有限,因此常用于
2022-02-23 20:28:48 3836
原创 【camera】全景驾驶感知网络YOLOP部署与实现(交通目标检测、可驾驶区域分割、车道线检测)
全景驾驶感知网络YOLOP部署与实现(交通目标检测、可驾驶区域分割、车道线检测)
2022-02-19 17:47:15 5098 3
原创 【camera】自动驾驶感知系统实现(车道线检测和拟合、目标检测与跟踪、道路可行驶区域分割、深度估计、图像视野到BEV空间映射、像平面到地平面映射)
自动驾驶感知系统实现(车道线检测和拟合、目标检测与跟踪、道路可行驶区域分割、深度估计、图像视野到BEV空间映射、像平面到地平面映射)项目下载地址:项目下载地址推理引擎下载地址:推理引擎下载地址支持的功能包含的功能:车道线检测+车道线拟合;2D目标检测+目标跟踪;道路可行驶区域分割;目标深度估计;图像视野到BEV空间映射(Normal View -> Top View);像平面到地平面映射(image plane -> ground plane in world coord
2022-02-19 17:31:04 4274 1
原创 深度学习多框架多平台推理引擎工具
支持的计算平台:```bash- Windows 10 (Visual Studio 2019 x64)- Linux (x64, armv7, aarch64)- Android (armeabi-v7a, arm64-v8a)```支持的模型框架:```bash- TensorFlow Lite- TensorFlow Lite with delegate (XNNPACK, GPU, EdgeTPU, NNAPI)- TensorRT (GPU, DLA)- OpenCV(dn
2022-02-19 16:18:39 3764
原创 【camera】5.相机内嵌图像处理(ISP)介绍
小透镜放在滤光片上来增加光线的收集能力传感器只能测量光的强弱,并不能区分颜色,这就需要将不同颜色的滤镜和传感器结合起来,实现这一过程的技术叫做拜尔阵列(“Bayer” pattern)传感器是光敏二极管光线进入镜头,到达【带有RGB滤光阵列的传感器】,得到最原始的电信号。这个信号经过【ISO增益和原始图像处理】【RGB去马赛克】和【降噪】,就会得到raw格式的图片,对它接着进行【白平衡以及色彩空间转换】和【色彩处理】,并【映射到sRGB输出】,这时图片已经呼之欲出,只要【JPEG压缩】并【保存
2022-02-19 15:32:02 3273
原创 【camera】4.图像的颜色空间
在实验中,让健康的志愿者来担任“标准观察者”,并使用2度视场角的圆形屏幕(固定视场角是因为视锥细胞集中分布于视网膜的中心凹区域,从而对色彩最敏感)。屏幕的一半投上测试单色光,另一半投上可调整的光。可调整的光是三种单色光的混合,他们波长固定(700 nm, 546 nm, 435 nm)强度可调节,并称这三个波长为原色。选择546.1 nm和435.8 nm的原色是因为它们是汞蒸气放电的颜色,容易复现,而选择700 nm是因为眼睛在700 nm处对光线的变化不敏感,波长的误差对感知的影响不大。实验时,对
2022-02-19 15:17:50 2551
原创 【camera】3.相机成像颜色及其组成
光的分解光的组成色觉的定义:物体反射或发射光的方式而在眼睛上产生不同感觉的物体所具有的特性。色调(H),饱和度(S),明度(V)人眼有三种受体细胞来感受光线反射出来的颜色,分别对短波、中波、长波的敏感程度各有差异。每个人眼对各个波长的光敏感程度都不一样,红绿色盲:中波和长波的敏感曲线重合色弱:对各个波段的敏感程度偏低无线电光谱,人眼可见的只是其中很小的一部分通常人眼的看可见光波长范围在380nm-720nm之间视椎细胞:的空间分辨率高,视杆则对微弱光线更敏感。视杆细胞:对暗光
2022-02-19 14:58:25 2857
原创 【camera】2.相机成像原理和数学模型
相机模型中的坐标系:Ow-xyx:世界坐标系,物体位置,单位:mOc-xyz:相机坐标系,光心为原点,单位:mOi-xy:图像坐标系,光心为图像中心,单位:mmOp-xy:像素坐标系,原点为图像右上角,单位:pixel其中:1)Fx和Fy为水平和竖直方向每毫米像素数2)Cx和Cy为图像坐标系原点在像素坐标系下的位置3)K为畸变系数k1,k2,k3,k44)R、t表示旋转和平息矩阵5)点P1基于世界坐标系,P2为P1对应的像素坐标系的位置, P3为P2在畸变校正后的位置6)Extr
2022-02-19 14:48:04 3943
原创 【camera】1. 相机硬件组成
相机—光照测量设备图像—辐射能量测量Lens:镜头VCM:音圈马达IR Filter:滤光片Sensor:感光元件CCD\CMOS,Substrate PCB:基片电路DSP(option):数字信号处理器ISP(option):图像信号处理器CCD 电耦合器件CMOS 互补性金属氧化物半导体无论是ccd还是cmos都是光电二极管进行感光的镜头音圈马达(VCM)CCD 电耦合器件CMOS 互补性金属氧化物半导体无论是ccd还是cmos都是光电二极管进行感光的主要
2022-02-19 14:41:52 3122
原创 autoware中lgsvl Simulator安装与使用:LGsvl Simulator 2021.2.1版(九)
autoware安装与使用:LGsvl Simulator 2021.2.1版(windows10)(九)介绍如何在windows下安装LGsvl Simulator 2019.04版环境:windows10采用地图:SanFrancisco的地图采用车体:XE_Rigged-autoware下载LGsvl Simulator的2019.04版官方地址:下载百度地址:下载点击simulator,弹出界面选择地图SanFrancisco输入Bridge address的IP,你的au
2021-07-31 11:27:33 3412 2
原创 autoware中的交通灯识别(八)
autoware中的交通灯识别(八)启动autoware$ cd ~/autoware.ai$ source install/setup.bash$ roslaunch runtime_manager runtime_manager.launch在管理界面上切换到Simulation分页点击输入框后面的Ref,加载rosbag包具体路径: /home/ubuntu/.autoware/sample_moriyama_150324.bag再点击Play,接着点击Pause效果如图:管
2021-07-31 11:13:50 2543 2
原创 autoware使用rosbag数据生成路径点并进行路径规划(七)
autoware使用rosbag数据生成路径点并进行路径规划(七)第一步启动autoware和播放数据包$ cd ~/autoware.ai$ source install/setup.bash$ roslaunch runtime_manager runtime_manager.launch切换到Simulation分页,选择rosbag包,点击播放数据包,再点Pause第二步加载地图以及TF管理界面切换map分页效果如图:点击Point Cloud的Ref,全选全部后缀为pcb的
2021-07-31 11:09:58 2362
原创 autoware使用相机和深度学习进行目标检测(六)
autoware使用相机和深度学习进行目标检测(六)安装yolo进入对应的vision_darknet_detect/darknet/data/目录下对应目录位置:autoware.ai/install/vision_darknet_detect/share/vision_darknet_detect/darknet或通过命令进入roscd vision_darknet_detect/darknet新建data目录mkdir data 下载weights文件cd datawge
2021-07-31 10:58:13 3004
原创 autoware使用激光雷达进行目标检测(五)
autoware使用Euclidean Clustering进行检测点云聚类在激光雷达环境感知中的作用就无人车的环境感知而言,方案很多,根据使用的传感器的不同,算法也截然不同,有单纯基于图像视觉的方法,也有基于激光雷达的方法,激光雷达以其稳定可靠、精度高并且能同时应用于定位和环境感知而被广泛采用。激光雷达环境感知一般的流程为:分割地面,从而减少地面的点对目标检测的影响点云聚类,将目标按照点的分布进行聚类,从而降低后续计算的计算量模式识别,对分割得到的点云进行特征提取,使用提取出来的特征训练分类器
2021-07-31 10:51:53 3694
原创 autoware定位:gnss定位与lidar定位(四)
autoware定位:gnss定位于lidar定位(四)介绍如何在autoware中使用GNSS进行定位启动autoware$ cd ~/autoware.ai$ source install/setup.bash$ roslaunch runtime_manager runtime_manager.launch在管理界面上切换到Simulation分页点击输入框后面的Ref,加载rosbag包具体路径: /home/ubuntu/.autoware/sample_moriyama_15
2021-07-31 10:39:34 2751
原创 autoware加载地图数据与使用rosbag包建图(三)
autoware加载地图数据(三) 介绍如何为autoware加载地图数据启动autoware$ cd ~/autoware.ai$ source install/setup.bash$ roslaunch runtime_manager runtime_manager.launch管理界面切换map分页效果如图:点击Point Cloud的Ref,全选全部后缀为pcb的文件具体路径:/home/ubuntu/.autoware/data/map/pointcloud_map再点击P
2021-07-31 10:05:37 2213
原创 autoware源码安装与运行ROSBAG示例(二)
autoware入门教程-源码安装autoware1.12.0说明:介绍如何安装autoware1.12.0步骤:安装系统依赖:$ sudo apt-get update$ sudo apt-get install -y python-catkin-pkg python-rosdep ros-$ROS_DISTRO-catkin gksu$ sudo apt-get install -y python3-pip python3-colcon-common-extensions python3-
2021-07-31 09:35:26 1988
原创 autoware框架与功能简介(一)
autoware简介(一)Autoware(source)是世界上第一款用于自动驾驶汽车的“一体化”开源软件。 Autoware的功能主要适用于城市,但也可以涵盖高速公路,高速公路,中间地区和地理围栏。 Autoware的代码库受Apache 2许可证保护。 请自行决定使用它。 为了安全使用,我们为那些没有真正自动驾驶汽车的人提供基于ROSBAG的仿真环境。 如果您计划将Autoware与真实的自动驾驶汽车一起使用,请在现场测试前制定安全措施和风险评估。其支持以下功能:3D本地化3D映射路径规划路
2021-07-31 09:10:13 3186
原创 智慧工地-基于深度学习yolov3的安全帽检测以及安全帽检测数据集(1)
基于深度学习yolov3的安全帽检测以及安全帽检测数据集数据集和代码下载地址:下载地址数据可视化:根目录下运行命令: show_yolo_anno.py (注意脚本内相关参数配置 )模型训练模型训练根目录下运行命令: python train.py (注意脚本内相关参数配置 )注意:加载训练的配置参数的关键代码段如下,cfg/transport.data为训练coco交通工具数据集的配置参数文件。if __name__ == '__main__': train(dat
2021-06-28 21:39:25 3491 4
基于手势识别的鼠标控制实现
2022-03-20
基于多种模型剪枝方法(L1-norm、Slimming、AutoSlim)的模型轻量化和模型压缩实现
2022-03-13
基于pytorch量化感知训练mnist分类 浮点训练vs多bit后量化vs多bit量化感知训练效果对比
2022-03-06
基于pytorch后量化(mnist分类)浮点训练vs多bit后量化vs多bit量化感知训练效果对比
2022-03-06
YOLOV5的多主干网络(backbone)实现.zip
2022-03-05
基于YOLO的目标检测界面化部署实现(支持yolov1-yolov5、yolop、yolox)
2022-03-05
基于YOLO的车辆多维特征识别系统(车色,车品牌,车标,车型)与PYQT实现(课程设计)
2022-03-05
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人