自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(199)
  • 资源 (6)
  • 收藏
  • 关注

原创 c++ 逐行读取txt文件内容写入*char[]

【代码】c++ 逐行读取txt文件内容写入*char[]

2024-02-20 09:47:36 115

转载 C++:从完整路径中提取文件名、不带后缀的名字、后缀名

获取文件名

2022-12-12 10:02:21 2799 1

转载 Deepstream yolov5 两种引擎(engine)生成方式

tensorrt

2022-12-04 21:27:18 2687 1

原创 pytorch 查看 电脑配置

pytorch查看深度学习配置

2022-11-12 22:45:30 1500

原创 thinkbook 16+ ubuntu22 cuda11.6.2 cudnn8.5.0

thinkbook16+ ubuntu22

2022-11-01 22:32:00 715

转载 Linux cmake和make详解

66666666666666

2022-08-03 08:45:58 848

转载 win10 Visual Studio Code (vscode) 配置 C / C++ 环境

vscode C++ 环境配置

2022-07-18 18:36:44 2615

原创 YOLOv5(ultralytics) pytorch转onnx

1.官方自带的export.py,选择模型python export.py --weights weights/yolov5s.pt --img 640 --batch 12.根据错误提示pip install coremltools、packaging。然后继续运行1的命令3.此时 weights下出现三个文件 :onnx、mlmodel、torchscript4.使用神经网络Netron,出现网络结构图。import netronnetron.start('yolov5s.onnx')

2021-10-26 13:30:22 1144

原创 yolov3(ultralytics yaml版) pytorch->onnx->ncnn

此命令将预训练的 YOLOv3模型(默认yolov3.pt,或者yolov3-tiny.pt)导出为 ONNX、TorchScript 和 CoreML 格式。python models/export.py --weights weights/yolov3.pt --img 640 --batch 1输出:3 个导出的模型(yolov3.mlmodel , yolov3.onnx , yolov3.torchscript.pt)将与原始 PyTorch 模型一起保存推荐使用Netron View

2021-10-19 10:53:37 645

原创 使用DeepStream5.0-python-API 部署yolov5

网上几乎都是使用c来部署yolov5的,使用python-API的我还没找到,github上也没找到用python编写的代码来启动yolov5,好在经过对c部署yolov5的研究,实现了使用DeepStream5.0-python-API 部署yolov5。我们已经在之前部署过python-API-yolov3,目录sources/deepstream_python_apps-1.0/apps/deepstream-yolov3-python。也部署过C-API-yolov5,一拍即合。在sources

2021-10-15 17:25:32 1020 1

原创 DeepStream5.0-C-API 部署yolov5

网上用c来部署yolov5的工程有很多,介绍一种包含yolov3/yolov4/yolov5(3.0/4.0/5.0)的github项目,我只实现了yolov5-5.0的工程,且使用了硬解码,其他算法自行实践。下面以yolov5s.pt为例子,需要使用TensorRT加速,需要模型的转化。1、将 PyTorch 模型转换为 wts 文件下载源码:git clone https://github.com/wang-xinyu/tensorrtx.gitgit clone https://github

2021-10-15 17:21:04 787 2

原创 gstreamer 硬解码 Python

import cv2# rtsp://admin:[email protected]:554/h265/ch1/main/av_streampipeline = "rtspsrc location=\"rtsp://admin:[email protected]:554/\" ! rtph264depay ! h264parse ! omxh264dec ! nvvidconv ! video/x-raw, format=(string)BGRx! video

2021-10-11 15:33:02 869

转载 gitlab新建分支并上传本地代码

初始化本地仓库git init添加所有项目文件git add .先提交到本地的仓库(不是直接提交到gitlab上)git commit -m “你想要提交的备注信息”添加Gitlab远程仓库地址git remote add origin [email protected]:youngelitespace/yes-web.git创建新的分支git branch fullYoungSpacePage切换到新分支下git checkout fullYoungSpacePage

2021-10-11 13:44:08 2232

原创 Jetson nano | 实现人脸识别

人脸识别代码库https://github.com/ageitgey/face_recognition安装参考:https://blog.csdn.net/ABC__xiaoming/article/details/116611523报错linano@jetson-nano$:python3 mpy-Copyl.py[ WARN:0 ] qlobal /home/nvidia/host/build opencv/nv opencv/modules/videoio/src/cap qstreame

2021-08-26 16:04:48 2375 3

转载 yolov5 | 移动端部署yolov5s模型

移动端的部署有这么几条路:(以yolov5s.pt模型为例)pt文件 --> onnx文件/torchscript文件 --> ncnn --> 安卓端部署(android studio编写)pt文件 --> onnx文件/torchscript文件 --> ML文件 --> ios端部署(需要mac系统运行xcode编写)pt文件 --> onnx文件 /torchscript文件/wts文件–> openvino/tensorrt 等部署平台 --

2021-08-25 16:13:31 4278 2

原创 安装使用DeepStream-Yolo

DeepStream-Yologit clone https://github.com/marcoslucianops/DeepStream-YoloYOLO 模型的 NVIDIA DeepStream SDK 5.1 配置此存储库的改进Darknet CFG 参数解析器(不需要编辑 nvdsparsebbox_Yolo.cpp 或其他用于本地模型的文件)支持 new_coords、beta_nms 和 scale_x_y 参数支持官方 DeepStream SDK YOLO 中不支持的新模型

2021-08-25 02:04:43 1986

原创 Jetson Nano | DeepStream部署Yolov5(Pytorch模型-->wts 文件-->TensorRT模型)

https://blog.csdn.net/onetwothree_go/article/details/116132760https://zhuanlan.zhihu.com/p/296314513https://blog.csdn.net/hahasl555/article/details/116500763?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162948266716780264096806%2522%252C%252

2021-08-24 22:41:22 10675 37

原创 TensorRTx

TensorRTxhttps://github.com/wang-xinyu/tensorrtxTensorRTx旨在通过tensorrt网络定义API实现流行的深度学习网络。正如我们所知,tensorrt有内置的解析器,包括caffeparser、uffparser、onnxparser等。但是当我们使用这些解析器时,我们经常会遇到一些“不支持的操作或层”问题,特别是一些最先进的模型正在使用新类型的层。那么我们为什么不跳过所有的解析器呢?我们只是使用TensorRT网络定义API来构建整个网络,它

2021-08-22 22:30:32 1742

原创 Jetson Nano | darknet (yolov3.4-tiny)摄像头实时检测

因为用的是opencv4所以使用yolo3编译可能回出错,可以换成yolov4或yolov4-tiny,同时YOLO V4无论在精度和速度上都较YOLO V3有了很大的提升,为在性能受限的嵌入式设备上部署检测程序提供了可能。但是由于2GB版本内存比较小,跑yolo4会出现卡住的情况,yolov4和yolov4-tiny的区别是:tiny是yolov4的压缩版,主要运行小算力cpu核心版本,在jetso nano 上使用tiny版帧率会比yolov4提升十多倍。总的来说还是推荐使用yolov4-tiny,帧

2021-08-22 14:04:33 2714 3

原创 Jetson Nano | jetson-inference(识别、检测)

https://blog.csdn.net/beckhans/category_8839715.htmlhttps://blog.csdn.net/baidu_26678247/article/details/109025873问题解决方法:https://zhuanlan.zhihu.com/p/343537626https://www.cnblogs.com/vcan123/p/13269218.htmlhttps://mp.weixin.qq.com/s?__biz=MjM5NTE3Nzk

2021-08-22 13:56:25 2855

原创 Ubuntu18.04 TensorRT7.0 安装和使用

1.安装依赖环境。CUDA9.0, 10.0, or 10.2。CuDNN 7.6.5 。Python 2 or Python 3 (Optional)2.下载TensorRT tar文件。访问: https //developer nvidia .com/tensorrt。选择TensorRT版本并下载3.选择安装的文件夹,所有的安装文件最终都安装在以Tenso:RT-version对应的子文件夹中4解压tar文件$ tar xzvf TensorRT-${version}.${os

2021-08-20 18:12:24 1313

原创 TensorRT | 入门篇

文章目录Why TensorRTTensorRT部署流程TensorRT之大胃王TensorRT 模型导入流程TensorRT 优化细节TensorRT 部署方法Why TensorRT训练对于深度学习来说是为了获得一个性能优异的模型,其主要的关注点在于模型的准确度等指标。推理则不一样,其没有了训练中的反向迭代过程,是针对新的数据进行预测,而我们日常生活中使用的AI服务都是推理服务。相较于训练,推理的关注点不一样,从而也给现在有技术带来了新的挑战:根据上图可知,推理更关注的是高吞吐率、低响应时间、低

2021-08-19 15:29:28 1615

原创 Docker 指令学习

镜像命令查看 docker images搜索下载镜像删除镜像容器命令有了镜像,才能创建容器新建容器并启动docker pull centos列出运行的容器退出容器删除容器

2021-08-17 14:37:37 159

转载 Git使用

1.Git是什么呢?简单来说,Git是一个分布式的版本控制系统。2.如何安装Git?自行到git官网上就可以下载好了网址:https://git-scm.com/downloads3.总结各种类型Git命令在使用Git的时候,我们要对Git处理的过程有大致的了解。解释一下上面的名词:Workspace:工作区Index / Stage:暂存区Repository:仓库区(或本地仓库)Remote:远程仓库1.新建本地仓库# 在当前目录新建一个Git代码库$ gi.

2021-08-09 20:01:39 87

原创 yolov3(ultralytics cfg旧版) 代码详解

YOLOv3.cfg文件解析[net]#Testing#batch=1#subdivisions=1# 在测试的时候,设置 batch=1,subdivisions=1#Trainingbatch=16subdivisions=4# 这里的 batch 与普遍意义上的 batch 不是一致的。# 训练的过程中将一次性加载 16 张图片进内存,然后分 4 次完成前向传播,每次 4 张。# 经过 16 张图片的前向传播以后,进行一次反向传播。width=416height=416

2021-08-07 21:10:10 1553 2

原创 yolov3(ultralytics cfg版-v5-v8 / yml版v9) 训练、检测、可视化

https://github.com/ultralytics/yolov3YOLOv5GPU 速度使用批大小为 32 的 V100 GPU 测量每张图像的端到端时间平均超过 5000 张 COCO val2017 图像,包括图像预处理、PyTorch FP16 推理、后处理和 NMS。EfficientDet 数据来自google/automl,批量大小为 8。重现通过python test.py --task study --data coco.yaml --iou 0.7 --weig

2021-08-07 15:57:16 6286

原创 YOLOv5(ultralytics) 检测火焰

请参考:YOLOv5(ultralytics) 训练自己的数据集,VOC2007为例Fire Dataset:https://github.com/OlafenwaMoses/FireNET/releases/download/v1.0/fire-dataset.zip将数据下载在yolov5/my_data文件夹下,进行文件夹合并,弄成如下:1、ImageSets/Main文件夹下生成train.txt,val.txt,test.txt和trainval.txt四个文件(存放图片名字):my

2021-08-02 16:28:24 1524 5

原创 YOLOv5(ultralytics) 训练自己的数据集,VOC2007为例

官方教程:https://github.com/ultralytics/yolov5/wiki/Train-Custom-DataVOC格式数据1.在yolov5目录下创建VOC2007文件夹,有VOC2007 …Annotations # 存放图片对应的xml文件 …JPEGImages # 存放图片 …ImageSets/Main #之后会在Main文件夹内自动生成train.txt,val.txt,test.txt和trainval.txt四个文件,存放训练集、验证集、测试集图片的名

2021-08-02 14:43:28 3981 12

原创 快速入门 YOLOv5(ultralytics)

YOLOv5 是一系列在 COCO 数据集上预训练的对象检测架构和模型,代表Ultralytics 对未来视觉 AI 方法的开源研究,结合了在数千小时的研究和开发中获得的经验教训和最佳实践。https://github.com/OlafenwaMoses/FireNET/releases/download/v1.0/fire-dataset.zip文档有关训练、测试和部署的完整文档,请参阅YOLOv5 文档。快速入门示例安装Python>=3.6.0需要安装所有 requirement

2021-08-02 14:42:37 6990

转载 SimAM:无参Attention!助力分类/检测/分割涨点!

SimAM: A Simple, Parameter-Free Attention Module for Convolutional Neural Networks论文链接(已收录于ICML 2021):http://proceedings.mlr.press/v139/yang21o.htmlcode: https://github.com/ZjjConan/SimAM本文是中山大学在注意力机制方面的尝试,从神经科学理论出发,构建了一种能量函数挖掘神经元重要性,并对此推导出了解析解以加速计算。通.

2021-07-25 21:49:02 16588 5

转载 旷视开源YOLOX

导读YOLO系列终于又回到了Anchor-free的怀抱,不用费劲心思去设计anchor了!旷视开源新的高性能检测器YOLOX,本文将近两年来目标检测领域的各个角度的优秀进展与YOLO进行了巧妙地集成组合,性能大幅提升。《YOLOX: Exceeding YOLO Series in 2021》paper: https://arxiv.org/abs/2107.08430code: https://github.com/Megvii-BaseDetection/YOLOX本文是旷视科技在目标检

2021-07-22 22:18:30 320

原创 MS COCO数据集 、pycocotools工具包使用

https://blog.csdn.net/qq_37541097/article/details/113247318

2021-07-22 20:30:48 387

转载 Point Transformer 学习笔记

https://blog.csdn.net/qq_43310834/article/details/113809360https://bbs.cvmart.net/articles/4560/vote_counthttps://zhuanlan.zhihu.com/p/337603099摘要自注意力网络彻底改变了自然语言处理,并且在图像分析任务(例如图像分类和目标检测)方面取得了令人瞩目的进步。受此启发,我们研究了自注意力网络在3D点云处理中的应用。我们为点云设计了自注意层,并使用它们构建用于语义

2021-07-19 10:28:40 849

转载 CV attention | PSA:极化自注意力,助力语义分割/姿态估计涨点!

导读注意力机制是一个被广泛应用在各种CV任务中的方法。注意力机制根据施加的维度大致可以分为两类:通道注意力和空间注意力。对于通道注意力机制,代表性的工作有SENet[2]、ECANet[3];对于空间注意力机制,代表性的工作有Self-Attention[4]。空间和通道两个维度的双重注意力机制也被提出,代表工作有CBAM[1],DANet[5]。基于双重注意力机制,本文针对Pixel-wise regression的任务,提出了一种更加精细的双重注意力机制——极化自注意力。作为一个即插即用的

2021-07-17 21:21:22 4786

原创 反卷积(Deconvolution)与棋盘效应(Checkerboard Artifacts)

棋盘效应当我们要用到深度学习来生成图像的时候,是往往是基于一个低分辨率且具有高层语义的特征图。这会使得深度学习来对这种低分辨率特征图进行填充细节。一般来说,为了执行从低分辨率特征图到高分辨率图像之间的转换,我们往往要进行deconvolution。简单来说,deconvolution layer可以允许模型通过每一个点进行绘制高分辨率图像上的一个方块,这种情况的产生与deconvolution的stride、kernel size有关。但不幸的是,当卷积核大小不能被步长整除的时候,会出现棋盘现象。问题

2021-07-15 20:05:06 1660 1

原创 An overview of semantic image segmentation

文章目录任务描述架构设计上采样(upsampling)方法全卷积网络(Fully convolutional networks)添加短路连接(Adding skip connections)U-Net空洞卷积(Dilated/atrous convolutions)损失函数数据集延伸阅读这篇文章讲述卷积神经网络在图像语义分割(semantic image segmentation)的应用。图像分割这项计算机视觉任务需要判定一张图片中特定区域的所属类别。这个图像里有什么?它在图像中哪个位置?更具体地说

2021-07-15 19:38:21 347 1

原创 分割网络模型(DeepLab V1、DeepLab V2、PSPNet、DeepLab V3、DeepLab V3+)

1、Deeplab V1《Semantic Image Segmentation with Deep Convolutional Nets and Fully Connected CRFS》http://arxiv.org/pdf/1412.7062v3.pdf由于卷积神经网络在提取特征时会将输入图像逐渐缩小,featuremap变小形成高级别的特征对分割任务并不适用,DeepLab采用了空洞卷积替换传统的卷积和fully connected CRF。为了利用已经训练好的VGG模型进行fine-tun

2021-07-14 22:19:16 1803 5

原创 分割网络模型(FCN、Unet、Unet++、SegNet、RefineNet)

1、FCN《Fully Convolutional Networks for Semantic Segmentation》https://arxiv.org/abs/1411.4038FCN是不含全连接层的全卷积网络,对图像进行像素级的分类,解决了图像的语义分割问题,可以接受任意尺寸的图像大小,采用反卷积对最后一个特征图(feature map)进行处理,使其恢复到输入图像的尺寸,对每个像素产生一个预测,反卷积和卷积类似,都是相乘相加的运算。只不过后者是多对一,前者是一对多,网络结构:FCN有几个版

2021-07-14 21:42:50 16939 6

原创 Pytorch 迁移学习

迁移学习的概念实际中,基本没有人会从零开始(随机初始化)训练一个完整的卷积网络,因为相对于网络,很难得到一个足够大的数据集[网络很深, 需要足够大数据集]。通常的做法是在一个很大的数据集上进行预训练得到卷积网络ConvNet, 然后将这个ConvNet的参数作为目标任务的初始化参数或者固定这些参数。如果你认为深度学习非常的吃GPU,或者说非常的耗时间,训练一个模型要非常久,但是你如果了解了迁移学习那你的模型可能只需要几分钟,而且准确率不比你自己训练的模型准确率低,本节我们将会介绍两种方法来实现迁移学习。

2021-07-07 20:06:14 961 2

转载 Vision Transformer

论文: An Image Is Worth 16x16 Words: Transformers For Image Recognition At Scale论文下载:https://arxiv.org/abs/2010.11929原论文源码:https://github.com/google-research/vision_transformer文章目录摘要Vision TransformerEmbedding层Transformer Encoder层MLP Head层Vision Transform

2021-07-06 21:52:17 629

rv1126 yolov8的模型

rv1126 yolov8的模型rv1126 yolov8的模型rv1126 yolov8的模型rv1126 yolov8的模型

2023-12-08

my-resultasdasdsa

aasdasdasdsadsadsadsadsadsadsadsdasdsad

2023-12-05

Yolov8n.pt凯源文件

Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件Yolov8n.pt凯源文件

2023-11-08

python-2022.13.12381007-vsixhub.com.vsix

python-2022.13.12381007_vsixhub.com.vsix

2023-05-06

认设置声音非常小,非常不方便使用时 需要简单设置

认设置声音非常小,非常不方便使用时 需要简单设置

2022-11-13

RV1126 基于虹软人脸识别算法实现的示例使用教程

RV1126 基于虹软人脸识别算法实现的示例使用教程

2022-09-12

deepstream-yolov5-python.zip

使用deepstream5.0-python-api部署yolov5

2021-10-15

webinar-deepstream-sdk-improve-video-analytics.pdf

webinar-deepstream-sdk-improve-video-analytics

2021-10-12

car.mp4视频检测素材

car.mp4视频检测素材

2021-08-22

英伟达开发者社区免费课程NVIDIA GPU.rar

英伟达开发者社区免费课程NVIDIA GPU

2021-08-18

coco128.zip

coco128.zip

2021-08-01

fire-dataset.zip

fire-dataset.zip

2021-07-31

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除