自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(51)
  • 收藏
  • 关注

原创 YOLOV5-7.0源码阅读(一)

【代码】YOLOV5-7.0源码阅读(一)

2023-01-29 18:12:02 884 1

原创 open3d-mesh读写

三角网格数据python读写

2022-06-28 22:37:34 1869 1

原创 open3d-点云读写和显示

open3d点云读写和显示

2022-06-28 17:52:07 4812

原创 创建docker容器

docker容器创建指令

2022-06-06 14:56:33 246

原创 linux和docker的常用操作集锦

linux常用操作添加nameserver 8.8.8.8

2022-06-06 10:08:33 84

原创 Depthwise 卷积 ,Pointwise 卷积与普通卷积的区别

1 普通卷积原理:普通卷积是,一个卷积核与input的所有通道都进行卷积,然后不同通道相同位置卷积后的结果再相加,如下图所示,:⾸先,每个通道内对应位置元素相乘再相加,最后计算所有通道的总和作为最终结果。卷积核的Channel通道数等于Input输⼊的通道数,Output输出的通道数等于卷积核的个数。2 Depthwise 卷积原理:Depthwise 卷积的一个卷积核只负责一个通道,一个卷积核只与一个通道卷积。那么卷积核数需要与输入的通道数相等,输出的通道数也不变,等于输入的通

2022-04-11 19:59:15 7108 1

原创 论文笔记-UNeXt: MLP-based Rapid Medical ImageSegmentation Network

论文:https://arxiv.org/abs/2203.04967代码:https://github.com/jeya-maria-jose/UNeXt-pytorch1.摘要Unet网络及其扩展近年来是领先的医学图像分割方法。但是这些网络参数多,计算复杂,速度慢,不能应用于实时的快速图像分割。本文总结:(1)提出一种基于MLP(多层感知机)的图像分割网络Unext,即卷积+MLP的结构。(2)提出一个标记MLP块(tokenized MLP block),标记和投影卷积特征。

2022-04-07 19:17:54 7248 45

原创 Backbone-VGG[ICLR2015] Very Deep Convolutional Networks for Large-Scale Image Recognition

最近决定精度一下经典CNN网络,很多都是一直用封装的又比较好所以泛读的较多。这是第一篇大名鼎鼎的VGG论文连接:https://arxiv.org/abs/1409.1556摘要主要贡献:使用(3*3)小卷积核,对网络深度的增加进行全面评估,增加网络层数到16或19层,网络表现出了一个显著的效果提升。在ImageNet2014挑战中,检测和分类任务中各自取得了第一和第二的成绩。1 引言近来卷积网络已经在大规模图片和视频识别方向上取得了很大的成功,高性能的计算体系,如GPU或大规模分布式的

2022-04-07 14:59:52 3255

原创 论文笔记-YOLOv4: Optimal Speed and Accuracy of Object Detection

论文地址:https://arxiv.org/pdf/2004.10934v1.pdfcode:https://github.com/AlexeyAB/darknet.摘要有大量的技巧可以提高CNN的精度。某些技巧仅在某些模型上使用或针对某些问题或小规模的数据集使用;有一些技巧例如BN,残差连接等,适用于大多数的模型,任务和数据集。我们假设这种普遍的技巧包括:Weighted-Residual-Connections (WRC),Cross-Stage-Partial-connections (

2022-04-02 15:50:16 3373

原创 论文笔记-Exploring Plain Vision Transformer Backbones for Object Detection

论文链接:https://arxiv.org/pdf/2203.16527.pdf这一篇论文是Facebook AI Research 的 Yanghao Li、何恺明等新作。论文思想主要是证明了将普通的、非分层的视觉 Transformer 作为主干网络进行目标检测的可行性。仅仅通过VIT的最后一层特征,通过多次反卷积来实现特征的多尺度。摘要本文探索研究了一种链式的,非层级结构的VIT作为目标检测的backbone。这种设计使得原始的VIT结构就可以fine-tuned用于目标检测,而无需重新

2022-04-01 17:06:52 2727

原创 Attention机制

目录第一步:计算比较Q和K的相似度,用f来表示点乘 dot product​权重 General拼接权重 Concat​感知器 Perceptron​第二步:将得到的相似度进行Softmax操作,进行归一化第三步:针对计算出来的权重​,对V中所有的values进行加权求和计算,得到Attention向量Attention机制本质上是对相关性的计算,Attention通常表示,将query(Q)和key-value pairs映射到输出上,其中query、每个...

2022-03-29 20:05:26 1097

原创 论文笔记-Attention Is All You Need---NeurIPS2017

论文地址:https://arxiv.org/abs/1706.03762Abstract主要的sequence transduction 模型是基于复杂的递归或卷积神经网络,其中包括一个编码器和一个解码器。性能最好的模型也是通过一种注意机制来连接编码器和解码器。我们提出了一种新的简单的网络架构,the Transformer,完全基于注意机制,完全免除循环和卷积。在两个机器翻译任务上的实验表明,这些模型质量优越,同时更并行,需要的训练时间大大少。我们的模型在WMT2014英德翻译任务上实现了28.

2022-03-28 18:23:58 1758

原创 空间坐标系平移,方向角计算

目录背景问题建模背景相机固定在机械导轨上识别钢筋笼待绑扎结点,多点进行拍照,场景如下图所示。已知C1C2的平移关系(△x,△y,△z)(相机固定在导轨装置上不动,认为相机从C1通过导轨运动到C2物旋转变换),需要求出导轨的方向角(α,β,γ)??为什么要求导轨的方向角呢?如果知道了导轨的方向角,那么已知C1C3的模(即C1到C3导轨运动的距离)以及C1C3的方向角,那么就可以求出C1到C3的(△x,△y,△z),进而可以由钢筋节点点在C3下的坐标求出该节点在C1的坐标。u

2022-03-02 11:42:01 764

原创 SVD计算旋转,平移矩阵

问题描述最近在做手眼标定,3D点云相机+ABB机器人,因相机与机器人在流水线同侧,无法通过传统的eye-to-hand标定板固定在机械臂末端进行手眼标定。相机与机械臂的位置如下图所示,C是相机,B是机械臂base。已知:物体在P1点时在C坐标系下的位置坐标,求物体运动到P2点时在B坐标系下的位置,其中P1->P2的运动是固定的。问题建模问题简化为由C下点集和B下的点集,求C->B的变换矩阵Hcb = Hcp1*Hp1p2*Hp2b.其中物体在C下的坐标通过点云上获得,

2022-02-18 15:14:20 8751 7

原创 CSPNet(CrossStagePartialNetworks)

论文:原论文论文思想这篇论文主要是解决,网络计算量大的问题提出一种新的特征融合的结构,来降低计算量同时又可以保持甚至提升精度。

2022-02-17 10:02:01 1996

原创 yolov5s-v3.1 ncnn 部署(四)

目录安卓端测试记录第一步:安装AndriodStudio第二步:编译测试自己生成的模型安卓端测试记录安卓端测试工程用的是nihui大神的版本,github连接:https://github.com/nihui/ncnn-android-yolov5第一步:安装AndriodStudio官网下不了安装包,找安卓的同事要了一个~,具体省略。。。环境也顺便让安卓的同事帮忙配置好了~~哈哈~~第二步:编译测试自己生成的模型流程能通,但是CPU识别结果有问题出现密密麻麻

2021-11-04 19:46:54 241

原创 yolov5s-v3.1 ncnn 部署(三)

目录VS2019测试工程配置第一步:建个C++的空项目第二步:拷贝yolov5测试cpp第三步:工程配置第四步:编译工程VS2019测试工程配置建立一个VS2019的测试工程,对yolov5s-v3.1 ncnn版本模型进行测试。本篇主要记录测试工程的配置。第一步:建个C++的空项目第二步:拷贝yolov5测试cpp把ncnn中examples中的yolov5.cpp拷贝到刚建的工程中并添加到项目中。第三步:工程配置写了一对配置文件如下:...

2021-11-03 18:47:28 547

原创 yolov5s-v3.1 ncnn 部署(二)

YOLOv5s-v3.1模型转换因为U版YOLO的作者用pytorch实现,yolov5的模型是torch格式的pt。要使用ncnn部署YOLOv5需要将模型进行转换,大概步骤是pt2onnx,onnx2ncnn。因为只有yolovs-v3.1版本正常测试通过了,固仅针对此进行记录。高版本的yolov5初试未成功,未细加研究,之后有时间再进行深入研究。。。。模型的转换主要参考:https://zhuanlan.zhihu.com/p/275989233?utm_source=qq第一步:pt

2021-11-03 18:24:12 905 1

原创 yolov5s-v3.1 ncnn 部署(一)

ncnn在windows下编译参考官网:https://github.com/Tencent/ncnn/wiki/how-to-build#build-for-windows-x64-using-visual-studio-community-2017第一步:安装VS2017因为我的电脑本来装了VS2019,所以直接用VS2019试一下~Download and Install Visual Studio Community 2017 fromVisual Studio 2019 Comm.

2021-11-03 17:38:42 331

原创 Docker镜像打成tar包

1 将容器打包成镜像#docker commit 容器ID 镜像名称:镜像版本docker commit 67b3481a8a06 pv_build:1.02 将镜像打成tar包#docker save -o 打包名称.tar 镜像名称:镜像版本docker save -o pv_build_1.0.tar pv_build:1.03 将镜像tar包导入docker镜像docker load -i pv_build_1.0.tar...

2021-10-11 10:45:44 4320

原创 Docker容器打包迁移到另一个宿主机上(失败的经验)

1,确定待迁移容器的名字docker ps -a2,将此容器提交为新的镜像docker commit 容器名 镜像名3,把镜像保存为tar文件docker save 镜像名 >备份文件.tar4,将 备份文件.tar 复制到目的主机下5,将 备份文件.tar恢复为镜像 ,详见docker load --help6,根据镜像重新运行起容器docker run -it --name=pv-station-build --gpus=all --vol..

2021-08-23 16:53:58 3791

原创 ModuleNotFoundError: No module named ‘_lzma‘

docker里配置新环境,报错如下:解决办法:pip install backports.lzma环境中修改lzma.py位置依自己的环境路径而定如下部分: from _lzma import * from _lzma import _encode_filter_properties, _decode_filter_properties修改成如下:try: from _lzma import * from _lzma import _.

2021-08-17 10:28:14 4555 2

原创 Ubuntu下安装python版的GDAL

第一步:安装C++版gdal sudo apt-get install libgdal-dev第二步:安装python版gdalpip install gdal报错如下:解决方法:设置环境变量export CPLUS_INCLUDE_PATH=/usr/include/gdalexport C_INCLUDE_PATH=/usr/include/gdal查看gdal版本gdalinfo --version显示:GDAL 2.4.2, released.

2021-08-17 10:07:30 1104

原创 code-显示labelme标注mask

import jsonimport cv2import matplotlib.pyplot as pltimport numpy as nptmp = {}with open("D:/myfiles/all-quexian/N_2000_E_220210710_11441101_20210710_114411.json", "r") as f: tmp = f.read()tmp = json.loads(tmp)points = tmp["shapes"][0]["point.

2021-07-20 09:48:51 266

原创 bipartite matching二分图匹配

bipartite matching 这个词最近在看Transformer相关的论文里常见用作loss function,所以特地学习一下,bipartite matching是一个什么操作。个人理解,若有表述错误或不当的问题,还请各位大牛不吝赐教!!bipartite matching 叫二分图(二部图)最大匹配,是图论里边的一个概念。二分图bipartite的概念二分图(bipartite)是指图的所有顶点可分为两个集合,每条边对应的两个顶点分别属于这两个集合。设G=(V,E)是一个无向图,

2021-07-02 12:39:03 5488

原创 手眼标定(eye-in-hand)-实现

一、使用标定板类型使用的是非对称圆分布的标定板如下图二、标定步骤及实现2.1 相机外参标定相机外参标定结果点如下图,红色点为标定结果还原的点,绿色点为原始点相机外参标定实现def calibrate(): #相机内参 cameraMatrix =np.array([[2753.8901912306533,0,949.2910576185922], [0,2753.5946107288023,593.624

2021-06-28 16:57:35 1845 1

原创 Nvdia驱动与CUDA版本匹配

windows10查看本机驱动版本及驱动对应的cuda版本NVIDIA驱动的版本驱动支持cuda的版本,向下兼容CUDA版本与驱动版本匹配需满足下表,

2021-06-22 19:05:54 482

原创 手眼标定(eye in hand)-步骤

第一步:明确四个坐标系base坐标系:base法兰坐标系: falan相机坐标系: cam标定板/物坐标系: cal第二步:坐标系间的转换关系A1,A2:已知即为falan坐标系到base坐标系的转换关系,由机器人系统得知(已知)B1,B2:相机坐标系到标定板坐标系的转换关系(相机外参),由相机标定求出;(相当于已知)X:相机坐标系到标定falan坐标系的转换关系,机械手运动过程中保持不变(未知,待求)baseHcal:标定板坐标到base坐标...

2021-06-22 18:58:13 15589 1

原创 手眼标定(eye in hand)-原理

问题描述在机械臂与相机进行协同作业时,如何将物体在相机下识别到的作业点,转到机械臂的坐标系下进行任务作业呢?坐标的变换可以这样进行推导:

2021-06-22 15:42:53 1443

原创 论文笔记- [CVPR 2017] Look Closer to See Better:RA-CNN

Look Closer to See Better:Recurrent Attention Convolutional Neural Network for Fine-Grained Image Recognition论文下载地址:https://openaccess.thecvf.com/content_cvpr_2017/papers/Fu_Look_Closer_to_CVPR_2017_paper.pdf代码连接:https://github.com/ Jianlong-Fu/Recurre

2021-06-17 20:04:19 308 1

原创 论文笔记-Image/Video Deep Anomaly Detection: A Survey

Image/Video Deep Anomaly Detection: A Survey 图像或视频中异常检测综述目录Image/Video Deep Anomaly Detection: A SurveyAbstract1 Introduction2 Problem Formulation2.1pN : Modeling Normal Data2.2D: Detection Measure3 SupervisionSupervisied(N + A).Sem..

2021-06-11 18:57:46 572

原创 论文翻译--MLP-Mixer: An all-MLP Architecture for Vision

MLP-Mixer: An all-MLP Architecture for Vision MLP-Mixer:一个全MLP的视觉架构Google Research, Brain Teampaper: https://arxiv.org/abs/2105.01601code: https://github.com/google-research/vision_transformer(暂未开源)摘要CNNs是CV的首选模型。最近,attention-based networks.

2021-06-11 16:42:36 653 1

转载 参考sift特征提取match两个图像

参考博客:https://blog.csdn.net/abcjennifer/article/details/7639681

2021-06-07 14:53:54 201

原创 论文翻译--[TPAMI 2021]Deep Hough Transform For Semantic Line Detection

深度霍夫变换语义直线检测Kai Zhao∗ , Qi Han∗ , Chang-Bin Zhang, Jun Xu, Ming-Ming Cheng†, Senior Member, IEEE摘要

2021-06-03 15:17:47 2299 2

原创 open3d学习记录--o3d.geometry.PointCloud与np.array之间的转换

o3d.geometry.PointCloud转np.arrayimport open3d as o3dimport numpy as npply_path = '1.pcd'pcd= o3d.io.read_point_cloud(path2source)#pcd 转 np.arraypcd_arr = np.asarray(pcd.points)

2021-06-01 14:47:18 3269

原创 [TPAMI2021]Deep Hough Transform for Semantic Line Detection读论文笔记

目录方法数据集霍夫变换算法直线参数化深度霍夫变换优点实验结果精度,准确率耗时TPAMI2021南开大学提出深度霍夫变换:语义线检测新方法主页:https://mmcheng.net/dhtline/论文:http://mftp.mmcheng.net/Papers/21PAMI-DHT-line.pdf代码:https://github.com/Hanqer/deep-hough-transform方法该论文提出“深度霍夫变换(DHT)”通过在深度

2021-05-27 15:43:26 1166

原创 pytorch模型保存

目录只保存模型训练参数保存完整的模型只保存模型训练参数# 保存torch.save(model.state_dict(), '\parameter.pkl')# 加载model = ModelClass(...)model.load_state_dict(torch.load('\parameter.pkl'))保存完整的模型# 保存torch.save(model, '\model.pkl')# 加载model = torch.load('\model.pk.

2021-05-27 11:29:52 107

原创 图像的低秩,稀疏概念

目录矩阵的秩低秩矩阵概念作用稀疏矩阵稀疏编码矩阵的秩矩阵的秩为矩阵中不相关的行或列向量的个数,对于图像的灰度矩阵来说,矩阵的秩可以表示图像的信息冗余程度,信息量的大小,噪声的多少,图像矩阵的秩越小基的个数越少 图像携带的信息量越小 图像信息丰富程度越低 噪声少低秩矩阵概念当矩阵的秩较小时(r <<n,m)就可以认为该矩阵为低秩矩阵。在图像处理中,图像灰度矩阵是低秩矩阵,那么就意味着该图像的行列相关性大即很多行或列向量是线性相关的,信息冗余.

2021-05-27 11:21:56 2598

转载 轨道病害视觉检测:背景、方法与趋势

以下文章来源于中国图象图形学报,作者李清勇 等本文转自“中国图形图像学会”公众号https://mp.weixin.qq.com/s/ZJRssWV1WxbmoMvmNgtCsw作为我国“一带一路”倡议中基础设施建设的重要组成部分,高铁已成为中国新的外交名片。轨道交通基础设施服役状态检测是保障列车安全运营的重要手段,轨道病害检测是其中的核心内容,研究轨道病害检测的新理论和新技术是当前高速铁路发展的迫切需求。今天特别推荐来自北京交通大学教授,《中国图象图形学报》编委李清勇团队的“学者观点”,.

2021-05-27 10:24:07 361

原创 opencv4.5.1 包含了BEBLID算子,一个新的局部特征描述符,超越ORB

OpenCV 4.5.1中最令人兴奋的特性之一是BEBLID (Boosted Efficient Binary Local Image Descriptor),一个新的描述符能够提高图像匹配精度,同时减少执行时间!GitHub地址:https://github.com/iago-suarez/beblid-opencv-demo/blob/main/demo.ipynb首先确定安装opencv的版本很重要,opencv版本的检查和安装如下检查OpenCV Contrib版本:pipin.

2021-05-25 11:09:58 1229

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除