自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(12)
  • 收藏
  • 关注

原创 文献精读:PointPillars: Fast Encoders for Object Detection from Point Clouds

最后进行了消融实验(Ablation Studies)验证了空间分辨率(即3D点云数据中pillar的划分大小)的不同对速度和精度的影响,在精度损失不大的前提下0.28^2的划分大小可达到105HZ的速度。每个Block都表示为(S,L,F),S表示Stride,L表示3x3 2D卷积核的个数,F表示输出的特征通道数。作者通过对pillar和其内部的点云数进行限制(多的随机采样,少的0填充)生成了一个密集张量(D,P,N),D表示特征维度,P为Pillar数,N为每个pillar内的点数。

2023-10-15 00:06:43 80

原创 PointCNN: Convolution On X -Transformed Points论文精读

出发点:作者想在Point cloud数据集中运用卷积操作。难点:点云数据是不规则和无序的,直接对点云特征进行卷积操作会导致形状信息的丢失和点之间排序的变化。解决方案第一种是对与点相关的输入特征进行加权。第二种是将点排列成潜在的、可能是典型的顺序。换句话说其可以对输入点云的顺序进行处理,使输入点云的顺序不会影响模型的输出结果。

2023-09-27 00:55:18 141

原创 PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space论文精读与FPS简单实现

在现实生活中利用3D扫描器等设备产生得点云集合其密度和特征分布是变化的和不均匀的。从不同的度量空间定义局部邻域会产生不同的特征属性。PointNet的基本思想是学习每个点的空间编码,然后将所有单个点的特征汇总到全局点云特征中。这表明他不具备局部特征得捕捉能力,但从卷积操作的成功可以看出,局部信息对网络精度的提升是非常重要的,分层级得特征抽象使得模型能够更好地概括未见过的情况。

2023-09-19 23:31:17 111

原创 PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation 论文精读与代码实现

2.证明点云物体的分类和分割只受关键点云(critical points)的影响,即存在临界点集(critical point)和瓶颈点集(bottleneck point)只要输入的点云数据在这个范围内输出结果就不会有太大的波动。并分析各方法的优劣。1.神经网络对连续函数的逼近能力:连续函数的好处是输入数据的微小的扰动不会对输出结果有明显的影响。1.要实现直接输入3D点云数据首先要考虑的是如何消除网络对点云顺序的敏感性,换句话说网络应该具备输入点云数据排序不变性,即点云数据的输入顺序并不影响模型的结果。

2023-09-13 18:26:47 73

原创 反向传播公式推导与Python代码简单实现

之前一直对反向传播机制一知半解,最近花了点时间把这个问题想了想,记录于此。反向传播时神经网络学习能力的具体体现,他表示损失函数对参数的梯度反向流动,以此来更新网络中的参数值。在这期间需要注意的是,网络的可学习参数值是自变量,输入为可学习参数的权重,损失函数是因变量。其核心思想时链式求导法则。一个反向传播的全过程包括误差传播,可学习参数的更新。以全连接神经网络为例,一个完整的正向传播如下图所示:这是一个二分类的网络前向传播图,每个节点表示一个神经元,其包含可学习参数W和b。

2023-08-02 18:35:13 678

原创 Swin-Transformer论文笔记

本文介绍了一种新的视觉 Transformer,称为 Swin Transformer,它可以作为计算机视觉的通用主干。将 Transformer 从语言应用到视觉的挑战来自两个领域之间的差异,例如视觉实体规模的巨大变化以及与文本中的文字相比图像中像素的高分辨率。为了解决这些差异,我们提出了一种分层 Transformer,其表示是使用 Shifted 窗口计算的。移位窗口方案通过将自注意力计算限制在非重叠的本地窗口同时还允许跨窗口连接来提高效率。这种分层架构可以灵活地在各种比例下进行建模。

2022-12-13 00:19:16 335 4

原创 ViT论文笔记

arxiv虽然 Transformer 架构已成为自然语言处理任务的事实标准,但其在计算机视觉中的应用仍然有限。在视觉中,注意力要么与卷积网络结合使用,要么用于替换卷积网络的某些组件,同时保持其整体结构不变。我们表明,这种对 CNN 的依赖是不必要的,直接应用于图像块序列(image patch)的纯Transformer可以很好地执行图像分类任务。当对大量数据进行预训练并转移到多个中小型图像识别基准(ImageNet、CIFAR-100、VTAB 等)时,Vision Transformer (ViT)

2022-12-06 23:58:43 139 1

原创 nnU-Net论文笔记

提出当Unet处理新问题时需要有适应过程,四个方面:确切的架构,预处理,训练和推理。这些选择并不是相互独立的,会对模型性能产生重大的影响。为此,本文提出了nnU-Net(“no-new-Net”) ,一种基于2D或3D Unet的健壮的,自适应的网络。nnU-net认为去除网络设计方案中华而不实的部分,关注能使模型具有良好性能和泛化性的部分是很有必要的。作者在”Medical Segmentation Decathlon“挑战赛中测试了nnU-net的性能,在所有分割类别中达到了最高的平均Dice分数。

2022-12-03 22:28:19 516 1

原创 Unet代码简单实现

该代码为Unet的简单实现。代码使用python语言,tensorflow框架,模型的特征图的通道数与图中略有不同(无伤大雅)

2022-11-28 15:17:42 832 2

原创 Unet++论文笔记

Unet++论文笔记:首先总结作者提出的网络结构本质上是一个深度监督的编码器-解码器网络,其中编码器和解码器子网络中是通过一系列嵌套的,密集的跳跃路径连接。然后提出使用嵌套的,密集跳跃路径连接的好处是:缩小编码器和解码器特征图的语义差距(the semantic gap)。作者认为当编码器和解码器的特征图的语义相似时优化器可以处理一个更加简单的学习任务(learning task),有利于提升模型的性能。

2022-11-28 14:42:57 605

原创 C#委托应用

c#程序设计–委托(delegate)应用什么是委托?委托是一种存储函数的引用类型。委托的声明非常类似于函数,但不带函数体,且要使用delegate关键字。委托的声明指定了一个返回类型和一个参数列表。定义了委托后,就可以声明该委托类型的变量。接着把这个变量初始化为于委托具有相同返回类型和参数列表的引用。之后,就可以使用委托变量调用这个函数,就像该变量是一个函数一样。委托申明委托声明后决定了该委托可以引用的方法。public delegate int processDelegate(int nu

2021-04-10 17:02:28 133

原创 C#饿汉式与懒汉式单例模式

C#饿汉式与懒汉式单例模式何为单例模式:单例模式(Singleton Pattern)是 Java 中最简单的设计模式之一。这种类型的设计模式属于创建型模式,它提供了一种创建对象的最佳方式。这种模式涉及到一个单一的类,该类负责创建自己的对象,同时确保只有单个对象被创建。这个类提供了一种访问其唯一的对象的方式,可以直接访问,不需要实例化该类的对象。单例模式的特点1、单例类只能有一个实例。2、单例类必须自己创建自己的唯一实例。3、单例类必须给所有其他对象提供这一实例。饿汉式示例代码:饿汉式

2021-04-10 10:44:47 588

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除