自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 【精辟版】通俗地说清Kruskal与Prim算法的区别

Kruskal是先按序排边,从小到大依次选择边加入图中。受图中已有顶点的影响,再由小到大地选择不会使图中含圈的新边。Prim是选择顶点,然后遍历相关边,找到最小边,加入新顶点。

2023-05-28 23:51:22 249 1

原创 论文学习随记:Unsupervised 3D Shape Completion through GAN Inversion

Shape Inversion论文阅读及源码调试

2022-02-25 21:50:11 1638 6

原创 论文学习随记:PF-Net: Point Fractal Network for 3D Point Cloud Completion

文章目录1. 什么是genus-wise distortions problem(属类失真问题)1. 什么是genus-wise distortions problem(属类失真问题)原文:Nonetheless, the reconstructed points may still have genus-wise distortions when the original surface is too complex.其实就是指当原始表面构成复杂时,会无法完美表示。例如飞机机翼上的小翼、椅背上的孔。

2021-12-07 20:32:13 2711 2

原创 论文学习随记:PoinTr: Diverse Point Cloud Completion with Geometry-Aware Transformers

文章目录1. 理解多头注意力机制自注意力机制Multi-head Attention2. 多次提到的embedding究竟是什么?3.Transformer网络结构Transformer是如何对字符进行Embedding:Transformer网络结构:1. 理解多头注意力机制学习参考链接重点及笔记:自注意力机制由于传统的Encoder-Decoder架构在建模过程中,下一个时刻的计算过程会依赖于上一个时刻的输出,而这种固有的属性就限制了传统的Encoder-Decoder模型就不能以并行的方式

2021-11-23 17:23:26 2106

原创 论文阅读:弱基础小白跑通PCN源码过程随记

论文名:PCN: Point Completion Network源码:https://github.com/wentaoyuan/pcn一些杂乱的记录:1.一定要记得conda activate py36(后续所有的包其实安装在了这里面了)2.初次安装完open3d之后 环境应该是被覆盖了 所以requirement安装的依赖就都没有了3.查看makefile文件里面对应的路径,是否是你已下载好的or总服务器里有的(此处我还犯了个错,就是修改makefile一直不生效,后来发现是和远程服务器的映

2021-11-14 19:13:00 3069 30

原创 什么是indicator function指示函数

在看论文的时候发现indicator function频繁使用在公式中,但是上网查博客or百度百科的描述都不太清楚。我搜索的目的:indicator function用在公式中表示了什么意思,即括号内的输入、函数的输出是什么。经搜索,我把指示函数简单理解为:事件的指标函数是一个随机变量,当事件发生时取值为 1,当事件不发生时取值为 0。这个理解对于简单地公式理解也就够了,如需详细了解,这里附上一篇外文参考:https://www.statlect.com/fundamentals-of-probabil

2021-10-14 16:18:28 12107 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除