![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
cv
文章平均质量分 74
蒋思
加油!
展开
-
Improving Monocular Depth Estimation by Leveraging Structural Awareness and Complementary Datasets
提出问题:目前单目深度估计中的方法存在的问题是缺乏结构信息的利用,这样就会导致不准确的空间信息,表面不连续,模糊边界问题。提出解决方案:为了充分利用视觉特征的空间关系,提出了一个空间结构注意力模块,这个模块让不同特征层注意不同的结构信息,比如有些层注意全局结构,有些层注意局部细节。介绍了一个global focal relative loss 损失函数(这个公式没看懂),可以增强空间约束。(我理解的就是提供更有效的空间信息),并明确的增加深度不连续的误差惩罚(权重),有助于保留深度估计结果的清晰度.原创 2021-10-18 18:23:47 · 267 阅读 · 0 评论 -
进一步理解卷积
参考文章:https://www.zhihu.com/question/22298352/answer/228543288https://zhuanlan.zhihu.com/p/348922250https://www.zhihu.com/question/22298352https://baike.baidu.com/item/%E5%8D%B7%E7%A7%AF/9411006?fr=aladdin卷积公式卷积分为离散卷积和连续卷积。数学中定义,卷积是通过两个函数f和g生成第三个函数的一原创 2021-10-14 18:03:37 · 278 阅读 · 0 评论 -
格拉姆矩阵(Gram matrix)详细解读
转载:https://www.cnblogs.com/yifanrensheng/p/12862174.html目录基础知识-向量的内积Gram matrix介绍Gram matrix的应用-风格迁移一、基础知识-向量的内积1.1 向量的内积定义:也叫向量的点乘,对两个向量执行内积运算,就是对这两个向量对应位一一相乘之后求和的操作,内积的结果是一个标量。1.2 实例a和b的内积公式为:1.3 作用a·b>0 方向基本相同,夹角在0°到90°之间a·b=0 正转载 2021-10-12 20:19:26 · 4433 阅读 · 0 评论 -
普通卷积,分组卷积,深度可分离卷积
转载https://blog.csdn.net/weixin_43572595/article/details/110563397 直观理解 用一幅图就可以很直观的理解了: 如上图,左边是常规卷积,假设input_features[1, 12, Hi, Wi], output_f转载 2021-10-06 22:25:00 · 618 阅读 · 0 评论 -
各种卷积层的理解
转载文章https://blog.csdn.net/gwplovekimi/article/details/89890510 目录 2D卷积 3D卷积 1*1卷积 空间可分离卷积(separable convolution) 深度可分离卷积(depthwise separable convolution) 分组卷积(Group convolution) 扩张卷积(空洞卷积 Dilated Convolutions) 反卷积(转置卷积 Transposed Convolutio.转载 2021-09-30 11:17:43 · 1421 阅读 · 0 评论 -
Pytorch: detach 和 retain_graph,和 GAN的原理解析
转载知乎文章:https://zhuanlan.zhihu.com/p/43843694 转载知乎文章:https://zhuanlan.zhihu.com/p/43843694 写的真的很棒!看的很明白.谢谢作者 本人观察 Pytorch 下的生成对抗网络(GAN)的实现代码,发现不同人的实现细节略有不同,其中用到了 detach 和 retain_graph,本文通过两个 gan 的代码,介绍它们的作用,并分析,不同的更新策略对程序效率的影响。 这两个 G转载 2021-08-24 11:20:56 · 644 阅读 · 2 评论 -
李宏毅Transformer
TransformerTransformer 其实就是Sequence-to-Sequence(Seq2Seq)架构的model,就是输入一堆向量,输出一堆向量,输出的向量数量由机器自己决定。Seq2Seq架构整体架构Encode部分Encode部分就是输入一堆向量,然后输出一堆向量,这个encoder部分可以是RNN或者CNN组成的,但是在Transformer里,Encoder得是Transformer的Encoder就是下图右边这部分。首先我们看下Encoder的基本架构,就是红色框中原创 2021-07-07 01:25:45 · 723 阅读 · 0 评论 -
李宏毅Self-attention
Self-Attentionself-attention 当你输入很多向量时候,然后经过神经网络进行输出结果,self-attention就是对输入的其中某一个向量处理时,让它充分的考虑与其它向量是否存在关系或者关系程度考虑过后再输出。建立关联性的过程就是self-attention。词性标记场景:红色框中就是每个单词的向量,如果我们单独把每个单词作为一个向量输入到FC网络中,输出词性,那么第二个saw和第四个saw输出一定是同一个词性,但是很明显第二个saw是动词,第四个saw是名词。那么如何解决原创 2021-07-06 17:02:30 · 247 阅读 · 0 评论 -
Free-Form Image Inpainting with Gated Convolution
摘要本文提出一个生成式图像修复系统,基于门控卷积(gated convolution)从百万种图像中学习。创新1:门控卷积门控卷积的提出解决了传统卷积中把所有输入像素点都作为有效像素这个问题,并扩展partial convolution(通过提供一个对所有层中每个空间位置[指的就是每一block块的网络]中每个通道进行学习的动态选择特征机制)。创新2:SN-PatchGAN由于任意形式的masks可能出现在图片中任意位置上以任何形式的存在。我们提出一个patch-based GAN loss(S.原创 2021-07-05 23:24:59 · 792 阅读 · 0 评论 -
argparse模块
argparse模块作用就是在代码运行时候,我们会需要输入一些值,这样会变得更加方便,我们不需要经常修改我们源代码,只需要在命令行交互窗口输入一些值,会变的非常方便原创 2021-06-09 10:30:54 · 56 阅读 · 0 评论