- 博客(60)
- 资源 (1)
- 收藏
- 关注
原创 Applications of fractional calculus in computer vision: A survey
分数阶微积分是一种抽象的概念,探索了具有非整数阶微分的解释。很长一段时间以来,它被认为是一个纯理论问题。然而,引入了几个有用的分数阶导数定义,扩展了其应用范围。在计算能力和算法表示的支持下,分数阶微积分已经成为一个多方面的领域。研究发现,分数阶导数能够将记忆纳入系统中,因此适用于改进像图像处理和计算机视觉等局部感知任务的性能。本文对在计算机视觉中使用基于分数阶导数的技术进行了广泛调查。它简要介绍了基础知识,并介绍了分数阶微积分在六个不同领域中的应用,即边缘检测、光流、图像分割、图像去噪、图像识别和目标检测。
2023-03-22 20:45:50
491
1
原创 Fractional Brownian Motion Models for Synthetic Aperture Radar Imagery Scene Segmentation
本文演示了分形随机过程模型及其相关缩放参数作为高分辨率极化合成孔径雷达 (SAR) 图像中杂波分析和分割特征的应用。具体来说,计算草和树等自然杂波源的分形维数并将其用作贝叶斯分类器的纹理特征。使用原始后向散射功率作为判别式以单独的方式分割 SAR 阴影。所提出的分割过程为本研究中考虑的场景生成了一个三类分割图(具有三种杂波类型:阴影、树木和草地)。还解决了在高散斑 SAR 图像中计算纹理度量的困难。特别是,使用了一种两步预处理方法,包括极化最小散斑过滤和非相干空间平均。
2023-03-22 15:22:33
288
原创 Vision Transformer with Deformable Attention
Vision Transformer with Deformable Attention
2022-12-08 09:57:00
2820
原创 Focal Self-attention for Local-Global Interactions in Vision Transformers
最近,Vision Transformer 及其变体在各种计算机视觉任务中表现出了巨大的潜力,但由于二次方计算开销,它也带来了挑战,特别是对于高分辨率视觉任务(例如,对象检测)。最近的许多工作都试图通过应用粗粒度的全局注意力或细粒度的局部注意力来降低计算和内存成本并提高性能。然而,这两种方法都削弱了多层 Transformer 原始自注意力机制的建模能力,从而导致次优解决方案。在本文中,我们提出了 focal self-attention,这是一种结合了细粒度局部交互和粗粒度全局交互的新机制。
2022-11-28 19:41:04
943
原创 Multiscale Vision Transformers 论文详解
我们提出了 Multiscale Vision Transformers(MViT)用于视频和图像识别。MViT 是多尺度特征层次结构和Transformer的结合。MViT 有几个通道分辨率尺度块(channel-resoluation scale stages)。从输入分辨率和小通道维度开始,这些stages扩展通道容量,同时降低空间分辨率。这创建了一个多尺度特征金字塔,早些的层在高空间分辨率下运行以模拟简单的低级视觉信息,而更深层在空间粗糙但复杂的高维特征上运行。
2022-11-21 14:39:43
3048
原创 MMML-CMU 学习笔记_No.1 Multimodal Introduction
多模态相关知识的简介与定义。以及多模态需要关注的几个研究方面。
2022-11-01 15:16:54
465
原创 MultiModal Machine Learning 笔记_No.0 课程介绍
CMU 的 Multimodal Machine Learning 学习笔记 课程介绍
2022-11-01 10:32:07
144
原创 ERROR: Could not build wheels for tokenizers which use PEP 517 and cannot be installed directly
安装 transformers 库报错:ERROR: Could not build wheels for tokenizers which use PEP 517 and cannot be installed directly
2022-08-28 21:00:03
6360
原创 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 论文翻译 + 网络详解
Swin Transformer swin 最主要的贡献就是可以作为通用的计算机视觉任务的主干网络(Transformer 只是证明了在分类问题上有效),另外可以大致对于 swin 有一个了解:移位窗口,分层架构,窗口间允许跨窗口连接,从而导致模型复杂度小。
2022-08-23 16:39:54
2461
原创 Adaptive Learning Rate 自适应学习率
上一篇文章我们说了 critical point 中的 local minima 可能会让训练停止,但其实更多的情况下是 saddle point 。这一次呢,我们说一下另外一个可能会让 training 止步不前的问题: learning rate 学习率。
2022-08-20 10:23:59
1952
1
原创 Critical Point ( local minima && saddle point)
Critical Point ( local minima && saddle point)
2022-08-19 13:59:15
895
原创 机器学习介绍(上)
从这一次分享到接下来一段时间,会根据李宏毅老师开设的 2022ML 台湾大学机器学习课程进行比较系统的学习。李宏毅老师讲的课非常有水平,并且非常透彻!如果有时间,建议大家可以去学一下,当然也可以去参考之前开设的 2021ML 。机器学习相关概念,损失,优化,Linear model 线性模型...
2022-08-13 10:22:19
431
原创 动手学深度学习_风格迁移
风格迁移(style transfer)是让一张图片内容不发生改变,但样式改为另一张图片效果。这里所使用的风格迁移并不是基于 GAN 的,而是基于卷积神经网络的风格迁移方法(当然现在主流的风格迁移是基于 GAN 的,感兴趣的可以了解一下 之间写过的一些 GAN 的介绍)...
2022-08-09 11:18:48
5294
原创 动手学深度学习_全卷积网络 FCN
全卷积网络 (fully convolutional network,FCN),顾名思义,网络中完全使用卷积而不再使用全联接网络。全卷积网络之所以能把输入图片经过卷积后在进行尺寸上的还原,就是利用转置卷积实现的。 因此,输出的类别预测与输入图像在像素级别上具有一一对应关系:通道维的输出即该位置对应像素的类别预测。...
2022-08-09 10:47:01
941
原创 动手学深度学习_转置卷积
转置卷积(transposed convolution),可以看作是卷积的逆,是一种上采样操作,增大特征图的空间维度(高和宽)。注意这里卷积的逆只针对图像大小,图像中的值发生改变。
2022-08-08 20:49:05
1093
原创 动手学深度学习_目标检测算法 R-CNN 系列
区域卷积神经网络region-based CNN 或 regions with CNN features,R-CNN比较有名的几个网络:R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN
2022-08-08 14:40:42
276
2
原创 动手学深度学习_GoogLeNet / Inceptionv1v2v3v4
GoogLeNet 是根据 NiN 中串联网络的思想,在此基础上进行改进。篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。 毕竟,以前流行的网络使用小到 1 × 1,大到 11 × 11 的卷积核。 本文的一个观点是,有时使用不同大小的卷积核组合是有利的。这里我们写的代码,是GoogLeNet 的简化版,原版的实现我贴到最后,就不逐一分析了,基本思路一致。...
2022-08-05 09:38:07
591
2
原创 动手学深度学习_卷积神经网络CNN
MLP到CNN的转变,transitional invariance平移不变性,locality 局部性,图像卷积,互相关计算,卷积层,padding填充,stride步长,1 x 1卷积,pooling汇聚层(池化层)
2022-08-03 19:55:51
343
原创 MAE 论文《Masked Autoencoders Are Scalable Vision Learners》
《Masked Autoencoders Are Scalable Vision Learners》,我直呼666
2022-08-01 16:53:43
2172
原创 ValueError: Expected 96 from C header, got 88 from PyObject
报错:ValueError: numpy.ndarray size changed, may indicate binary incompatibility.Expected 96 from C header, got 88 from PyObject
2022-07-29 21:07:31
1956
1
原创 Attention Is All You Need(Transformer)
关于《Attention Is All Your Need》论文的翻译以及 Self-Attention 和 Multi-Head Attention的详解
2022-07-26 20:14:12
711
原创 图像线性融合
import cv2for i in range(1,5001): img1 = cv2.imread('/Users/like/Desktop/mix/1/'+str(i)+'.jpg') img2 = cv2.imread('/Users/like/Desktop/mix/2/'+str(i)+'.jpg') #img2 = cv2.resize(img2,(512,512))#统一图片大小 dst = cv2.addWeighted(img1,0.5,img2,.
2022-05-09 10:45:17
286
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人