自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(60)
  • 资源 (1)
  • 收藏
  • 关注

原创 Applications of fractional calculus in computer vision: A survey

分数阶微积分是一种抽象的概念,探索了具有非整数阶微分的解释。很长一段时间以来,它被认为是一个纯理论问题。然而,引入了几个有用的分数阶导数定义,扩展了其应用范围。在计算能力和算法表示的支持下,分数阶微积分已经成为一个多方面的领域。研究发现,分数阶导数能够将记忆纳入系统中,因此适用于改进像图像处理和计算机视觉等局部感知任务的性能。本文对在计算机视觉中使用基于分数阶导数的技术进行了广泛调查。它简要介绍了基础知识,并介绍了分数阶微积分在六个不同领域中的应用,即边缘检测、光流、图像分割、图像去噪、图像识别和目标检测。

2023-03-22 20:45:50 491 1

原创 Fractional Brownian Motion Models for Synthetic Aperture Radar Imagery Scene Segmentation

本文演示了分形随机过程模型及其相关缩放参数作为高分辨率极化合成孔径雷达 (SAR) 图像中杂波分析和分割特征的应用。具体来说,计算草和树等自然杂波源的分形维数并将其用作贝叶斯分类器的纹理特征。使用原始后向散射功率作为判别式以单独的方式分割 SAR 阴影。所提出的分割过程为本研究中考虑的场景生成了一个三类分割图(具有三种杂波类型:阴影、树木和草地)。还解决了在高散斑 SAR 图像中计算纹理度量的困难。特别是,使用了一种两步预处理方法,包括极化最小散斑过滤和非相干空间平均。

2023-03-22 15:22:33 288

原创 Vision Transformer with Deformable Attention

Vision Transformer with Deformable Attention

2022-12-08 09:57:00 2820

原创 Focal Self-attention for Local-Global Interactions in Vision Transformers

最近,Vision Transformer 及其变体在各种计算机视觉任务中表现出了巨大的潜力,但由于二次方计算开销,它也带来了挑战,特别是对于高分辨率视觉任务(例如,对象检测)。最近的许多工作都试图通过应用粗粒度的全局注意力或细粒度的局部注意力来降低计算和内存成本并提高性能。然而,这两种方法都削弱了多层 Transformer 原始自注意力机制的建模能力,从而导致次优解决方案。在本文中,我们提出了 focal self-attention,这是一种结合了细粒度局部交互和粗粒度全局交互的新机制。

2022-11-28 19:41:04 943

原创 Multiscale Vision Transformers 论文详解

我们提出了 Multiscale Vision Transformers(MViT)用于视频和图像识别。MViT 是多尺度特征层次结构和Transformer的结合。MViT 有几个通道分辨率尺度块(channel-resoluation scale stages)。从输入分辨率和小通道维度开始,这些stages扩展通道容量,同时降低空间分辨率。这创建了一个多尺度特征金字塔,早些的层在高空间分辨率下运行以模拟简单的低级视觉信息,而更深层在空间粗糙但复杂的高维特征上运行。

2022-11-21 14:39:43 3048

原创 MMML-CMU 学习笔记_No.1.2 Multimodal applications and datasets

多模态相关研究工作及数据集

2022-11-02 13:19:04 538

原创 MMML-CMU 学习笔记_No.1 Multimodal Introduction

多模态相关知识的简介与定义。以及多模态需要关注的几个研究方面。

2022-11-01 15:16:54 465

原创 MultiModal Machine Learning 笔记_No.0 课程介绍

CMU 的 Multimodal Machine Learning 学习笔记 课程介绍

2022-11-01 10:32:07 144

原创 PyTorch 模型保存,断点训练

PyTorch 模型保存,断点训练

2022-09-21 09:34:10 1613

原创 Pytorch 中打印网络结构及其参数的方法与实现

pytorch 中打印网络结构及其参数的方法与实现

2022-09-17 12:22:46 8626 2

原创 ERROR: Could not build wheels for tokenizers which use PEP 517 and cannot be installed directly

安装 transformers 库报错:ERROR: Could not build wheels for tokenizers which use PEP 517 and cannot be installed directly

2022-08-28 21:00:03 6360

原创 Swin Transformer: Hierarchical Vision Transformer using Shifted Windows 论文翻译 + 网络详解

Swin Transformer swin 最主要的贡献就是可以作为通用的计算机视觉任务的主干网络(Transformer 只是证明了在分类问题上有效),另外可以大致对于 swin 有一个了解:移位窗口,分层架构,窗口间允许跨窗口连接,从而导致模型复杂度小。

2022-08-23 16:39:54 2461

原创 Adaptive Learning Rate 自适应学习率

上一篇文章我们说了 critical point 中的 local minima 可能会让训练停止,但其实更多的情况下是 saddle point 。这一次呢,我们说一下另外一个可能会让 training 止步不前的问题: learning rate 学习率。​

2022-08-20 10:23:59 1952 1

原创 Critical Point ( local minima && saddle point)

Critical Point ( local minima && saddle point)

2022-08-19 13:59:15 895

原创 机器学习介绍(下)

怎么把模型变复杂,神经网络,深度学习

2022-08-13 23:22:44 378

原创 机器学习介绍(上)

​从这一次分享到接下来一段时间,会根据李宏毅老师开设的 2022ML 台湾大学机器学习课程进行比较系统的学习。李宏毅老师讲的课非常有水平,并且非常透彻!如果有时间,建议大家可以去学一下,当然也可以去参考之前开设的 2021ML 。机器学习相关概念,损失,优化,Linear model 线性模型...

2022-08-13 10:22:19 431

原创 动手学深度学习_风格迁移

风格迁移(style transfer)是让一张图片内容不发生改变,但样式改为另一张图片效果。这里所使用的风格迁移并不是基于 GAN 的,而是基于卷积神经网络的风格迁移方法(当然现在主流的风格迁移是基于 GAN 的,感兴趣的可以了解一下 之间写过的一些 GAN 的介绍)​...

2022-08-09 11:18:48 5294

原创 动手学深度学习_全卷积网络 FCN

​全卷积网络 (fully convolutional network,FCN),顾名思义,网络中完全使用卷积而不再使用全联接网络。全卷积网络之所以能把输入图片经过卷积后在进行尺寸上的还原,就是利用转置卷积实现的。 因此,输出的类别预测与输入图像在像素级别上具有一一对应关系:通道维的输出即该位置对应像素的类别预测。​...

2022-08-09 10:47:01 941

原创 动手学深度学习_转置卷积

转置卷积(transposed convolution),可以看作是卷积的逆,是一种上采样操作,增大特征图的空间维度(高和宽)。注意这里卷积的逆只针对图像大小,图像中的值发生改变。

2022-08-08 20:49:05 1093

原创 动手学深度学习_目标检测算法 R-CNN 系列

区域卷积神经网络region-based CNN 或 regions with CNN features,R-CNN比较有名的几个网络:R-CNN、Fast R-CNN、Faster R-CNN、Mask R-CNN

2022-08-08 14:40:42 276 2

原创 动手学深度学习_目标检测

bounding box、锚框、IOU、非极大抑制

2022-08-07 20:37:57 1506

原创 动手学深度学习_ResNet

残差网络详解加 pytorch 代码实现

2022-08-06 11:20:20 137

原创 动手学深度学习_Batch Normalization

Batch Normalization的原理、优势与代码实现。

2022-08-05 20:56:01 239

原创 动手学深度学习_GoogLeNet / Inceptionv1v2v3v4

GoogLeNet 是根据 NiN 中串联网络的思想,在此基础上进行改进。篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。 毕竟,以前流行的网络使用小到 1 × 1,大到 11 × 11 的卷积核。 本文的一个观点是,有时使用不同大小的卷积核组合是有利的。这里我们写的代码,是GoogLeNet 的简化版,原版的实现我贴到最后,就不逐一分析了,基本思路一致。...

2022-08-05 09:38:07 591 2

原创 动手学深度学习_NiN

NiN网络的结构与实现

2022-08-04 19:02:58 148

原创 动手学深度学习_VggNet

Vgg网络结构+实现

2022-08-04 16:22:53 125

原创 动手学深度学习_AlexNet

AlexNet结构与代码实现(MNIST数据集)

2022-08-04 14:06:39 394

原创 动手学深度学习_LeNet

利用LeNet实现MNIST手写数字的识别

2022-08-04 09:33:27 529

原创 动手学深度学习_卷积神经网络CNN

MLP到CNN的转变,transitional invariance平移不变性,locality 局部性,图像卷积,互相关计算,卷积层,padding填充,stride步长,1 x 1卷积,pooling汇聚层(池化层)

2022-08-03 19:55:51 343

原创 动手学深度学习_多层感知机

MLP实现 + 激活函数的介绍

2022-08-01 19:49:12 510

原创 MAE 论文《Masked Autoencoders Are Scalable Vision Learners》

《Masked Autoencoders Are Scalable Vision Learners》,我直呼666

2022-08-01 16:53:43 2172

原创 Vision Transformer 论文 + 详解( ViT )

Vision Transformer 论文 + 详解

2022-08-01 13:01:17 11919

原创 动手学深度学习_softmax回归

softmax回归 + pytorch实现

2022-07-30 11:08:38 197

原创 动手学深度学习_线性回归

线性回归 + pytorch实现

2022-07-29 21:42:16 281

原创 ValueError: Expected 96 from C header, got 88 from PyObject

报错:ValueError: numpy.ndarray size changed, may indicate binary incompatibility.Expected 96 from C header, got 88 from PyObject

2022-07-29 21:07:31 1956 1

原创 动手学深度学习__张量

关于向量、矩阵和张量的一些简单计算,利用pytorch实现

2022-07-28 20:58:49 293

原创 动手学深度学习__数据操作

数据操作

2022-07-28 15:09:11 175

原创 Attention Is All You Need(Transformer)

关于《Attention Is All Your Need》论文的翻译以及 Self-Attention 和 Multi-Head Attention的详解

2022-07-26 20:14:12 711

原创 BatchNorm&&LayerNorm

BatchNorm与LayerNorm区别比较

2022-07-26 16:02:52 253

原创 图像线性融合

import cv2for i in range(1,5001): img1 = cv2.imread('/Users/like/Desktop/mix/1/'+str(i)+'.jpg') img2 = cv2.imread('/Users/like/Desktop/mix/2/'+str(i)+'.jpg') #img2 = cv2.resize(img2,(512,512))#统一图片大小 dst = cv2.addWeighted(img1,0.5,img2,.

2022-05-09 10:45:17 286

Inceptionv1v2v3v4的pytorch实现

Inceptionv1v2v3v4的pytorch实现

2022-08-05

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除