自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(23)
  • 收藏
  • 关注

原创 MSSIM和L1loss及L2loss的混合损失函数用于图像恢复

1.MSSIM和L1loss的混合。2.MSSIM和L2loss的混合。

2024-03-31 18:13:12 368

原创 有多张显卡时,指定一张运行程序在终端打印

有多张显卡时,指定一张运行程序在终端打印

2024-03-14 11:36:19 171

原创 【注意力机制】BAM详细讲解及实现

【注意力机制】BAM详细讲解及实现

2024-03-07 09:49:45 853

原创 使用structural_similarity计算两幅图像之间的SSIM指标时窗口大小报错。

使用structural_similarity计算两幅图像之间的SSIM指标时窗口大小报错。

2024-03-03 20:52:34 1105

原创 Axial Attention 轴向注意力,包括RowAttention 和 column Attention

中提出了一种基于Transformer自注意力机制的Axial Attention。Axial Attention轴向注意力将二维输入分解为其轴向的组件,例如行和列,然后在每一个组件中,独立地为每个轴应用注意力,比如在每一行上面执行自注意力机制然后再再每一列上执行自注意力机制。感受野是目标像素的同一行(或者同一列) 的W(或H)个像素, 只有将Row-Attention和Column-Attention组合使用, 才能实现全局注意力。

2024-02-19 23:45:00 459 2

原创 一个交叉网络(CCNet),有效和高效的方式获取全图像上下文信息

一个交叉网络(CCNet),以非常有效和高效的方式获取全图像上下文信息

2024-02-18 23:45:00 228 1

原创 一种高效的通道注意力机制CEA模块

一种高效的轻量级通道注意力机制CEA模块

2024-02-18 15:54:27 331 1

原创 自注意力机制中的掩码Mask的生成

在自注意力机制中,掩码是一种用来控制模型在处理序列数据时忽略无效部分的技术。具体来说,掩码是一个与输入序列的长度相同的、由0和1组成的矩阵。其中,0表示对应位置是无效的,1表示对应位置是有效的。在自注意力机制中,掩码被用来屏蔽(即将其值置为一个很小的负无穷)无效的位置。这样,在进行自注意力计算时,无效位置的权重就会变得非常小(接近于0),从而将其对最终结果的影响降到最小。掩码的作用是确保模型不会关注到输入序列中的填充部分(即长度不足的部分),这在处理变长序列时非常重要。

2024-02-05 23:36:07 1229 1

原创 Transformer架构中基于窗口的的自注意力机制W-MSA和滑动窗口自注意力机制SW-MSA的实现

基于滑动窗口的Transformer架构中的自注意力机制的实现

2024-02-05 22:56:06 1241 3

原创 Q,K,V的生成

通过上述步骤,我们生成了经过线性映射的查询Q、键K和值V,然后可以用它们来计算自注意力权重并应用于输入张量。- 对于Q和K,通常会将它们的形状调整为(B, N, d_k),其中B是批次大小,N是序列长度,d_k是每个查询/键的维度。- 对于V,通常会将其形状调整为(B, N, d_v),其中B是批次大小,N是序列长度,d_v是每个值的维度。2. 接下来,对Q、K、V进行形状调整,使其适应自注意力机制的计算。1. 首先,通过对输入张量进行线性映射,生成三个张量Q、K和V。下面是不同方式的Q,K,V的生成。

2024-02-05 22:43:39 218 1

原创 使用ResNet18作为判别器以及利用torchvision.models库中的其他模型,如:AlexNet、VGG、SqueezeNet、DenseNet。

使用ResNet18作为判别器以及利用torchvision.models库中的其他模型,如:AlexNet、VGG、SqueezeNet、DenseNet。

2024-02-03 11:33:09 981 1

原创 python程序:向一个现有的Excel文件写入数据

python程序:向一个现有的Excel文件写入数据

2024-01-30 14:48:48 279 1

原创 带有SE注意力机制的ResNet残差网络构建

带有SE注意力机制的ResNet残差网络构建

2024-01-21 16:17:29 2159 2

原创 inception结构图以及代码实现

Inception Module基本组成结构有四个成分。1*1卷积,3*3卷积,5*5卷积,3*3最大池化。最后对四个成分运算结果进行通道上组合。这就是Inception Module的核心思想。Inception Module是GoogLeNet的核心组成单元。

2024-01-20 22:42:11 697

原创 一个图像文件,将其拆分为红色、绿色和蓝色通道

一个图像文件,将其拆分为红色、绿色和蓝色通道

2024-01-20 20:56:06 339

原创 遍历指定目录及其子目录下的所有图片文件,并将它们的路径保存在一个列表中返回

遍历指定目录及其子目录下的所有图片文件,并将它们的路径保存在一个列表中返回

2024-01-20 20:28:40 429

原创 MLP多层感知机

MLP多层感知机

2024-01-20 20:06:17 352

原创 图像的阻挡效应因子(Blocking Effect Factor,BEF)和PSNR-B指标原理及实现

图像的阻挡效应因子(Blocking Effect Factor,BEF)原理及实现

2024-01-15 23:45:00 404

原创 图像处理中常用的上采样方法

上采样方法

2024-01-14 11:55:14 584 2

原创 空间注意力模块与通道注意力模块实现

空间注意力模块与通道注意力模块实现

2024-01-13 20:58:33 924 1

原创 词频统计可视化,词云

词频统计可视化,词云

2023-12-11 22:16:20 956

原创 ubuntu安装和配置hadoop,java环境及项目运行

hdfs dfs -put file_1.txt /user/hadoop/Hadoop/WordNum/input(hdfs中创建的保存数据的目录),这一步将虚拟机中的数据文件上传到HDFS保存数据的目录中。/home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到。/home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到。删除文件夹命令:hdfs dfs -rm -r /user/hadoop/mydir。

2023-11-23 18:44:53 110

原创 Conda 配置pytorch环境

进入conda的anaconda prompt环境---->activate pytorch进入pytorch环境-------->命令行输入conda install -n pytorch ipykernel-------->再次输入:python -m ipykernel install --name pytorch(pytorch环境名称)参考博文:https://blog.csdn.net/feng_yue77/article/details/117335306。

2023-11-03 23:43:25 116

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除