自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 深入理解 transforms.ToTensor()

在使用 PyTorch 进行图像处理和深度学习任务时,transforms.ToTensor() 是一个常用的工具。它可以将图像数据转换为 PyTorch 的张量格式,为后续的神经网络处理做好准备。尽管这个方法很常用,但很多人可能并不完全理解它具体做了哪些操作。本文将深入解析 transforms.ToTensor() 的具体作用和工作原理。

2024-07-30 15:26:10 318

原创 如何在 PyCharm 中控制循环走到特定轮数

调试代码是软件开发过程中的重要环节,能够帮助我们发现和修复错误。在调试循环时,有时我们希望程序在循环达到特定次数时暂停执行,以便我们检查变量的状态。PyCharm 提供了强大的调试功能,通过设置条件断点可以轻松实现这一目标。

2024-07-30 14:48:39 245

原创 交叉熵损失与二元交叉熵损失:区别、联系及实现细节

在机器学习和深度学习中,交叉熵损失(Cross-Entropy Loss)和二元交叉熵损失(Binary Cross-Entropy Loss)是两种常用的损失函数,它们在分类任务中发挥着重要作用。本文将详细介绍这两种损失函数的区别和联系,并通过具体的代码示例来说明它们的实现细节。

2024-07-25 15:13:20 428

原创 A Survey of Deep Graph Clustering: Taxonomy, Challenge, Application, and Open Resource(深度图聚类研究综述)

图聚类旨在将图中的节点划分为几个不同的簇,这是一个基础但具有挑战性的任务。得益于深度学习强大的表示能力,深度图聚类方法近年来取得了巨大的成功。然而,相应的综述论文相对稀缺,有必要对这一领域进行总结。基于这一动机,我们对深度图聚类进行了全面的综述。首先,我们介绍了该领域的形式化定义、评估和发展。其次,我们根据图类型、网络架构、学习范式和聚类方法四个不同标准,介绍了深度图聚类方法的分类法。第三,我们通过广泛的实验仔细分析了现有方法,并从图数据质量、稳定性、可扩展性、辨别能力和未知簇数量五个角度总结了挑战与机遇。

2024-07-16 17:38:05 933

原创 Rethinking Graph Auto-Encoder Models for Attributed Graph Clustering(重新思考带属性图聚类的图自编码器模型)

分析:我们将基于GAE的聚类方法组织成两组,并为每种方法提供抽象公式。相应地,我们分析并形式化了与所研究公式相关的问题。然后,我们提出了一个新的概念设计,可以有利于控制FR和FD之间的权衡。从理论角度来看,我们证明了这种权衡的存在,并研究了两个重要方面,这两个方面将GAE模型与传统自编码器方法区分开来。具体来说,我们研究了在不同层次上进行聚类和重构对FR和FD的影响。此外,我们检查了图卷积操作对FD的影响。方法:首先,我们提出一个采样操作符Ξ,触发针对FR的保护机制。

2024-07-16 11:40:28 587

原创 深入理解变分图自编码器(VGAE):原理、特点、作用及实现

图神经网络(Graph Neural Networks, GNNs)在处理图结构数据方面展现出强大的能力。其中,变分图自编码器(Variational Graph Auto-Encoder, VGAE)是一种无监督学习模型,广泛用于图嵌入和图聚类任务。本文将深入探讨VGAE的原理、特点、作用及其具体实现。

2024-07-09 18:33:04 624

原创 深入理解Deep Graph Infomax (DGI)

Deep Graph Infomax (DGI) 是一种用于无监督图嵌入学习的强大方法。通过最大化全局图表示和局部节点表示之间的互信息,DGI 能够从图结构数据中提取出有用的节点嵌入表示。本文将深入探讨DGI的特点和原理,分析其最适合和不太适合的使用场景,并提供具体的实现方式。

2024-07-09 16:22:11 808

原创 注意力池化层:从概念到实现及应用

在现代深度学习模型中,注意力机制已经成为一个不可或缺的组件,特别是在处理自然语言和视觉数据时。多头注意力机制(Multihead Attention)是Transformer模型的核心,它通过多个注意力头来捕捉序列中不同部分之间的关系。然而,在多模态模型中,如何有效地将图像特征和文本特征结合起来一直是一个挑战。注意力池化层(Attention Pooling Layer)提供了一种有效的解决方案,通过将高维度的图像特征聚合成固定长度的表示,使其能够与文本特征进行有效融合。本文将从注意力池化层的作用、实现方式

2024-07-09 14:35:56 609 1

原创 从头实现一个完整的Transformer模型

在深入研究Transformer架构时,我常感到现有教程缺少关键内容。Tensorflow或Pytorch的官方教程使用高层次API,理解底层实现需耗费大量时间。其他教程则过于简化,未涉及重要概念。因此,我决定自己编写Transformer,以确保理解这些概念并能应用于任何数据集。本文将系统地逐层实现一个Transformer。虽然不打算超越现有实现,本文旨在通过详细教程帮助读者更好地掌握Transformer理论和代码,实现对API的全面理解。

2024-06-20 17:59:33 990

原创 Python实现mhd文件转dicom格式

我们在研究中计划手动标注MRI图像堆栈中的直肠癌mask,但由于耗时过多,决定基于开源模型结果进行修改。然而,现有的直肠癌分割模型仅接受和输出mhd格式文件,而在我们的数据集上效果欠佳,需要手动修改。然而,未找到可修改mhd文件的标注软件,因此需要将mhd文件转换为dicom格式。

2024-06-12 22:06:39 963

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除