- 博客(78)
- 收藏
- 关注
原创 Graph Embedding——Node2Vec
具体来说,Node2Vec首先从图中的每个节点出发执行多次随机游走,生成大量的节点序列,这些序列在概念上类似于自然语言处理中的句子,其中的节点则相当于单词。随后,利用Skip-Gram模型,Node2Vec将这些“句子”作为输入,通过最大化节点序列中的共现概率来学习节点的向量表示。Node Embedding,节点嵌入,旨在将图中的节点映射到一个低维度的连续向量空间中,以便在这一空间内,通过向量的几何关系反映出节点在原图中的拓扑结构和节点间的关系等属性。
2024-05-14 08:38:00 292
原创 YOLOv8+CLIP实现图文特征匹配
本文通过结合YOLOv8s的高效物体检测能力与CLIP的先进图像-文本匹配技术,展示了深度学习在处理和分析复杂多模态数据中的潜力。
2024-05-12 11:25:24 1177
原创 算法详解——穷举法
穷举法是一种基本的算法思想,其核心在于遍历解空间中的所有可能解,逐一检验以确定哪些解符合问题的要求。这种方法不依赖于特定的策略或技巧,而是直接对所有可能的情况进行全面和系统的探索,以确保找到问题的确切答案。穷举法可用于解决多种类型的问题,特别是那些解空间有限且易于定义所有可能解的问题。以下是一些典型的问题类型,它们常常使用穷举法来寻找解决方案:组合问题:例如,旅行商问题(TSP),在这类问题中需要找出所有可能的组合或排列,然后选择最优解。尽管穷举法并不总是实际可行的,但它在解空间较小的情况下仍然有效。
2024-05-11 19:07:30 444
原创 算法详解——回溯法
回溯法是一种解决的方法,特别适用于解决组合问题、搜索优化问题等。它通过逐步构建候选解决方案并且在这个解决方案不再可能满足约束或条件时进行剪枝和回溯。
2024-05-11 18:55:11 1237
原创 LLM—Transformer作用及信息流
Transformer架构的精髓在于其创新性地采用了编码器与解码器的堆叠设计,这一设计巧妙地融合了多头自注意力机制(Multi-Head Attention)和位置前馈网络(Position-wise Feed Forward Network)两大核心组件,通过这些组件的高度协同作用,实现了对序列数据的高效处理。在此框架下,编码器和解码器的每一层都包含了一系列相同的子层,这些子层经过仔细设计,确保了信息在模型中的流动既高效又全面。
2024-03-20 12:32:02 344
原创 算法详解——选择排序和冒泡排序
选择排序算法的执行过程是这样的:首先,算法遍历整个列表以确定,接着,这个最小的元素被置换到,确保它被放置在其应有的有序位置上。接下来,从列表的第二个元素开始,算法再次执行扫描,这次是为了找出剩余的 n-1 个元素中的最小值,并将其与第二个位置的元素进行交换,这样第二小的元素就被安置在了正确的位置上。依此类推,当进行到第 i 次扫描时(其中 i 的取值范围是从 0 到 n-2),算法会在剩下的 n-i 个元素中,并将其与。经过 n-1 次这样的操作后,列表便完成了排序,每个元素都被安置在了其最终的有序位置上。
2024-03-18 15:58:53 294
原创 算法详解——贪心算法
举个例子,考虑以下场景:你是一位旅行者,要从一个城市出发,访问其他城市,最终回到起点。虽然这样做可能不会得到全局最优解(最短总距离),但通常能够找到一个近似最优解,且具有较高的效率。虽然贪心算法并不能保证一定得到全局最优解,但在许多情况下,它展现出了高效且简单的特点,使其在某些问题的解决中具有明显的优势。尽管在某些情况下贪心选择可能会导致局部最优解无法达到全局最优解,但在很多实际问题中,贪心算法能够以较少的计算量快速找到可行解,因此被广泛应用。贪心算法,又称贪婪算法,是一种解决问题的策略。
2024-03-13 16:15:59 1480 2
原创 图表征学习——Graph Embedding
图表征学习的目的是将图中的节点嵌入低维的表征,并有效地保留图的结构信息。Graph Embedding是实现图表征学习的方法,即Graph Embedding的目的也是将图结构转换为节点的低维嵌入表示,在这个过程中,保留图的拓扑结构信息尤为重要。图的结构可以分为不同的类别,不同类别拥有不同粒度的图表征,经常用到的图结构有邻域结构、高阶接近度和群落结构。
2024-02-23 21:58:45 356
原创 BERT模型中的input_ids和attention_mask参数
介绍了BERT模型中的input_ids和attention_mask参数的含义和使用方法
2024-02-20 17:17:55 1675 1
原创 CNN的权值共享-平移不变性-空间局部性
CNN的权值共享指的是:对于一张输入图像,用同一个去提取该图像的特征,该卷积核的值即可作为该卷积操作共享的权值。
2023-06-02 17:51:55 915
原创 Attention原理+向量内积+Transformer中的Scaled Dot-Product Attention
将Source中的构成元素想象成是由一系列的KeyValue数据对构成,此时给定Target中的某个元素Query,通过计算Query和各个Key的相似性或者相关性,得到每个Key对应Value的权重系数,然后对Value进行加权求和,即得到了最终的Attention数值。所以AttentionSourceValueQueryKeyValue。
2023-05-18 16:39:01 955
原创 SPP的作用
一个CNN可看作由卷积、池化、全连接层组成,由于全连接层的权重矩阵是一个固定值,因此输入全连接层的特征图的维度也必须固定。SPP的思想就是利用多个不同尺度的池化层进行特征的提取,融合成一个21维的向量输入至全连接层。解决了上述问题,使得神经网络的训练过程由图1变为图2,即输入图像的尺寸可以不一样,不再受到限制。解决了训练CNN需要输入图像尺寸一致的问题。
2023-05-18 16:36:10 636
原创 Zero-Shot & Few-Shot
在传统的监督学习中,需要给模型输入数据和对应的标签,比如猫和狗的图片以及猫和狗的类别标签,然后去训练模型,才能够得到用于猫狗分类的模型。但此模型只能用于猫狗分类,不能区分猫狗之外的其他类别。
2023-05-13 00:32:17 565
原创 论文阅读笔记——YOLOP: You Only Look Once for Panoptic Driving Perception
SPP生成并融合不同尺度的特征,FPN融合不同语义层次的特征,使得生成的特征包含多尺度和多语义层次的信息。②one-stage的预测机制更适合语义分割任务,编码器输出的feature map融合了不同尺度的语义信息,分割分支可利用这些特征图完成像素级的语义预测。Backbone:用于提取图像特征,选用CSPDarknet,解决了优化过程中的梯度复制问题,支持特征传播和特征重用,从而减少了参数和计算量,利于保证网络的实时性能。Grid-based 的检测任务预测机制与语义分割任务的预测机制更相关。
2023-05-10 17:05:42 190
原创 Faster RCNN系列3——RPN的真值详解与损失值计算
本文详细介绍了RPN中类别真值和偏移量真值的求解过程,参考书籍《深度学习之Pytorch物体检测实战》
2023-04-18 22:43:45 2541
原创 Faster RCNN系列2——RPN的真值与预测值概述
本文简要介绍了RPN中的类别真值、偏移量真值、类别预测值、偏移量预测值的定义,参考书籍《深度学习之Pytorch物体检测实战》
2023-04-18 15:07:06 721 2
原创 Softmax和Cross Entropy Loss在分类问题中的作用
本文以三分类神经网络为例,讲解Softmax和Cross Entropy Loss在分类问题中的作用。即在分类问题中,不关心非正确类的预测值,只关心正确类的预测值)(假设对于猫、狗、马三分类问题,有一张猫的图片,它的标签为。,所以上述交叉熵损失计算可简化为:某个类别的损失值。是一个一位有效编码的向量,即只在真实类别处的值为。,将猫的图片输入网络,输出结果可能为。将狗的图片输入网络,输出结果可能为。将马的图片输入网络,输出结果可能为。有一张狗的图片,它的标签为。有一张马的图片,它的标签为。
2023-04-17 14:16:04 456
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人