- 博客(9)
- 收藏
- 关注
原创 目标检测模型学习(3)
两阶段法实现目标检测可以实现更高的精度,在面对不同尺度的目标时都能有较好的检测结果,并且方便对各个阶段进行优化和调整;个层级的特征图,都是既具有高层语义也具有低层细节,且每个层级的特征图将对应不同尺度的目标检测人物,高层对应大尺度目标,低层对应小尺度目标;)的子区域,只考察与之相对位置相同的通道数的值,并进行平均池化,最后可以得到(的卷积层,得到位置敏感得分图和位置敏感回归图,位置敏感得分图输出通道数为。后边的全连接层,减少了计算量,共享了参数,大大提升了计算效率)如图,假设提取的特征共有三层,分别记为。
2025-12-04 21:46:44
424
原创 目标检测模型学习(1)
第二项为回归任务的损失,𝑝𝑖∗保证了只对正样本计算回归损失,其中Nreg为归一化参数,为锚点的数量,Lreg为smooth L1函数,λ为平衡权重,可以使得模型对于两种任务的注意力大致平衡,常设为10,因为回归任务的损失通常比分类任务小一个数量级。先将图像分割为较小的区域(可小到单像素),然后计算区域的相似度(有不同维度评价相似度的指标),迭代合并相似度最高的区域对,直到覆盖整个图像。,即对第一阶段生成的可能的区域进行分类(目标或背景),以及对边框进行回归,得到更准确的边框。(2)深度学习方法:(
2025-11-30 21:42:39
649
原创 深度学习各架构初学
GraphSAGE: (归纳式学习) 模型学习的是一个通用的、可重用的聚合函数,对每个节点来说这个聚合函数都是相同的。学习结果是每个节点的一个最优的嵌入向量(即对其邻居的特征的聚类),只能处理固定的图和已知的节点,无法处理动态变化的图和未知的节点。其核心思想是通过堆叠小的3x3卷积核来替代大的卷积核(如5x5, 7x7),在保持相同感受野的同时,减少了参数量,并使网络更深。LSTM的一个变体,将输入门和遗忘门合并为“更新门”,结构更简单,参数更少,效果通常与LSTM相当,在很多任务上成为更受欢迎的选择。
2025-11-28 14:05:35
362
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1