- 博客(5)
- 收藏
- 关注
原创 SpatialCrossAttention——空间注意力
*kwargs):embed_dims:嵌入维度,默认值为 256。num_cams:摄像头数量,默认值为 6。pc_range:点云范围,默认值为 None。dropout:dropout 比例,默认值为 0.1。init_cfg:初始化配置,默认值为 None。:batch 维度是否在第一位,默认值为 False。:可变形注意力配置,默认值为。初始化过程中,创建了 dropout 层、deformable attention 模块和输出投影层,并调用了方法初始化权重。
2024-06-11 22:54:00 602
原创 TemporalSelfAttention——时空注意力
Args:"""类通过结合多尺度、多头注意力机制和时间序列信息,实现了复杂的特征融合和注意力计算。处理多帧特征:通过拼接当前帧和历史帧的特征,实现时间序列信息的融合。多尺度注意力:支持在多个尺度上进行注意力计算,从而捕捉多尺度的特征信息。采样偏移和位置计算:通过计算采样偏移和参考点的位置,灵活地从特征图中提取信息。灵活的维度处理:能够处理不同排列方式的输入张量,并在最终返回前调整到期望的维度。高效的注意力计算:支持 CUDA 加速的可变形注意力计算函数,提高了计算效率。通过这些机制,
2024-06-11 22:12:13 1610
原创 Transformerv2 code(仅为个人理解)
if i == 0:else:else:类实现了一个基于 ResNet 的特征融合模块,利用多个BasicBlock层来处理和融合输入特征,并通过线性变换和层归一化将其转换为输出特征。该模块支持检查点功能,可以在训练过程中节省内存。通过这种设计,可以灵活地处理和融合多通道的输入特征,适用于各种计算机视觉任务中的特征提取和融合操作。**kwargs):forward初始化 BEV 查询和位置:将 BEV 查询扩展到批次大小,将 BEV 位置展平并调整维度。处理多层次特征图。
2024-06-11 20:44:48 1589
原创 BEVformer一些自己的理解
这三个方法共同实现了Registry类的核心功能,允许用户将类注册到注册表中,并通过简单的字符串来引用和使用这些类。是底层的注册逻辑,提供了对旧的 API 的兼容性支持,而是一个高层次的接口,提供了灵活的类注册方式。(调试BEVformer的一些感想)
2024-06-11 16:30:05 592
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人