- 博客(1)
- 收藏
- 关注
原创 论文阅读{Tokenize Image Patches: Global Context Fusion for Effective Haze Removal in Large Images}
将 Token 序列输入 Transformer 编码器,利用多头自注意力(Multi-Head Self-Attention)机制计算任意两个 Token 的关联权重,公式为:Attention(Q,K,V)=softmax(dkQKT)V。将输入图像划分为大小为 P×P 的重叠块(重叠率可调节,如 50%),避免边界信息丢失。将大图像分割为重叠的小图像块(Patches),每个块通过卷积神经网络(CNN)编码为。的方法,实现大图像高效去雾,同时保留细节并增强全局一致性。
2025-05-21 16:17:16
1153
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人