![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 70
Jin、yz
cqupt学子可以找我买资料,主动问问,说不定就有呢
展开
-
浅析Attention
具体一点就是,给定一组,以及一个目标(查询)向量query,attention机制就是通过计算query与每一组key的相似性,得到每个key的权重系数,再通过对value加权求和,得到最终attention数值。Attention机制可以增强神经网络输入数据中某些部分的权重,同时减弱其他部分的权重,以此将网络的关注点聚焦于数据中最重要的一小部分。例如,在翻译任务中,Attention机制可以使模型集中于输入序列的相关部分。Attention机制的本质来自于人类视觉注意力机制。原创 2024-01-07 18:46:26 · 435 阅读 · 0 评论 -
有监督学习、无监督学习、半监督学习和强化学习
半监督学习概述原创 2023-12-13 23:13:03 · 1238 阅读 · 0 评论 -
SRCNN超分辨率Pytorch实现,代码逐行讲解,附源码
超分辨率,就是把低分辨率(LR, Low Resolution)图片放大为高分辨率(HR, High Resolution)的过程。通过CNN将图像Y 的特征提取出来存到向量中。用一层的CNN以及ReLU去将图像Y 变成一堆堆向量,即feature map。把提取到的特征进一步做非线性映射,加大网络深度,提高网络复杂性。结合了前面得到的补丁来产生最终的高分辨率图像。实验步骤。原创 2022-12-20 23:18:33 · 18316 阅读 · 55 评论 -
torch.utils.data.dataloader中DataLoader函数的用法
torch.utils.data.dataloader中DataLoader函数的用法原创 2022-12-20 23:26:58 · 808 阅读 · 0 评论