深度学习-基于pytorch
文章平均质量分 95
以实战为线索,逐步去了解深度学习,掌握一些深度学习算法和去实战一些小项目。本专栏基于李沐老师的动手学深度学习,有兴趣的同学可以去了解和学习。一起搭积木,搭出我们的模型
cpLoners
生活本来就很沉闷,但跑起来就有风了。
展开
-
计算机视觉中的注意力机制
注意力机制(Attention Mechanism)源于对人类视觉的研究。 在认知科学中,由于信息处理的瓶颈,人类会选择性地关注所有信息的一部分,同时忽略其他可见的信息。 上述机制通常被称为注意力机制。 人类视网膜不同的部位具有不同程度的信息处理能力,即敏锐度(Acuity),只有视网膜中央凹部位具有最强的敏锐度。(以上为官方解释:个人的理解是注意力机制就是通过一通操作,将数据中关键的特征标识出来,让网络学到数据中需要关注的区域,也就形成了注意力。从而起到突出重要特征的作用。)常用的注意力机制多为SE At原创 2022-06-03 14:18:25 · 12694 阅读 · 4 评论 -
玩转深度学习——pytorch实现Lenet网络
玩转深度学习——pytorch实现Lenet网络什么是LeNet网络LeNet网络pytorch实现改进LeNet网络增加卷积层尝试修改一些超参数(开始炼丹)什么是LeNet网络LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。 这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像 [LeCun et al., 1998]中的手写数字。 当时,Yann LeCun发表了第一篇通过反向传播成功训练卷积神原创 2022-04-28 23:49:33 · 4719 阅读 · 0 评论 -
深度学习基础——感知机
感知机感知机感知机的理解感知机的简单编程实现(python)感知机的局限性多层感知机感知机感知机是一种非常简单的算法(特别是对有一定基础的同学来说),感知机也是学习神经网络的基础,因此,感知机的构造是神经网络,深度学习的一种重要思想。感知机是由美国科学学者Frank Rosenblatt在1957年提出的。感知机的理解感知机的简单编程实现(python)感知机的局限性多层感知机...原创 2021-09-16 18:06:26 · 1209 阅读 · 1 评论