自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 深度学习课程总结(四)

通过遗忘门过滤到本期的部分,加上本期新增的部分所决定,而上期过滤的部分,就要依靠sigmoid的遗忘门来把关了,当遗忘门的值为0时,意味着上期记忆完全遗忘;而当遗忘门的值为1时,上期记忆值完全保留,现在来到更新 新增记忆的输入门,sigmoid函数把控着更新信息的比例,tanH控制着大小和方向,两者相乘得到本期新增的记忆部分,它与前期记忆流入的部分相加,得到当期记忆状态值,最后,输出门的sigmoid函数,和当期记忆值。RNN的核心思想是引入时间上的循环,使得网络在处理序列数据时能够考虑到之前的信息。

2024-04-27 14:19:52 1051

原创 神经网络课程总结(三)

VGG-16的网络结构非常简单且对称,整个网络由16个卷积层和3个全连接层组成,其中卷积层均采用3x3的卷积核,步幅为1,填充为1,池化层采用2x2的池化窗口,步幅为2。描述:MNIST数据集是一个包含了来自美国国家标准与技术研究所(NIST)的手写数字图像的数据集,每张图片都是28x28像素的灰度图像,共有10个类别,分别表示数字0到9。YOLOv5的输入端采用了和YOLOv4一样的Mosaic数据增强的方式,采用了4张图 片,随机缩放、随机裁剪、随机排布的方式进行拼接,使模型在更小的范围内 识别目标。

2024-04-21 11:52:29 1155 4

原创 神经网络课程总结(二)

其中,函数g一般称为过滤器(filters),函数f指的是信号/图像。在卷积神经网络里,卷积核其实就是一个过滤器,但在深度学习里,它不做反转,而是直接执行逐元素的乘法和加法,我们把这个又称为互相关,在深度学习里称为卷积。上个世纪科学家就发现,视觉皮层的很多神经元都有一个小的局部感受野,神经元只对有限区域的感受野上的刺激物做出反应。不同的感受野可以重叠,他们共同铺满整个视野。并且发现,一些神经元仅仅对横线有反应,有一些神经元对其他方向的线条有反应,有些神经元的感受野比较大。

2024-04-06 21:13:31 961

原创 神经网络课程学习总结(一)

利用梯度下降法求损失函数的极小值,分别对w和b求偏导那么更新的方向就是其中指学习率,可以是0-1的值,学习率对收敛的速度影响很大,太小的话,会导致收敛太慢,太大的话,会在极值点附近震荡而难以收敛。

2024-03-30 22:28:16 574

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除