自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(4)
  • 收藏
  • 关注

原创 神经网络学习第四周

关于为什么第二项开了平方,是因为如果目标本身的宽高就很大的时候,预测宽高与真实宽高有一定的差异也不会有很大的影响, 但是如果目标本身的宽高就很小的时候,预测宽高与真实宽高有一点点的差异就会很明显预测不准,因此开了平方,使得损失更加关照小宽高时的差异。yolo在不同的数据集上输出的形式不同,拿VOC数据集举例,输出是7*7*30的,7*7是网格,30包含两个bounding box的xyhw和置信度分数,以及voc数据集20中类别的概率。3. 计算 “作为输出预测的边界框”,与其他边界框的相关联IoU值;

2023-04-17 19:57:57 68 1

原创 神经网络与深度学习第三周

残差神经网络的结构是由残差块按照一定的规则叠加而成,由于残差块结构解决了梯度消失的影响,残差神经网络能够实现深层次神经网络结构的搭建,通过残差结构目前成功搭建过上千层的神经网络。神经网络在进行数据的正向传播时,经过了卷积,下采样,激活函数非线性化等处理不可避免的将会损失部分的输入信息,随着网络模型层数的增加,这种信息的损失程度也会加大,但是残差结构通过将上一层的输入直接传递给了下一层,更多的保存了输入数据的信息,这有利于深层次网络模型的搭建。而relu函数的导数恒定为1,计算方便,且不会导数变小。

2023-04-04 17:19:52 119 1

原创 神经网络与深度学习课程内容第二周

一.深度学习平台目前神经网络的研究均是基于Pytorch、Tensorflow、Keras、caffe等框架进行模型的搭建以及训练。深度学习平台集成了很多神经网络中的常用操作的API,将神经网络的搭建和训练变得更加简单。除了上述的框架之外,近些年还推出了基于特定任务的框架如dectection2等。Pytorch是由Facebook人工智能研究院根据torch开发的主要以Python优先的深度学习框架。

2023-03-26 15:49:39 119

原创 神经网络与深度学习第一周学习

在有监督的模型中,即所有的训练数据均已被标注好,也就是已知训练数据的真实属性,通过神经网络对训练数据进行前向推理,得到一个训练数据的推理结果,然后如果神经网络的训练不足,极大可能就会将数据推理错误,那么训练数据的推理结果与真实结果之间就会存在差异,这个差异通常使用损失Loss来表示。线性回归基于几个简单的假设:首先,假设自变量x和因变量y之间的关系是线性的,即y可以表示为x中元素的加权和,这里通常允许包含观测值的一些噪声。这个过程就是前向传播,也是我们训练神经网络的目的,即实现神经网络对输入数据的推理。

2023-03-22 16:04:29 179

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除