- 博客(4)
- 收藏
- 关注
原创 神经网络学习第四周
关于为什么第二项开了平方,是因为如果目标本身的宽高就很大的时候,预测宽高与真实宽高有一定的差异也不会有很大的影响, 但是如果目标本身的宽高就很小的时候,预测宽高与真实宽高有一点点的差异就会很明显预测不准,因此开了平方,使得损失更加关照小宽高时的差异。yolo在不同的数据集上输出的形式不同,拿VOC数据集举例,输出是7*7*30的,7*7是网格,30包含两个bounding box的xyhw和置信度分数,以及voc数据集20中类别的概率。3. 计算 “作为输出预测的边界框”,与其他边界框的相关联IoU值;
2023-04-17 19:57:57
68
1
原创 神经网络与深度学习第三周
残差神经网络的结构是由残差块按照一定的规则叠加而成,由于残差块结构解决了梯度消失的影响,残差神经网络能够实现深层次神经网络结构的搭建,通过残差结构目前成功搭建过上千层的神经网络。神经网络在进行数据的正向传播时,经过了卷积,下采样,激活函数非线性化等处理不可避免的将会损失部分的输入信息,随着网络模型层数的增加,这种信息的损失程度也会加大,但是残差结构通过将上一层的输入直接传递给了下一层,更多的保存了输入数据的信息,这有利于深层次网络模型的搭建。而relu函数的导数恒定为1,计算方便,且不会导数变小。
2023-04-04 17:19:52
119
1
原创 神经网络与深度学习课程内容第二周
一.深度学习平台目前神经网络的研究均是基于Pytorch、Tensorflow、Keras、caffe等框架进行模型的搭建以及训练。深度学习平台集成了很多神经网络中的常用操作的API,将神经网络的搭建和训练变得更加简单。除了上述的框架之外,近些年还推出了基于特定任务的框架如dectection2等。Pytorch是由Facebook人工智能研究院根据torch开发的主要以Python优先的深度学习框架。
2023-03-26 15:49:39
119
原创 神经网络与深度学习第一周学习
在有监督的模型中,即所有的训练数据均已被标注好,也就是已知训练数据的真实属性,通过神经网络对训练数据进行前向推理,得到一个训练数据的推理结果,然后如果神经网络的训练不足,极大可能就会将数据推理错误,那么训练数据的推理结果与真实结果之间就会存在差异,这个差异通常使用损失Loss来表示。线性回归基于几个简单的假设:首先,假设自变量x和因变量y之间的关系是线性的,即y可以表示为x中元素的加权和,这里通常允许包含观测值的一些噪声。这个过程就是前向传播,也是我们训练神经网络的目的,即实现神经网络对输入数据的推理。
2023-03-22 16:04:29
179
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人