基础理论知识
文章平均质量分 77
超级无敌陈大佬的跟班
站在巨人的肩膀上看星星.
不辜负每个朝阳,不荒废每个深夜,因平凡而奋斗,因奋斗而不平凡
展开
-
【理论基础】向量的内积和范数
一、向量的数量积(内积):已知两个非零向量a、b,那么|a||b|cosθ(θ是a与b的夹角)叫做a与b的数量积或内积。记作a·b;两个向量的数量积等于它们对应坐标的乘积的和:数量积a·b等于 a的长度|a| 与 b在a的方向上的投影|b|cosθ 的乘积 向量属于n维复向量空间,每个表示向量在第i维空间中的坐标值。向量的模(即向量a的长度)为:二、向量的范数理解:向量的范数可以理解成距离。向量的1-范数:**向量的2-范数:向量2范数可以理解为点原创 2021-07-14 20:41:56 · 4694 阅读 · 0 评论 -
【深度学习】深度学习基础知识
1、卷积核为什么是奇数的?2、卷积核的平移不变性和卷积是如何获取到绝对位置信息?3、卷积神经网络复杂度分析3.1时间复杂度(计算量)计算量只看输出特征图尺寸,因为输出特征图上每个点都是卷积核在输入特征图上一次卷积运算得到。3.2 空间复杂度(模型参数量)也就是卷积核的参数量,与特征图的尺寸无关。4、线性回归5、正则化...原创 2021-06-29 23:09:00 · 759 阅读 · 1 评论 -
【深度学习】focal loss介绍
目录一、focal loss解决的问题:二、focal loss的两个重要性质:一、focal loss解决的问题:因此针对类别不均衡问题,作者提出一种新的损失函数:focal loss这个损失函数是在标准交叉熵损失基础上修改得到的。可以通过减少易分类样本的权重,使得模型在训练时更专注于难分类的样本。1.1 普通交叉熵1.2 交叉熵基本改进版接下来介绍一个最基本的对交叉熵的改进,也将作为本文实验的baseline,既然one-stage detector在训练的时候正负样原创 2021-06-24 23:39:07 · 4762 阅读 · 2 评论 -
【数学知识】方差、标准差、均方差、均方误差区别总结
一、方差的含义百度百科上方差是这样定义的:(variance)是在概率论和统计方差衡量随机变量或一组数据时离散程度的度量。概率论中方差用来度量随机变量和其数学期望(即均值)之间的偏离程度。统计中的方差(样本方差)是各个数据分别与其平均数之差的平方的和的平均数。在许多实际问题中,研究方差即偏离程度有着重要意义。看这么一段文字可能有些绕,那就先从公式入手,对于一组随机变量或者统计数据,其...原创 2018-08-01 10:10:23 · 5603 阅读 · 0 评论