![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
一个小呆苗
欢迎大家和我一起探讨学习!
展开
-
Deepsort中匈牙利算法和卡尔曼滤波器
Deepsort中的卡尔曼滤波器和匈牙利算法原创 2022-07-12 16:42:46 · 489 阅读 · 0 评论 -
IndexError: list index out of range coco数据集转换为voc格式出现的错误
问题:出现这个问题的地方:解决办法:成功!原创 2021-09-26 13:00:03 · 517 阅读 · 0 评论 -
利用python语言实现帧差法,python+opencv实现帧差法
实验效果如下图:需要的可以下载代码文件直接就可以运行看看效果哦。帧差法实现运动木目标检测原创 2021-08-22 15:29:53 · 1419 阅读 · 0 评论 -
反向传播是什么?通俗易懂的解释!!!
反向传播算法是目前用来训练人工神经网络的最常用且最有效的算法。反向传播工作原理就是:(1)前向传播:将训练集数据输入到ANN的输入层,经过隐藏层,最后到达输出层并输出结果。【输入层—隐藏层–输出层】(2)反向传播:由于ANN的输入结果与输出结果有误差,则计算估计值与实际值之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播到输入层。【输出层–隐藏层–输入层】(3)权重更新:在反向传播的过程中,根据误差调整各种参数的值;不断迭代上述过程,直至收敛。举一个例子来说明我理解的反向传播的思想是:(1原创 2021-08-19 10:15:46 · 22586 阅读 · 15 评论 -
机器学习-极大似然估计
通俗理解:就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值!(模型已定,参数未知)注意:极大似然估计中所有的采样都是独立的。最大似然估计求解步骤:例题:设总体X的分布律为P{X=k}=p(1-p)k-1,k=1,2,……,其中p为未知参数,且X1,X2,……Xn为来自总体X的简单随机样本,求参数p的矩阵估计量和极大似然估计量。1.写出极大似然估计函数:L(p)=P{X=X1}P{X=X2}……P{X=Xn}=p(1-p)X1-1p(1-p)X2-1……p(1原创 2021-05-20 10:08:45 · 1107 阅读 · 0 评论 -
机器学习-偏差、方差、均方误差,清楚简单的解释!!!!
机器学习-偏差、方差、均方误差,清楚简单的解释!!!!输入 (X0, y0)假设有5个训练集,那么这五个训练集最终就可以得到五个模型。五个模型中分别输入特征X0,就可以得到五个不同的f^\widehat{f}f(X0),这里我表示为f^\widehat{f}f1(X0),f^\widehat{f}f2(X0),f^\widehat{f}f3(X0),f^\widehat{f}f4(X0),f^\widehat{f}f5(X0)可以求得这五个模型的均差为:E(f^\widehat{f}f原创 2021-05-19 15:45:08 · 876 阅读 · 2 评论 -
机器学习-反向传播
机器学习-反向传播简单易懂的解释 直观理解:数学层面讲,反向传播就是链式求导法则程序实现讲,反向传播就是通过动态规划实现思想:根据网络输出的答案和正确答案之间的误差,不断调整网络的参数。假设训练一个分类网络,输入一个目标逐层向前计算后,得到该物体属于每一类的一个可能性的概率,每个神经网络的初始参数是随机赋予的,然后我们根据网络输出与正确答案之间差距,由后向前调整网络的参数。不断地输入和进行调整。注意:BP算法在训练数据上表现得很好,但是在新数据上却不行。因此一般将数据集划分为训练集和验证集。原创 2021-05-18 22:28:09 · 439 阅读 · 0 评论 -
简化代价函数与梯度下降
简化代价函数与梯度下降1.简化代价函数 下面显示逻辑回归的代价函数:将此逻辑函数合并 可以写成如下的式子:即逻辑回归的代价函数可以表示为:然后对于代价函数,我们要找出的就是它的最小值,求出参数值θ:然后求最小代价函数的方法就是梯度下降法:求解通常是用这个模板进行求导后可以得到:then:...原创 2021-04-29 22:44:12 · 159 阅读 · 0 评论 -
机器学习-分类问题
机器学习-分类问题在分类问题中,预测的变量 y 是离散的值,学习一种叫做逻辑回归 (Logistic Regression) 的算法1.分类:例如:判断一封电子邮件是否是垃圾邮件;判断一次金融交易是否是欺诈;区别一个肿瘤是恶性的还是良性的。2.二分类问题因变量可以记为:y∈{0,1} 0 表示负向类,1 表示正向类注意:0和1 分别定义为邮件是否为垃圾邮件,以及肿瘤是否为良性或者恶性都是任意的。3.多分类问题首先假如将线性回归应用与分类问题的话在上图这种情况下可以看出是比较好的,还是可以原创 2021-04-28 20:53:42 · 1777 阅读 · 0 评论 -
机器学习-多项式回归、正规方程(标准方程)
机器学习-多项式回归线性回归并不适用于所有数据,因此有时我们会选择使用曲线来回归数据。也就是我们在选择特征的时候,可以选择多个特征来进行回归。如图所示,二次方模型最后会一直向下,很显然不符合,因为随着房子面积(X)的上升,房子的价格(Y)会变小。三次方函数,对应绿色的线,是比较合适的。可以对函数进行特征缩放:...原创 2021-04-28 18:25:35 · 361 阅读 · 0 评论 -
机器学习-多元梯度下降
多元梯度下降多维特征是?还是买房子的例子,房子价格的定位如果仅由房子面积这一个因素决定,那么这里就只有房子面积这一个特征。数据集的信息不止一种时,便有了多维特征,比如:下面,将构建一个含有多个变量的模型,来进行多特征回归分析,我们把模型参数看作是一个向量,即模型的特征为(X1,X2,…Xn) n表示特征的数量,在这个公式中,有n+1个参数和n个变量,为了使公式更加简化,引入 X0=1.公式即为:hθ(x)=θ0+θ1(X1)+θ2(X2)+…+θn(Xn)此时模型的参数是一个n+1维的向原创 2021-04-23 17:44:18 · 127 阅读 · 0 评论 -
机器学习笔记网盘分享
机器学习笔记百度网盘分享后期随着进度更新链接: https://pan.baidu.com/s/1DpeGvkaAw8uNhKpuSBR40A提取码: kbz2复制这段内容后打开百度网盘手机App,操作更方便哦原创 2021-04-22 20:01:51 · 642 阅读 · 0 评论 -
机器学习-梯度下降
1.梯度下降的直观解释:目的:求代价函数 J(θ0,θ1) 的最小值,误差最小情况最好。场景假设:想象一个人下山,在黑灯瞎火的夜晚,下山就是这个人找最陡峭的地方下山,(下山最陡的方向也就是梯度的负方向,)每一步的步子走了多少也就相当于是梯度下降中的学习率。下山的时候步子不可以太大,也不可以太小,因此学习率也是一样的,学习率不可以太大也不可以太小。(下山途中,走的太慢也就是步子太小,导致太阳下山了,还没有走到山下。梯度下降中,α不能太大也不能太小,太小的话,可能导致迟迟走不到最低点,太大的话,会导致错过原创 2021-04-22 17:58:06 · 507 阅读 · 2 评论 -
机器学习-代价函数(单变量线性回归)
机器学习-代价函数(单变量线性回归)2.1函数表示因为只含有一个特征/输入变量,所以这样的问题叫作单变量线性回归问题。回归问题:构建一个模型,也许是条直线,从这个数据模型上看,如果你朋友的房子是 1250 平方尺大小,能以大约 220000(美元)左右的价格卖掉这个房子,左图就是监督学习算法的一个例子。对于每个数据来说,我们给出了“正确的答案”,即告诉我们: 根据我们的数据来说,房子实际的价格是多少,而且,更具体来说,这是一个回归问题。分类问题:当我们想要预测离散的输出值,例如,我们正在寻找癌原创 2021-04-19 10:46:40 · 344 阅读 · 0 评论 -
机器学习-引言
机器学习笔记1.引言1.1 机器学习是什么?Arthur Samuel 定义:在没有明确设置的情况下,使计算机具有学习能力的研究领域。Tom Mitchell 定义:计算机程序从经验E中学习解决某一任务T进行某一性能度量P,通过P测量在T上的表现因经验E而提高。西洋棋程序中:T就是玩跳棋 P就是玩一把新游戏赢的概率 E 就是反复的自我练习的经验目前几种主要类型的算法:监督学习、无监督学习1.2监督学习(教计算机做某些事情)含义:我们给算法一个数据集,其中包含了正确答案,算法的目的就是找原创 2021-04-15 21:33:41 · 285 阅读 · 3 评论