![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
wzw12315
这个作者很懒,什么都没留下…
展开
-
k-近邻算法
1、有监督的算法,即需要依赖标签;2、算法原理:、(1)计算已知类别数据集中的点和当前点的距离;(2)按照距离依次排序;(3)选取与当前点距离最小的K个点;(4)确定前K个点所在类别的出现概率;(5)返回前K个点出现概率最高的类别作为当前点预测分类。3、优点:算法本身比较简单,不需要进行训练,训练复杂度为04、缺点:KNN分类算法的计算复杂度和训练集中的文档数目成正比,即,如果训练集中的文档总数为...原创 2018-06-30 10:11:37 · 153 阅读 · 0 评论 -
损失函数--交叉熵、softmax
交叉熵损失函数:二分类 或者 区分前景背景 softmax损失函数: 交叉熵损失函数和softmax损失函数前面的负号,可以保证网络分错的时候,损失值趋于较大值。 平方损失函数: 平方损失函数在目标检测用得比较多,实际是多维空间的欧氏距离,然后取平均值。 对比损失函数: triplet 损失函数: 保证损失函数为什么要除以...原创 2018-06-30 11:13:52 · 799 阅读 · 0 评论 -
sigmoid二分类函数,softmax归一化多分类函数 损失函数
sigmoid二分类函数:将得分结果转换为概率进行分类。输入x属于任意实数值,输出范围是0到1.softmax归一化多分类函数,输入是向量,输出也是向量,每个元素值在0和1之间,且各个元素之和为1。幂函数:如果输入的数大,则映射输出更大;如果输入的数小(负数),则映射输出更小。损失函数:损失函数代表预测值与理想值之间的差值,这个差值越小 ,代表预测值越接近理想值,间接说明我们的网络模型的权重参数比...原创 2018-06-30 12:17:46 · 19076 阅读 · 0 评论