机器学习
qq_25713443
这个作者很懒,什么都没留下…
展开
-
2020-12-17
数据不平衡问题1. 欠采样、过采样、生成合成数据重采样数据集(修改比例)是好是坏取决于分类器的目的。如果两个类是不平衡、不可分离的,且我们的目标是获得最大的准确率。那我获得分类器只会将数据点分到一个类中;不过这不是问题,而只是一个事实:针对些变量已经没有其他更好的选择。基于成本的分类结果不好的根本原因在于目标函数没有得到很好的定义。截至此时,我们一直假设分类器具备高准确率,同时假设两类错误(「假阳性」和「假阴性」)具有相同的成本(cost)。在我们的例子中,这意味着真实标签为 C1、预测结果为 C0原创 2020-12-17 16:24:46 · 211 阅读 · 0 评论 -
mmdetection 训练数据
修改源码部分(voc数据集)以faster rcnn为例1. config/pascal_voc/faster_rcnn_r50_fpn_1x_voc0712.py修改数目类别下面展示一些 内联代码片。model = dict(roi_head=dict(bbox_head=dict(num_classes=1)))2.core/evaluation/class_names.py修改检测类别名称3. mmdet/datasets/voc.py修改检测类别注意:当目标类别为一类时需要检测类原创 2020-12-10 17:29:49 · 239 阅读 · 0 评论 -
移动平均
https://www.cnblogs.com/wuliytTaotao/p/9479958.html转载 2020-06-03 18:06:45 · 200 阅读 · 0 评论 -
tf.nn.sigmoid_cross_entropy_with_logits tf.nn.softmax_cross_entropy_with_logits
https://blog.csdn.net/m0_37393514/article/details/81393819https://www.cnblogs.com/tangjunjun/p/11506093.html转载 2020-05-24 20:59:17 · 285 阅读 · 0 评论 -
衡量两个向量的距离
nA, inB 对应的是 列向量欧氏距离:指在m维空间中两个点之间的真实距离,或者向量的自然长度(即该点到原点的距离)。二维或三维中的欧氏距离就是两点之间的实际距离。相似度= 1/(1+欧式距离)相似度= 1.0/(1.0 + la.norm(inA - inB))物品对越相似,它们的相似度值就越大。皮尔逊相关系数:度量的是两个向量之间的相似度。相似度= 0.5 + 0....原创 2020-05-06 23:12:41 · 3362 阅读 · 0 评论 -
选择超参数
有两种选择超参数的方法:手动选择。手动选择超参数需要了解超参数做了些什么,以及机器学习模型如何才能取得良好的泛化自动选择。自动选择超参数算法不需要你了解超参数做了什么以及机器学习模型如何才能取得零号的泛化,但是它往往需要更高的计算成本.手动设置超参数:我们必须了解超参数、训练误差、泛化误差、计算资源(内存和运行时间) 之间的关系。这要求我们切实了解一个学习算法有效容量的基本概念手动搜索超...原创 2020-05-02 12:24:31 · 2278 阅读 · 0 评论 -
机器学习中的方差
回归决策树遍历每个特征(1次遍历), 遍历每个特征中的特征值(2次遍历)。选出使得分割后的数据集最小的方差,作为分割的值。为什么是最小方差呢?# -*- coding: utf-8 -*-"""Created on Wed Aug 1 15:34:57 2018"""import matplotlib.pyplot as pltimport numpy as np"""函数...原创 2020-04-29 16:42:01 · 536 阅读 · 0 评论 -
神经网络BN层
批量归一化(Batch Normalization,BN)方法有效规避了这些复杂参数对网络训练产生的影响,在加速训练收敛的同时也提升了网络的泛化能力。神经网络训练的本质是学习数据的分布,如果训练数据和测试数据分布不同的话,学习的泛华能力大大降低。因此需要在训练开始前对数据所有输入数据进行归一化处理。然而随着网络训练的进行, 每个隐藏层参数变化会使得后一层的输入发生变化,从而使得每一批训练数据的...原创 2020-04-28 23:47:00 · 585 阅读 · 0 评论 -
问题 对于二分类问题,当训练集中正负样本非常不均衡时,如何处理数据以更好 地训练分类模型?
为什么很多分类模型在训练数据不均衡会出现问题?本质原因是模型在训练时优化的目标函数和人们测试时使用的评价标准不一致。这种不一致可能是训练数据的样本分布和测试数据的不一致,例如训练时优化的整个训练集(正负比例1:99)的正确率,而测试的时候期望正负比例1:1一般从两个方面处理数据:基于数据的方法对数据进行重采样,使得原先的数据样本均衡。最简单的处理不均衡样本的方法是随机采样。采样一般分为过采...原创 2020-04-28 22:39:41 · 3691 阅读 · 0 评论 -
1x1卷积的作用
https://www.zhihu.com/search?type=content&q=1x1%E5%8D%B7%E7%A7%AF转载 2020-04-21 11:14:35 · 187 阅读 · 1 评论 -
指数移动加权平均
https://zhuanlan.zhihu.com/p/32335746转载 2020-04-18 13:05:35 · 149 阅读 · 0 评论 -
Tensorflow 中的优化器解析
https://www.cnblogs.com/fourmi/p/9938477.html转载 2020-04-18 12:12:24 · 108 阅读 · 0 评论 -
GBDT中残差和梯度的关系
https://www.cnblogs.com/duan-decode/p/9889955.html转载 2020-04-08 00:03:44 · 505 阅读 · 0 评论 -
交叉熵损失函数
https://blog.csdn.net/bitcarmanlee/article/details/82320853转载 2020-04-07 13:10:41 · 123 阅读 · 0 评论 -
leetcode-高频题题解
https://blog.csdn.net/weixin_43551229/article/details/86515631转载 2020-03-12 10:04:06 · 88 阅读 · 0 评论 -
集成学习 随机树
https://blog.csdn.net/loveliuzz/article/details/78755416转载 2020-03-12 00:22:15 · 67 阅读 · 0 评论