机器学习
文章平均质量分 83
深度学习探索者
有事做,有人爱,有所期待
展开
-
深度学习中几种常见数据标准化方法
方法名称缩放范围适用条件均值为0,方差为1数据具有正态分布的情况下效果最佳[0, 1]数据分布不平衡或有明显的上下界限根据四分位数缩放数据包含异常值[-1, 1]数据已经中心化,即没有偏移Normalizer每个样本的范数为1样本之间有显著的差异,需要将其归一化[0,1]或正态分布数据分布不均匀Johnson)均值为0,方差为1数据具有正态分布或接近正态分布非负数据的对数缩放数据必须为正值或非负值:适用于数据本身的分布近似正态分布。原创 2024-06-09 19:37:22 · 1152 阅读 · 0 评论 -
深度学习中常见的九种交叉验证方法汇总
深度学习中常见的九种交叉验证方法汇总原创 2024-05-15 20:55:16 · 1917 阅读 · 0 评论 -
【激活函数】Softmax 和 Maxout 激活函数
已经有前辈撰写关于讲解这两个激活函数并且通俗易懂的文章了,本人在此就不赘述,链接奉上,内容值得细细品读。原创 2024-01-10 11:02:25 · 461 阅读 · 0 评论 -
【激活函数】PReLU 激活函数
PReLU(Parametric Rectified Linear Unit)激活函数是ReLU(Rectified Linear Unit)激活函数的一种改进。它是由 He et al. 在 2015 年提出的,旨在解决ReLU激活函数的一些局限性。原创 2024-01-06 16:37:19 · 1774 阅读 · 0 评论 -
【激活函数】SELU 激活函数
SELU (Scaled Exponential Linear Unit) SELU是对ELU激活函数的改进,通过引入自动标准化机制,使得神经网络的隐藏层在训练过程中可以自动地保持输出的均值和方差接近于1。原创 2024-01-06 12:45:10 · 2319 阅读 · 0 评论 -
【激活函数】GELU 激活函数
GELU (Gaussian Error Linear Units) 是一种基于高斯误差函数的激活函数,相较于 ReLU 等激活函数,GELU 更加平滑,有助于提高训练过程的收敛速度和性能。原创 2024-01-05 14:23:27 · 2066 阅读 · 0 评论 -
【激活函数】深度学习中你必须了解的几种激活函数 Sigmoid、Tanh、ReLU、LeakyReLU 和 ELU 激活函数(2024最新整理)
激活函数(activation function)的作用是对网络提取到的特征信息进行非线性映射,提供网络非线性建模的能力。常见的激活函数有 Sigmoid、Tanh、ReLU、LeakyReLU 和 ELU 等。原创 2024-01-05 13:57:06 · 1266 阅读 · 0 评论 -
【损失函数】深度学习回归任务中你必须了解的三种损失函数,绝对误差损失(L1 Loss、MAE)均方误差损失(L2 Loss、MSE)以及平滑L1损失(Huber Loss)(2024最新整理)
是预测值和真实值之差的绝对值的总和。其中,是样本数量,是第个样本的真实值,是第个样本的预测值。原创 2024-01-04 11:32:08 · 8294 阅读 · 0 评论 -
【损失函数】Hinge Loss 合页损失
Hinge Loss(合页损失)通常用于支持向量机(Support Vector Machine,SVM)等模型中,特别是在二分类问题中。它的目标是使正确类别的分数与错误类别的最高分之间的差异达到一个固定的边界,从而促使模型学会产生更大的间隔。原创 2024-01-04 11:31:13 · 3278 阅读 · 1 评论 -
【损失函数】Cross Entropy Loss 交叉熵损失
对于分类问题,最常用的损失函数是交叉熵损失函数 Cross Entropy Loss。它用于测量两个概率分布之间的差异,通常用于评估分类模型的性能。原创 2024-01-03 20:47:34 · 602 阅读 · 0 评论 -
【损失函数】Quantile Loss 分位数损失
Quantile Loss(分位数损失)是用于回归问题的一种损失函数,它允许我们对不同分位数的预测误差赋予不同的权重。这对于处理不同置信水平的预测非常有用,例如在风险管理等领域。当我们需要对区间预测而不单是点预测时分位数损失函数可以发挥很大作用。原创 2024-01-03 20:31:25 · 3897 阅读 · 0 评论 -
【损失函数】SmoothL1Loss 平滑L1损失函数
SmoothL1Loss 平滑L1损失函数 是 PyTorch 中的一个损失函数,通常用于回归问题。它是 L1 损失和 L2 损失的结合,旨在减少对异常值的敏感性。原创 2023-12-28 16:15:31 · 2314 阅读 · 2 评论 -
【深度学习】各领域常用的损失函数汇总(2024最新版)
以下是一些常用的损失函数,可根据不同的应用场景进行选择和组合:适用于回归任务,L1 损失计算预测值与真实值之间差的绝对值,对异常值不那么敏感。其中,是样本数量,是第个样本的真实值,是第个样本的预测值。更适合处理异常值,因为它不会像 L2 损失那样对较大的误差赋予过高的惩罚。原创 2023-12-28 16:09:43 · 2217 阅读 · 0 评论 -
AutoML自动机器学习架构以及AutoKeras、AutoGluon
AutoML自动机器学习架构以及AutoKeras、AutoGluon原创 2023-05-06 11:46:43 · 338 阅读 · 0 评论 -
【机器学习】回归算法评估指标全总结(2023最新整理)关键词:MAE、MSE、RMSE、RMSEC、RMSEP、Rc、Rp、R2、RPD(随时补充 源码示例 简单实现)
回归算法评估指标全总结(2023最新整理)关键词:MAE、MSE、RMSE、R2原创 2023-03-22 16:40:59 · 7266 阅读 · 0 评论 -
【机器学习】分类算法评估指标全总结(2023最新整理)关键词:准确率Accuracy、精确率Precision、召回率Recall、Micro F1、P-R、ROC、MCC、Cohen‘s kappa
评估指标是针对模型性能优劣的一个定量指标。一种评价指标只能反映模型一部分性能,如果选择的评价指标不合理,那么可能会得出错误的结论,故而应该针对具体的数据、模型选取不同的的评价指标。针对不同类型的学习任务,我们有不同的评估指标,这里我们来介绍最常见的分类算法的一些评估指标。常用的分类任务评价指标有准确率(Accuracy)、精确率(Precision)、召回率(Recall)、Macro F1、Micro F1、P-R曲线(Precision-Recall Curve)、ROC、AUC、MCC、Cohen原创 2023-03-20 18:15:21 · 13471 阅读 · 0 评论 -
【机器学习】损失函数(Loss Function)全总结(2023最新整理)关键词:Logistic、Hinge、Exponential、Modified Huber、Softmax、L1、L2正则化
【机器学习】损失函数(Loss Function)全总结(2023最新整理)关键词:Logistic、Hinge、Exponential、Modified Huber、Softmax、L1、L2正则化原创 2023-03-15 15:30:13 · 12554 阅读 · 0 评论 -
【2023最新方案】安装CUDA,cuDNN,Pytorch GPU版并解决torch.cuda.is_available()返回false等问题
【2023最新方案】安装CUDA,cuDNN,Pytorch GPU版并解决torch.cuda.is_available()返回false等问题原创 2023-03-11 16:25:57 · 8175 阅读 · 8 评论 -
【机器学习】数据归一化全方法总结:Max-Min归一化、Z-score归一化、数据类型归一化、标准差归一化等
数据标准化(归一化)处理是数据挖掘的一项基础工作,不同评价指标往往具有不同的量纲和量纲单位,这样的情况会影响到数据分析的结果,为了消除指标之间的量纲影响,需要进行数据标准化处理,以解决数据指标之间的可比性。原始数据经过数据标准化处理后,各指标处于同一数量级,适合进行综合对比评价。本篇介绍了常用的十种归一化方法原创 2022-10-14 15:56:01 · 37639 阅读 · 2 评论