自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(3)
  • 收藏
  • 关注

原创 评价指标Precision Accuracy recall AUC

即假设采样是随机的,采样完成后,给定一条正样本,模型预测为score1,由于采样随机,则大于score1的负样本和小于score1的负样本的比例不会发生变化。因为在机器学习对分类问题的预测结果都是概率值,如果要计算accuracy,需要先把概率转换成类别,这样做的话就需要手动设置一个阈值,如果对一个样本的预测概率高于这个预测,就把这个样本放进一个类别里面,低于这个阈值,放进另一个类别里面。,并不关心正样本内部,或者负样本内部的排序,这样我们也无法衡量样本对于好坏客户的好坏程度的刻画能力;

2023-06-07 19:30:46 202 1

原创 常见的损失函数

平方损失函数计算预测值与实际值之间的差异的平方,并将其作为损失值。平方损失函数,梯度和激活函数的梯度成正比,二分类中激活函数我们采用sigmoid,可能会有饱和区,分类结果会导致激活函数的梯度消失。分类问题中,交叉熵函数可以避免梯度消失,回归问题中,使用平方损失函数避免交叉熵只能计算正确类别的损失,而忽略了错误类别。(1)用于回归的损失函数:绝对值损失函数(MAE)、平方损失函数/均方误差损失函数(MSE)代价函数:针对整个训练集来说的,也就是所有样本的误差的总和的平均,也就是损失函数的总和的平均。

2023-06-06 08:46:43 163 1

原创 BERT模型理解

利用大规模语料库可以训练出该网络,在具体任务中,就可以得到每个单词的三个Embedding,分别为最底层单词的embedding,第一层双向LSTM中对应单词位置的Embedding,包含句法信息。每个单词有三个embedding:位置信息(单词顺序,需要对其进行编码)、单词本身embedding、句子embedding(训练数据的输入为两个句子,句子的embedding会赋给该句中的每个词)。第二阶段是在做下游任务时,从预训练网络中提取对应单词的网络各层的embedding作为新特征补充到下游任务中。

2023-04-17 11:18:21 255

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除