![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
学习笔记
文章平均质量分 75
个人学习笔记
prince wong
这个作者很懒,什么都没留下…
展开
-
python个人学习笔记
本文主要记录一些个人学习python过程中的一些有用的、没用的、以及奇奇怪怪的知识。原创 2022-09-01 22:00:00 · 296 阅读 · 0 评论 -
ROC/AUC、精准率、召回率、真正率,假正率等指标含义,学习笔记
1. 混淆矩阵对于二分类模型,预测值与真实值的组合情况,行成了混淆矩阵。第一个字母表示是否预测正确(T/F),第二个表示预测为 P/1 还是 N/0。2. 准确率预测正确的结果占总样本的百分比,准确率=(TP+TN)/(TP+TN+FP+FN)样本不平衡时,该指标失效。3. 精准率Precision,也即查准率,在所有被预测为正的样本中实际为正样本的概率,精准率=TP/(TP+FP)4. 召回率Recall,也即查全率,在实际为正的样本中被预测为正样本的概率,查全率=TP/(TP+FN)原创 2022-04-14 14:58:41 · 2019 阅读 · 0 评论 -
线性回归 逻辑回归 学习笔记 sigmoid softmax cross entropy
线性回归最简单的线性回归问题,y=wx+b,模型输出一个值,用L1/L2 loss,即MAE/MSE loss,去做梯度下降。逻辑回归2分类问题,如回归问题一样,网络或者模型同样输出一个值,然后用sigmoid给它拉到0~1,然后用binary cross entropy loss去做梯度下降。binary cross entropy = -np.mean ( y * log y_hat + (1-y) * log(1-y_hat) ) 。如果多分类问题,模型输出n纬原创 2021-12-29 22:49:33 · 302 阅读 · 0 评论 -
Seq2Seq,Attention,Transformer 学习笔记
Seq2Seq Attention Transformer 学习笔记原创 2022-01-10 17:29:29 · 246 阅读 · 0 评论