深度学习不确定性
白色小靴
学生
展开
-
ROC AOC
TPR= TP / (TP + FN)即所有真实类别为1的样本中,预测类别为1的比例也就是召回率(是正例,预测也为正例)FPR= FP / (FP + TN)即所有真实类别为0的样本中,预测类别为1的比例ROC曲线横坐标为FPR,纵坐标为TPR...原创 2020-03-18 11:09:04 · 1601 阅读 · 0 评论 -
K.function的用法
K.function除了能够实现指定输入和输出之外,还能够决定网络是处于训练模式还是测试模型1或True:训练模式,dropout开启0或False:测试模式,dropout失活代码如下,需要先用K.function“实例化”一个f函数,然后f((X_test, True))代表将X_test传入作为model.layers[0]的输入,True代表训练模式——dropout打开,最终是mo...原创 2020-03-03 10:05:56 · 3450 阅读 · 0 评论 -
贝叶斯方法的思想基础
进军概率深度学习的第一步,首先要弄清楚什么是贝叶斯深度学习。而贝叶斯深度学习的基础是要搞明白贝叶斯的思想到底是个什么思想。首先给出老生常谈的贝叶斯公式:各种生动形象的例子就不自己想了,这里引用知乎一个高赞回答:贝叶斯的想法很奇特,他想“反过来”推断概率。什么意思?就是“正常”的概率问题一般是这样的:已知一枚硬币每次扔出正面的概率是50%,求该硬币连扔10次,全部都是正面的概率是多少?这...原创 2019-11-29 10:32:32 · 3723 阅读 · 0 评论