深度学习
文章平均质量分 75
chj65
这个作者很懒,什么都没留下…
展开
-
机器学习可解释性一(LIME)
对于机器学习的用户而言,模型的可解释性是一种较为主观的性质,我们无法通过严谨的数学表达方法形式化定义可解释性。通常,我们可以认为机器学习的可解释性刻画了“人类对模型决策或预测结果的理解程度”,即用户可以更容易地理解解释性较高的模型做出的决策和预测。从哲学的角度来说,为了理解何为机器学习的可解释性,我们需要回答以下几个问题:首先,我们应该如何定义对模型的“解释”,怎样的解释才足够好?许多学者认为,要判断一个解释是否足够好,取决于这个解释需要回答的问题是什么。原创 2023-02-26 16:34:35 · 3771 阅读 · 1 评论 -
上采样与下采样
在分类问题中,由于各种原因,我们所获取到的数据集很容易出现正负样本的不平衡,或者某些数据特别多,有些数据则特别少,在这样的数据集中,进行训练,我们很难获得较好的训练结果,为此我们引入了上采样与下采样解决样本不平衡的问题。原创 2023-01-26 00:05:58 · 845 阅读 · 0 评论 -
python数据分析绘图
火山图(Volcano plots)是散点图的一种,根据变化幅度(FC,Fold Change)和变化幅度的显著性(P value)进行绘制,其中标准化后的FC值作为横坐标,P值作为纵坐标,可直观的反应高变的数据点,常用于基因组学分析(转录组学、代谢组学等)。从右上角到左下角,随着阈值的逐渐减小,越来越多的实例被划分为正类,但是这些正类中同样也掺杂着真正的负实例,即TPR和FPR会同时增大。其中,公式的分子为X,Y两个变量的协方差,Var(X)和Var(Y)分别是这两个变量的方差。制作火山图的准备工作。原创 2022-11-26 10:12:24 · 2670 阅读 · 1 评论 -
感知器学习笔记
先来看一个经典的神经网络。这是一个包含三个层次的神经网络。红色的是输入层,绿色的是输出层,紫色的是中间层(也叫隐藏层)。输入层有3个输入单元,隐藏层有4个单元,输出层有2个单元。将权重项和偏置项初始化为0,然后,利用下面的感知器规则迭代的修改wi和b,直到训练完成。其中,t为实际label,y为预测label,n为学习率,xi为输入。原创 2022-11-21 15:16:46 · 349 阅读 · 0 评论 -
LeNet-5学习笔记
整个网络的输入部分,在图像中,一般就是一个图像的像素矩阵,一般为三维矩阵,其中长宽代表了图像的大小,深度代表了图像的色彩通道(channel),其中,黑白图片的深度为1,彩色采用RGB色彩模式下的深度为3.使用 120 个 5×5x16 大小的卷积核,padding=0,stride=1进行卷积,得到 120 个 1×1 大小的特征图:5-5+1=1。使用 16 个 5×5xn 大小的卷积核,padding=0,stride=1 进行卷积,得到 16 个 10×10 大小的特征图:14-5+1=10。原创 2022-11-19 22:04:38 · 506 阅读 · 0 评论 -
正则化学习笔记
能够提高模型在test上的准确率,能够提高模型的泛化能力所做的任何改动,可以称之为正则化正则化主要思想:降低模型的复杂度正则化主要目的:防止模型过拟合正则化实现思路:最小化损失Loss+ 最小复杂度正则化终极目标:提升模型泛化能力。原创 2022-11-13 20:01:05 · 547 阅读 · 0 评论