![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
可解释性深度学习
冲刺中,偏向interpretable CNN
我学数学我骄傲
学生党一枚,求道友
展开
-
论文写作准备(三)—— 多目标优化问题与算法
一、多目标优化问题多目标优化是在现实各个领域中都普遍存在的问题,每个目标不可能都同时达到最优,必须各有权重。但是,究竟要怎样分配这样的权重,这已经成为人们研究的热点问题。同时,根据生物进化论发展起来的遗传算法,也得到了人们的关注。将这两者结合起来,能够利用遗传算法的全局搜索能力,避免传统的多目标优化方法在寻优过程中陷入局部最优解,可以使解个体保持多样性。二、多目标优化问题的数学描述一般来讲,多目标优化问题是由多个目标函数与有关的一些等式以及不等式约束组成,式中,函数fi(x)称为目标函数;gi(原创 2020-08-08 13:57:12 · 4123 阅读 · 0 评论 -
论文写作准备(二)—— 《Interpretable Convolutional Neural Networks》阅读
摘要:提出了一种将传统卷积神经网络(CNNs)修改为可解释的方法。为了阐明神经网络高级卷积层中的知识表示。在可解释CNN中,深层卷积层中的每个滤波器代表一个特定的对象部分。我们的可解释CNNs使用与普通CNNs相同的训练数据,而不需要对对象部分或纹理进行额外的注释来进行监督。这说明在学习过程中,CNN自动给深层卷积层中的每个滤波器分配一个对象部分。我们可以将我们的方法应用于不同类型、不同结构的神经网络。在可解释的CNN中,显性的知识表示可以帮助人们理解CNN内部的逻辑,即CNN记忆了哪些模式来进行预测。实验原创 2020-08-08 11:01:52 · 1490 阅读 · 1 评论 -
论文写作准备(一)—— 初识可解释性深度学习
一、深度学习为什么需要可解释性?(动机) 模型改进:理解指标特征、分类、预测,进而理解为什么一个模型会做出这样的决定、什么特征在决定中起最重要作用,能让我们判断模型是否符合常理。一个深度的神经网络来学习区分狼和哈士奇的图像。模型使用大量图像训练,并使用另外的一些图像进行测试。90%的图像被准确预测,这值得我们高兴。但是在没有计算解释函数(explainer function)时,我们不知道该模型主要基于背景:狼图像通常有一个下雪的背景,而哈士奇的图像很少有。所以我们不知不觉地做了一个雪地探测器,如果只原创 2020-08-03 21:45:20 · 2339 阅读 · 0 评论