(1)2018年尾提出来的,XAI(可解释AI)的重要性。(但是讲的挺水的)
https://www.jiqizhixin.com/articles/2018-11-15-15
(2)阿里社区论文
先看看这些:
【计算机视觉】究竟谁能解决可解释性 AI?
https://developer.aliyun.com/article/760497?spm=a2c6h.14164896.0.0.4b37ff63PgBUfe
告别 AI 模型黑盒:可解释机器学习研究报告
https://developer.aliyun.com/article/767177?spm=a2c6h.14164896.0.0.4b37ff63PgBUfe
神经网络?决策树?都做不到!谁能解决可解释性AI?
https://developer.aliyun.com/article/760252?spm=a2c6h.14164896.0.0.7d8aff63EZgTK4
讲道理 NN + DT 其实效果还可以吧,接近80的精度了。
局部可理解的与模型无关的解释(LIME)技术
https://blog.csdn.net/zkh880loLh3h21AJTH/article/details/78100487
https://blog.csdn.net/txpp520/article/details/106354396
但是LIME这个技术还是提出的比较早了的,能够将图片中支持和反对预测分类结果的部分展示出来。
可解释视觉问题的条件图结构学习
https://www.cnblogs.com/wangxiaocvpr/p/10941363.html
条件图结构 是不是就是树的结构呢? 我想应该不是,这个应该是纯网络结构,就是那种节点与边组成的图 G(V,E)结构学习。
慢慢来,看完论文再定论。
之前看了的那个NBDT 神经支持决策树,就是将决策树和NN结合。