论文标题:From attribution maps to human-understandable explanations through Concept Relevance Propagation论文来源:Nature Machine Intelligence斑图链接:https://pattern.swarma.org/paper/cfb90f4c-580a-11ee-813d-0242ac17000d原文链接:https://www.nature.com/articles/s42256-023-00711-8
可解释人工智能(explainable artificial intelligence, XAI)领域旨在为当今强大但不透明的深度学习模型提供透明度,虽然局部XAI方法以归因图(attribution map)的形式解释个别预测,从而确定重要特征发生的位置,但不提供关于它们代表什么的信息,全局解释技术可视化了模型通常学会编码的概念。因此,这两种方法仅提供了部分见解,将解释模型的推理负担留给用户。
在此,文章介绍了概念相关传播(Concept Relevance Propagation, CRP)方法,它结合了局部和全局视角,因此允许回答个别预测的“何处”和“什么”的问题。
图1 利用 CRP 理解概念和概念构成。
作者在各种情景下展示了该方法的能力,展示了CRP可以提供更容易理解的人类解释,并通过概念图、概念组合分析和定量研究概念子空间及其在细粒度决策中的作用,深入探讨了模型的表示和推理。
图2 概念的相似性和细粒度决策分析。
作者认为,这项工作中提出的工具以及由于样本特定神经网络解释中发现的语义和细节的增加,将推动事后XAI方法在新颖或以前难以处理的模型、问题和数据领域中的应用。
编译|董佳欣
AGI读书会启动
详情请见:
推荐阅读
1. Nature Reviews Physics 速递:格点 QCD 推动机器学习进展2. Nat. Hum.Behav. 速递|人类和机器学习中的“自我”3. Nat. Mach. Intell. 速递:临床机器学习的算法公平性和减少偏差4. 张江:第三代人工智能技术基础——从可微分编程到因果推理 | 集智学园全新课程5. 成为集智VIP,解锁全站课程/读书会6. 加入集智,一起复杂!
点击“阅读原文”,报名读书会