2020-06-10
阅读量:
1014
模型的可解释性理解
- 为什么模型的复杂架构会降低其可解释性?
模型为什么不具备可解释性?模型欠缺哪些基本性质?这与系统本身具有完全确定性有关,因为模型一旦被训练完毕,你就可以据此写出模型中每个量与其他的量相关联的方程。「模型可解释性」中的一个关键概念:对于一项复杂模型的可解释性表示,通常被大体看做是其本身的一种压缩表示。
- 研究深度学习的可解释性,首先需要明白什么是可解释性,为什么需要可解释性,现存的可解释性方法有哪些,可解释性技术在深度学习中有什么应用,现存的可解释性研究有什么局限性,未来的发展方向等。
(一)什么是可解释性?
笼统来讲,可解释性是指在我们需要了解或解决一件事情的时候,我们可以获得我们所需要的足够的可以理解的信息。
(二)为什么需要可解释性?
尽管深度学习模型在许多有意义的任务中胜过了人类,但由于缺乏可解性,其应用也常常饱受质疑。
由于模型结构复杂、参数居多、算法透明性低,对于普通用户而言,深度神经网络(DNN)就如同黑盒一般,我们不知道它内部的工作机制,也不知道其决策过程,因而很难验证其可靠性,自然就不信任其决策结果。缺乏可解释性,将可能给安全场景中的深度学习(如自动驾驶,智慧医疗等)应用带来潜在的威胁。
因此,要提高模型的透明性,建立模型与用户之间的信任关系,降低应用中的潜在风险,就需要研究可解释性。






评论(0)


暂无数据
推荐帖子
0条评论
0条评论