连接人工智能技术人才和产业人才的交流平台
今天看啥  ›  专栏  ›  机器学习研究组订阅

模型可解释性差?你考虑了各种不确定性了吗?

机器学习研究组订阅  · 公众号  · AI  · 2018-08-12 21:26
当深度神经网络(DNN)变得越来越强大的时候,它们的复杂性也在一并与日俱增,而这种复杂性也给研究员带来了一系列新的挑战,其中就包括模型的可解释性。可解释性对于构建更加强大且具有抵抗对抗性攻击能力的模型而言至关重要。此外,当我们需要为一个全新的、还未得到深入研究的领域设计模型时,如果我们能够解释模型的运行机制,这将有助于我们更好地去设计和分析模型。在过去几年里,因为意识到了模型可解释性的重要作用,研究员们已经研究出了好几种方法,并且在去年的 NIPS 会议中也有一个专门的研究展示会(workshop) 负责讨论相关主题。提供模型可解释性的方法包括:LIME:这是一种通过局部线性逼近(Local linear approximation)来解释模型预测的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照