可解释人工智能导论
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

第3章 基于因果启发的稳定学习和反事实推理

崔鹏 邹昊

现有的机器学习模型面临着可解释性和稳定性差的难题。本章将以发掘因果关联性为出发点,介绍旨在提高模型稳定性、可解释性的稳定学习以及反事实推理等研究方向,如图3-1所示。

图3-1 本章内容总览

机器学习的快速发展有目共睹,其引导的人工智能应用研究已经在许多领域取得了突出的成果。但这些应用领域往往属于技术性风险不大的领域,即当算法偶尔出现失误时,也不会造成无法挽回的灾难性后果。例如在推荐系统中,即使给用户推荐了用户不喜欢的物品也不会引起很大的负面影响。在这种应用场景特点的引导下,机器学习的研究形成了性能驱动(Performance Driven)的路径。也就是尽可能地优化模型的准确率等指标。而当机器学习的技术研究进入风险敏感(Risk Sensitive)的领域时,模型的可解释性和稳定性成了重要的关注点,而不仅仅是准确率等单一的性能指标。近些年来,一些研究工作从因果出发,尝试借助因果推理的技术,解决机器学习模型的可解释性和稳定性(Stability)等方面的问题。

对于这些内容,本章将按如下顺序展开介绍。首先讨论为什么要将因果引入机器学习。随后,将简单介绍因果研究中用于发现变量之间因果关联的因果发现(Causal Discovery)和潜在结果框架(PotentialOutcome Framework)以及以这个框架为基础的稳定学习的相关研究,从简单的线性模型到复杂的基于神经网络的模型。最后,将简单介绍机器学习和因果相结合的反事实推理(Counterfactual Inference)。