你可能第一次听说“可解释的人工智能”这一术语,但它的含义并不难以理解。可解释的人工智能(XAI)指的是构建AI应用的技术和方法,旨在帮助人们理解这些系统做出特定决策的原因。换句话说,若我们可以从AI系统中获取关于其内部逻辑的解释,那么这个系统就可以被视为可解释的人工智能系统。
可解释性作为一种新特性,正在人工智能领域逐渐显现。接下来,我们将深入探讨这一问题的技术根源。
人工智能是生活的助推器
无可否认,技术进步使人们能够享受更优质的服务。技术已经成为我们生活中不可或缺的一部分,其对生活的影响只会日益扩大,无论我们是否愿意接受。
自从计算机和互联网问世以来,人工智能再次深刻改变了我们的生活。从五六十年代的数学探索到九十年代的专家系统,直到如今我们能在AI领域实现诸如自动驾驶、使用谷歌翻译与外国人交流、利用各种应用程序进行图像处理,以及使用智能推荐算法寻找最佳餐厅等功能。毫无疑问,人工智能正逐步成为我们生活中不可或缺的一部分。
然而,人工智能系统的复杂性使普通用户几乎无法理解其工作原理。我相信,只有不到1%的谷歌翻译用户了解其背后的运作机制,但我们仍然信任并广泛使用这个系统。然而,我们有必要了解AI系统的运作过程,或者至少在需要时能够获取相关信息。
过于专注于准确性
几百年来,数学家和统计学家都在研究传统的机器学习算法,如线性回归、决策树及贝叶斯网络。这些算法直观且成熟,基于这些传统算法得出的决策易于解释,但其精确度往往有限。因此,虽然传统算法的可解释性高,但其成就却相对有限。
自麦卡洛克-皮茨神经元的出现后,情况发生了变化,这一进展促进了深度学习领域的崛起。深度学习是人工智能的一个子领域,专注于利用人工神经网络模拟人脑中神经元的工作机制。得益于强大的计算能力和优化的开源深度学习框架,我们能构建出高精确性的复杂神经网络。
为了追求尽可能高的精确度,人工智能研究人员开始相互竞争。这些研究催生了许多优秀的AI产品,但同时也导致低可解释性的问题。
神经网络的复杂性令人瞩目,往往由数十亿个参数构成。例如,OpenAI的革命性NLP模型GPT-3拥有超过1750亿个机器学习参数,从这样复杂的模型中提取任何推理都是一项挑战。
机器学习算法的准确性与可解释性
如图所示,相较于深度学习模型,采用传统算法的人工智能开发者面临巨大的损失。随着模型精确度的提高,其可解释性却愈加低下。然而,我们比以往任何时候都更需要可解释性,原因如下:
世界变化迅速,往往超出我们的想象。还记得上世纪的步枪战争吗?如今,人工智能无人机已经能够在没有人类干预的情况下进行攻击。一些军队已经具备实现这些系统的能力,但他们担心无法解释的结果,并不希望依赖于那些不明工作原理的系统。实际上,美国国防部高级研究计划署正在进行一个XAI项目。
另一个例子是自动驾驶汽车,特斯拉已经实现了自动驾驶。这对驾驶员而言是极大的福音,但也带来了巨大的责任。当汽车面临道德困境时,该如何选择?在这种情况下,它必须在两种恶果中选择较轻的一个。自动驾驶汽车是否应该为了拯救一个行人而牺牲一条狗的生命?
随着AI系统在社会中的影响力不断提升,我们需要了解它们在一般情况下以及在特定事件中是如何做出决策的。
许多人都看过《终结者》,影片中展示了机器如何获得自我意识并可能毁灭人类。人工智能的强大可以帮助人类成为一个多行星物种,也可能带来灾难性的后果。
研究显示,超过30%的人工智能专家认为,实现人工通用智能的后果将是最坏的。为了防止灾难的发生,了解人工智能系统的运作路径是最有效的手段,以便能够实施有效的制衡。
解决与人工智能相关的问题需要依据与解释
随着过去两个世纪人权与自由的发展,现行法律法规在敏感领域要求一定程度的可解释性。法律论证和推理领域同样涉及可解释性的界限问题。
尽管人工智能应用程序取代了一些传统职业,但这并不意味着其操控者无需提供解释。他们必须遵循相同的规则,解释服务软件的决策。当出现法律纠纷时,操控者需要对自动决策提供解释,例如,一辆特斯拉自动驾驶汽车发生事故时的情况。
然而,法律原则并非唯一要求强制解释的理由,现代法律法规也创造了不同形式的解释权。欧盟的通用数据保护条例(GDPR)明确规定了解释权,即在接受自动化决策时,个人有权获得对人工智能系统逻辑的合理解释。
在美国,公民有权获得关于信用申请被拒绝的解释。事实上,正如前文所提,这一权利迫使信用评分公司在对客户评分时使用更具可解释性的回归模型,以便能够提供强制性解释。
消除人工智能系统中的历史偏差需要可解释性
历史上,人类对不同群体的歧视从未消失,这一点在所收集的数据中也得到了体现。开发者在训练人工智能模型时,往往将带有偏见和歧视的因素输入到历史数据中。如果我们的观察具有种族偏见,模型的预测也会反映出这些偏见。
研究显示,在美国,至少有6%的少数族裔信贷申请因纯粹的歧视而被拒绝。因此,使用这些带有偏见的数据训练信用申请系统将对少数族裔产生毁灭性影响。作为社会的一员,我们必须了解算法的工作原理,并探索消除偏见的办法,以确保社会的自由、平等与和谐。
自动化的商业决策需要可靠性与信任
从财务角度来看,可解释性同样具有重要意义。当利用人工智能系统为公司的销售和营销工作推荐特定方案时,决策者需要了解推荐的理由。同时,决策者需对所采取的方案负责,因此必须清楚采取该方案的原因。这对于实体企业和金融企业尤为重要,尤其在金融市场中,一次错误的决策可能导致巨大的损失。
人们对可解释AI的需求源于社会学、哲学、法律、伦理学以及商业等多个领域,充分体现了这一需求的广泛性和紧迫性。
