在人工智慧(AI)快速发展的当今世界中,「可解释人工智慧」(Explainable AI, XAI)正受到越来越多的关注。可解释人工智慧是一个探讨如何为人类提供对于AI算法控制的方法的研究领域,其核心是针对AI算法所做的决策或预测,进行理论上的解释,让人类用户更容易理解其运作方式。
可解释人工智慧的目的在于克服「黑箱」模型的问题,这些模型的决策过程不透明,甚至连设计者都无法明白。
可解释人工智慧的发展是针对使用者希望能够评估系统安全性,检查自动化决策过程的一种回应。例如,在医疗、财务及法律等领域,明了AI系统所做决策的背后原因对于建立对这些系统的信任至关重要。
可解释性AI的三大核心原则是透明性、可解释性和解释性。透明性指的是「从训练数据中提取模型参数并生成标签的过程是否可以被设计者描述和推导。」可解释性则是指理解模型及其决策过程的可能性,而解释性则是指对模型如何基于特定输入做出决策的理解程度。
可解释性让用户能够确认现有知识、质疑现有知识并生成新的假设,进一步强化了用户对AI系统的理解。
在AI的应用中,白箱模型相对于黑箱模型具有透明的结果,白箱模型能让领域专家快速理解。但大多数的深度学习模型依然属于黑箱范畴,这造成了对于AI所做决策的困惑及不安。
透过可解释人工智慧,设计者可以对AI的行为进行审计,理解系统是如何做出特定决策的。此过程对于医疗决策支持系统而言尤为重要,医疗专业人士必须能够理解机器做出决策的原因,从而信任这些机器的决策来辅助其诊疗过程。
业界多位研究者指出,对于受监督的机器学习来说,未来的发展方向是符号回归(symbolic regression),透过寻找最适合特定数据集的数学表达式来提升可解释性。
然而,随着AI系统的发展,这一领域也面临不少挑战,包括如何达成透明度和信任的平衡。为了解决这一问题,美国国防部的DARPA XAI计划希望开发出可以被人类理解的「玻璃盒」模型,这样的模型在保留AI性能的前提下,增加了可解释性。
此外,法律规范也在逐渐跟上。例如欧盟在通用数据保护条例(GDPR)中提出了解释的权利,要求企业在做出决策时能提供解释,这显示出社会对于透明度和负责任AI的期望。
尽管如此,实现可解释人工智慧并非易事。随着AI系统益发复杂,解释其内部运作的过程变得愈加困难,这不仅仅是技术上的挑战,也涉及到伦理及社会层面的讨论。
透过可解释人工智慧,用户能否真正理解AI系统的运作,并在未来的选择中信任这些系统呢?