在人工智慧(AI)快速發展的當今世界中,「可解釋人工智慧」(Explainable AI, XAI)正受到越來越多的關注。可解釋人工智慧是一個探討如何為人類提供對於AI算法控制的方法的研究領域,其核心是針對AI算法所做的決策或預測,進行理論上的解釋,讓人類用戶更容易理解其運作方式。
可解釋人工智慧的目的在於克服「黑箱」模型的問題,這些模型的決策過程不透明,甚至連設計者都無法明白。
可解釋人工智慧的發展是針對使用者希望能夠評估系統安全性,檢查自動化決策過程的一種回應。例如,在醫療、財務及法律等領域,明瞭AI系統所做決策的背後原因對於建立對這些系統的信任至關重要。
可解釋性AI的三大核心原則是透明性、可解釋性和解釋性。透明性指的是「從訓練數據中提取模型參數並生成標籤的過程是否可以被設計者描述和推導。」可解釋性則是指理解模型及其決策過程的可能性,而解釋性則是指對模型如何基於特定輸入做出決策的理解程度。
可解釋性讓用戶能夠確認現有知識、質疑現有知識並生成新的假設,進一步強化了用戶對AI系統的理解。
在AI的應用中,白箱模型相對於黑箱模型具有透明的結果,白箱模型能讓領域專家快速理解。但大多數的深度學習模型依然屬於黑箱範疇,這造成了對於AI所做決策的困惑及不安。
透過可解釋人工智慧,設計者可以對AI的行為進行審計,理解系統是如何做出特定決策的。此過程對於醫療決策支持系統而言尤為重要,醫療專業人士必須能夠理解機器做出決策的原因,從而信任這些機器的決策來輔助其診療過程。
業界多位研究者指出,對於受監督的機器學習來說,未來的發展方向是符號迴歸(symbolic regression),透過尋找最適合特定數據集的數學表達式來提升可解釋性。
然而,隨著AI系統的發展,這一領域也面臨不少挑戰,包括如何達成透明度和信任的平衡。為了解決這一問題,美國國防部的DARPA XAI計劃希望開發出可以被人類理解的「玻璃盒」模型,這樣的模型在保留AI性能的前提下,增加了可解釋性。
此外,法律規範也在逐漸跟上。例如歐盟在通用數據保護條例(GDPR)中提出了解釋的權利,要求企業在做出決策時能提供解釋,這顯示出社會對於透明度和負責任AI的期望。
儘管如此,實現可解釋人工智慧並非易事。隨著AI系統益發複雜,解釋其內部運作的過程變得愈加困難,這不僅僅是技術上的挑戰,也涉及到倫理及社會層面的討論。
透過可解釋人工智慧,用戶能否真正理解AI系統的運作,並在未來的選擇中信任這些系統呢?