一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

綜述 | 杜克大學(xué)!可解釋機(jī)器學(xué)習(xí)

 漢無(wú)為 2021-07-20

轉(zhuǎn)載于 :專知

圖片

摘要:

機(jī)器學(xué)習(xí)(ML)中的可解釋性對(duì)于高風(fēng)險(xiǎn)決策和故障排除是至關(guān)重要的。在這項(xiàng)工作中,我們提供了可解釋性ML的基本原則,并消除了淡化這一關(guān)鍵話題的重要性的常見(jiàn)誤解。我們還確定了可解釋機(jī)器學(xué)習(xí)的10個(gè)技術(shù)挑戰(zhàn)領(lǐng)域,并提供了每個(gè)問(wèn)題的歷史和背景。這些問(wèn)題中有些是典型的重要問(wèn)題,有些是最近幾年才出現(xiàn)的問(wèn)題。這些問(wèn)題包括: (1)優(yōu)化決策樹等稀疏邏輯模型; (2)評(píng)分系統(tǒng)優(yōu)化; (3)在廣義加性模型中放置約束,以促進(jìn)稀疏性和更好的可解釋性; (4)現(xiàn)代案例推理,包括神經(jīng)網(wǎng)絡(luò)和匹配因果推理; (5)神經(jīng)網(wǎng)絡(luò)的完全監(jiān)督解纏; (6)神經(jīng)網(wǎng)絡(luò)的完全或部分無(wú)監(jiān)督解纏; (7)數(shù)據(jù)可視化降維; (8)能夠結(jié)合物理和其他生成或因果約束的機(jī)器學(xué)習(xí)模型; (9)良好模型的“羅生門集”的刻畫; (10)可解釋強(qiáng)化學(xué)習(xí)。該綜述適合作為對(duì)可解釋機(jī)器學(xué)習(xí)感興趣的統(tǒng)計(jì)學(xué)家和計(jì)算機(jī)科學(xué)家的起點(diǎn)。

https://www./paper/60f927568bf8ab4d8d16e48c54192246

引言

隨著機(jī)器學(xué)習(xí)(ML)的廣泛應(yīng)用,可解釋性在避免災(zāi)難性后果方面的重要性變得越來(lái)越明顯。黑箱預(yù)測(cè)模型的定義是不可思議的,它已經(jīng)導(dǎo)致嚴(yán)重的社會(huì)問(wèn)題,深刻影響健康、自由、種族偏見(jiàn)和安全。可解釋預(yù)測(cè)模型受到限制,因此其推理過(guò)程更容易被人類理解,也更容易進(jìn)行故障排除和在實(shí)踐中使用。人們普遍認(rèn)為,可解釋性是AI模型信任的關(guān)鍵因素(Wagstaff, 2012; Rudin and Wagstaff, 2014; Lo Piano, 2020; Ashoori and Weisz, 2019; Thiebes et al., 2020; Spiegelhalter, 2020; Brundage et al., 2020)。在這項(xiàng)綜述中,我們提供了基本原理,以及內(nèi)在可解釋機(jī)器學(xué)習(xí)模型設(shè)計(jì)中的10個(gè)技術(shù)挑戰(zhàn)。

讓我們提供一些背景資料。黑盒機(jī)器學(xué)習(xí)模型是一個(gè)公式,它要么太復(fù)雜,任何人都無(wú)法理解,要么是專有的,以至于人們無(wú)法理解其內(nèi)部工作原理。黑盒模型很難排除故障,這對(duì)于醫(yī)療數(shù)據(jù)來(lái)說(shuō)尤其成問(wèn)題。黑箱模型通常會(huì)在錯(cuò)誤的原因下預(yù)測(cè)正確的答案(“聰明的漢斯”現(xiàn)象),導(dǎo)致在訓(xùn)練中表現(xiàn)優(yōu)異,但在實(shí)踐中表現(xiàn)不佳(Schramowski et al., 2020; Lapuschkin et al., 2019; O’Connor, 2021; Zech et al., 2018; Badgeley et al., 2019; Hamamoto et al., 2020)。黑盒模型還有許多其他問(wèn)題。在刑事司法方面,個(gè)人可能會(huì)因?yàn)楹谙淠P洼斎氲挠∷㈠e(cuò)誤而遭受多年的額外監(jiān)禁(Wexler, 2017),而設(shè)計(jì)不佳的空氣質(zhì)量專有模型在野火期間對(duì)公共安全造成了嚴(yán)重后果(McGough, 2018);這兩種情況都很容易用可解釋模型來(lái)避免。在數(shù)據(jù)的底層分布發(fā)生變化的情況下(稱為域轉(zhuǎn)移,這在實(shí)踐中經(jīng)常發(fā)生),如果用戶不能實(shí)時(shí)地對(duì)模型進(jìn)行故障排除,那么問(wèn)題就會(huì)出現(xiàn),而黑盒模型比可解釋模型要困難得多。要確定一個(gè)黑箱模型在性別或種族群體方面是否公平,要比確定一個(gè)可解釋的模型是否存在這種偏見(jiàn)要困難得多。在醫(yī)學(xué)領(lǐng)域,黑盒模型將計(jì)算機(jī)輔助決策轉(zhuǎn)化為自動(dòng)決策,正是因?yàn)獒t(yī)生無(wú)法理解黑盒模型的推理過(guò)程。解釋黑盒,而不是用可解釋的模型替代它們,可能會(huì)通過(guò)提供誤導(dǎo)性或錯(cuò)誤的描述使問(wèn)題變得更糟(Rudin, 2019; Laugel et al., 2019; Lakkaraju and Bastani, 2020),或者給黑匣子增加不必要的權(quán)力(Rudin and Radin, 2019)。顯然,我們需要具有內(nèi)在可解釋性的創(chuàng)新機(jī)器學(xué)習(xí)模型。

本綜述的主要部分概述了可解釋性機(jī)器學(xué)習(xí)中一系列重要和基本的技術(shù)重大挑戰(zhàn)。這些挑戰(zhàn)既有現(xiàn)代的,也有古典的,有些挑戰(zhàn)要比其他的困難得多。它們要么很難解決,要么很難正確地表述。雖然有許多關(guān)于模型部署的社會(huì)技術(shù)挑戰(zhàn)(可能比技術(shù)挑戰(zhàn)困難得多),人機(jī)交互挑戰(zhàn),以及健壯性和公平性如何與可解釋性交互,這些話題可以留到以后討論。我們從可解釋機(jī)器學(xué)習(xí)中最經(jīng)典和最規(guī)范的問(wèn)題開(kāi)始: 如何為表格數(shù)據(jù)建立稀疏模型,包括決策樹(挑戰(zhàn)#1)和評(píng)分系統(tǒng)(挑戰(zhàn)#2)。然后我們研究了一個(gè)涉及加法模型的挑戰(zhàn)(挑戰(zhàn)#3),接著是另一個(gè)基于案例推理的挑戰(zhàn)(挑戰(zhàn)#4),這是可解釋人工智能中的另一個(gè)經(jīng)典主題。然后我們轉(zhuǎn)向更奇特的問(wèn)題,即在神經(jīng)網(wǎng)絡(luò)中有監(jiān)督和無(wú)監(jiān)督的概念解纏(挑戰(zhàn)#5和#6)?;氐浇?jīng)典問(wèn)題,我們討論降維(挑戰(zhàn)#7)。然后,如何整合物理或因果約束(挑戰(zhàn)#8)。挑戰(zhàn)#9涉及到理解、探索和衡量羅生門精確預(yù)測(cè)模型集。挑戰(zhàn)#10 討論可解釋強(qiáng)化學(xué)習(xí)。表1提供了一個(gè)指南,可以幫助用戶將數(shù)據(jù)集與合適的可解釋監(jiān)督學(xué)習(xí)技術(shù)相匹配。我們將在挑戰(zhàn)中涉及所有這些技術(shù)。

圖片

可解釋機(jī)器學(xué)習(xí)原則

  • 原則1: 一個(gè)可解釋的機(jī)器學(xué)習(xí)模型遵循一組特定領(lǐng)域的約束,使其(或其預(yù)測(cè)或數(shù)據(jù))更容易被人類理解。這些約束會(huì)根據(jù)域的不同而有很大的不同。

  • 原則2:盡管有常見(jiàn)的修辭,但可解釋的模型不一定能創(chuàng)造或促成信任——它們也可能導(dǎo)致不信任。它們只是讓用戶決定是否信任它們。換句話說(shuō),他們?cè)试S信任的決定,而不是信任本身。

    圖片

  • 原則3:重要的是,不要假設(shè)一個(gè)人需要犧牲準(zhǔn)確性來(lái)獲得可解釋性。事實(shí)上,可解釋性往往會(huì)帶來(lái)準(zhǔn)確性,而不是相反。在機(jī)器學(xué)習(xí)中,可解釋性和準(zhǔn)確性通常是一個(gè)錯(cuò)誤的二分法。

  • 原則4:作為整個(gè)數(shù)據(jù)科學(xué)過(guò)程的一部分,性能指標(biāo)和可解釋性指標(biāo)都應(yīng)該被反復(fù)地改進(jìn)。

  • 原則5:對(duì)于高風(fēng)險(xiǎn)的決策,如果可能的話,應(yīng)該使用可解釋的模型,而不是“解釋”的黑盒模型

在這項(xiàng)綜述中,我們希望為讀者提供一個(gè)途徑進(jìn)入可解釋機(jī)器學(xué)習(xí)的重要主題。目前有關(guān)可解釋和可解釋AI的文獻(xiàn)可能會(huì)讓人非常困惑。參與這一領(lǐng)域研究的個(gè)體多樣性不僅包括統(tǒng)計(jì)學(xué)家和計(jì)算機(jī)科學(xué)家,還包括法律專家、哲學(xué)家和研究生,其中許多人從未建立或部署過(guò)機(jī)器學(xué)習(xí)模型。人們很容易低估說(shuō)服別人在實(shí)踐中使用機(jī)器學(xué)習(xí)模型的難度,而可解釋性是一個(gè)關(guān)鍵因素。過(guò)去幾年的許多工作都貢獻(xiàn)了新的術(shù)語(yǔ),錯(cuò)誤地將舊的可解釋機(jī)器學(xué)習(xí)領(lǐng)域納入了新的領(lǐng)域“XAI”,而且評(píng)論論文普遍未能真正區(qū)分解釋黑箱和設(shè)計(jì)可解釋模型的基本概念。因?yàn)橛姓`導(dǎo)性的術(shù)語(yǔ),標(biāo)題為“可解釋性(explainability)”的論文有時(shí)是關(guān)于“可解釋性(interpretability)”,反之亦然,所以很難理解文獻(xiàn)(即使是我們)。至少,我們希望介紹一些基本原則,涵蓋該領(lǐng)域的幾個(gè)重要領(lǐng)域,并展示它們彼此之間的關(guān)系和與實(shí)際問(wèn)題的關(guān)系。顯然,這是一個(gè)我們無(wú)法真正涵蓋的巨大領(lǐng)域,但我們希望我們涵蓋的不同領(lǐng)域和提出的問(wèn)題可能對(duì)那些需要進(jìn)入這個(gè)迷宮的人有用。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類似文章 更多

    亚洲在线观看福利视频| 中文字幕日韩无套内射| 91久久精品国产一区蜜臀| 少妇在线一区二区三区| 青青操成人免费在线视频| 99久热只有精品视频免费看| 国产成人午夜福利片片| 国产女性精品一区二区三区| 日本欧美三级中文字幕| 少妇人妻精品一区二区三区| 色综合久久中文综合网| 99福利一区二区视频| 日本加勒比中文在线观看| 香蕉久久夜色精品国产尤物 | 午夜日韩在线观看视频| 激情内射亚洲一区二区三区| 色哟哟国产精品免费视频| 日本人妻的诱惑在线观看| 欧美老太太性生活大片| 国产亚洲欧美另类久久久| 日韩成人午夜福利免费视频| 免费在线观看激情小视频| 国产精品欧美日韩中文字幕| 国产又色又爽又黄的精品视频| 日韩精品视频免费观看| 中文字幕乱码一区二区三区四区| 日本免费熟女一区二区三区| 国产精品成人一区二区在线| 色婷婷视频免费在线观看| 欧美亚洲91在线视频| 国产日韩欧美专区一区| 国产欧美一区二区三区精品视| 99在线视频精品免费播放| 精品熟女少妇一区二区三区| 激情少妇一区二区三区| 国产欧美日韩在线一区二区| 中文字幕日韩欧美一区| 在线观看那种视频你懂的| 久久午夜福利精品日韩| 国产内射一级一片内射高清视频| 中文字幕欧美视频二区|