原文: Developinga data ethics framework in the age of AI 來源: http://www./data/establishing-data-ethics-in-age-of-ai-3659269/ 英國(guó)國(guó)家醫(yī)療服務(wù)體系NHS就在其健康醫(yī)療大數(shù)據(jù)平臺(tái)care.data停擺一事中,失去了這種“執(zhí)照”。盡管利用NHS數(shù)據(jù)記錄來提升醫(yī)療服務(wù)的概念得到了廣泛的支持,但該機(jī)構(gòu)對(duì)數(shù)據(jù)保護(hù)問題的處置引起了公眾的強(qiáng)烈抗議,最終摧毀了這項(xiàng)計(jì)劃。 任何由數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)決策,都是基于感知到的風(fēng)險(xiǎn)和責(zé)任水平來接受評(píng)估。例如,與自動(dòng)駕駛汽車建議相比,亞馬遜的購(gòu)物建議得到的關(guān)注就要少得多。 人工智能兩種不同的發(fā)展前景:第一種被稱為“泳池模型”,即人工智能的“池水”將溢滿整個(gè)世界;第二種是他自己預(yù)測(cè)的“坑洞模型”,即人工智能的“水滴”會(huì)滴落在一切事物上,但只會(huì)注滿特定的“坑洞”。 原文翻譯: 近段時(shí)間,數(shù)據(jù)倫理進(jìn)入主流視野,我們看到媒體報(bào)道了有人在YouTube上宣傳恐怖主義,大數(shù)據(jù)公司Cambridge Analytica利用Facebook帖子進(jìn)行個(gè)性化競(jìng)選活動(dòng),以及打車應(yīng)用Uber被無休止的丑聞吞沒。 我們所遵行的原則和法規(guī)已難以跟上技術(shù)的發(fā)展步伐。英國(guó)科技企業(yè)游說組織techUK召集了一個(gè)專家小組,討論了如何確保行為符合規(guī)范。技術(shù)的最新進(jìn)步正在不斷延展關(guān)于知情同意和隱私的倫理觀念,在這種情況下,我們需要一個(gè)新的框架來建立保護(hù)數(shù)據(jù)的標(biāo)準(zhǔn)。 “我們需要可以提供確定性的標(biāo)準(zhǔn)來進(jìn)行創(chuàng)新?!庇?guó)皇家統(tǒng)計(jì)學(xué)會(huì)(Royal Statistical Society)的執(zhí)行理事赫丹·沙阿(HetanShah)說,“失去了公眾信任,我們就可能失去'營(yíng)業(yè)執(zhí)照’?!?/font> 英國(guó)國(guó)家醫(yī)療服務(wù)體系NHS就在其健康醫(yī)療大數(shù)據(jù)平臺(tái)care.data停擺一事中,失去了這種“執(zhí)照”。盡管利用NHS數(shù)據(jù)記錄來提升醫(yī)療服務(wù)的概念得到了廣泛的支持,但該機(jī)構(gòu)對(duì)數(shù)據(jù)保護(hù)問題的處置引起了公眾的強(qiáng)烈抗議,最終摧毀了這項(xiàng)計(jì)劃。 公眾對(duì)數(shù)據(jù)使用的態(tài)度 近期關(guān)于數(shù)據(jù)使用的丑聞使得公眾信任處于低水平。英國(guó)皇家學(xué)會(huì)(The Royal Society)最近展開了一項(xiàng)調(diào)查,詢問公眾對(duì)一家機(jī)構(gòu)的信任度,以及如果要向該機(jī)構(gòu)提交你的數(shù)據(jù),此時(shí)你對(duì)它的信任度還有多高。 “人們對(duì)第二個(gè)問題的信任度總是低于第一個(gè)?!鄙嘲⒄f,“如果一家機(jī)構(gòu)掌握著你的數(shù)據(jù),你對(duì)它的信任度絕不會(huì)超過之前它沒有掌握數(shù)據(jù)時(shí)的情況。信任出現(xiàn)了赤字,這是一個(gè)社會(huì)問題?!?/font> 英國(guó)皇家學(xué)會(huì)的科學(xué)政策主任克萊爾·克雷格(Claire Craig)參與了一項(xiàng)調(diào)查,向擁有不同社會(huì)經(jīng)濟(jì)背景的英國(guó)公民,詢問他們對(duì)于數(shù)據(jù)使用的看法。這項(xiàng)定性研究揭示,公眾判斷風(fēng)險(xiǎn)的標(biāo)準(zhǔn)始于對(duì)動(dòng)機(jī)的感知。 “主要訊息是情境的重要性?!笨死赘裾f,“對(duì)于數(shù)據(jù)的某種應(yīng)用,他們判斷其風(fēng)險(xiǎn)和好處的基本標(biāo)準(zhǔn)始于對(duì)動(dòng)機(jī)的感知?!?/font> “他們真的很關(guān)心為什么一項(xiàng)新技術(shù)會(huì)被引入,為什么會(huì)有新的應(yīng)用,以及數(shù)據(jù)有哪些,目的是什么。他們也關(guān)心受益者,尤其是,如果他們看到它幫到了自己,幫到了像自己一樣的人、像自己一樣的群體以及更大范圍的群體,他們的態(tài)度會(huì)更加支持?!?/font> 從根本上說,消費(fèi)者需要得到直接的好處。如果這件事幫到了人們,賺不賺錢就不是問題。 任何由數(shù)據(jù)驅(qū)動(dòng)的自動(dòng)決策,都是基于感知到的風(fēng)險(xiǎn)和責(zé)任水平來接受評(píng)估。例如,與自動(dòng)駕駛汽車建議相比,亞馬遜的購(gòu)物建議得到的關(guān)注就要少得多。 人們支持那些能夠?qū)崿F(xiàn)更多人際交往的技術(shù)應(yīng)用,比如,技術(shù)可以省下時(shí)間,讓用戶與親友有更多的交流。 對(duì)技術(shù)的過度依賴可能導(dǎo)致人們永久性地失去歷代人所掌握的技能。 技術(shù)需要被證明能夠增強(qiáng)而不是削弱人類的能力。能夠幫助專業(yè)人士省下時(shí)間從事更重要工作的技術(shù),將得到廣泛支持,但那些有可能取代人力的自動(dòng)化技術(shù)將讓人們心生警惕,這一點(diǎn)毫不意外。 “人們很擔(dān)心自己會(huì)被取代,對(duì)未來的工作也有很大的擔(dān)憂?!笨死赘裾f,“那些潛在的新工作,都在哪里呢?” 隨著技術(shù)讓我們走上無個(gè)性化的必然道路,并挑戰(zhàn)人之為人的本質(zhì)和價(jià)值,這些擔(dān)憂會(huì)發(fā)展成有關(guān)存在價(jià)值的恐懼。如果一臺(tái)計(jì)算機(jī)能夠比你更好地完成所有工作,如果一種算法有權(quán)力決定你的選擇,那么自由在職業(yè)、教育和財(cái)政支持等領(lǐng)域遭到限制,似乎就是不可避免的后果。 建立信任 數(shù)據(jù)的有益使用得到的媒體曝光很少與其負(fù)面使用得到的曝光度相同。拉斯維加斯的賭場(chǎng)或許會(huì)用數(shù)據(jù)科學(xué)來估算你的消費(fèi)門檻,并在你達(dá)到那個(gè)門檻時(shí)送上一杯酒,希望你能繼續(xù)消費(fèi)。但同時(shí),我們也看到Streams這樣的應(yīng)用通過掃描患者數(shù)據(jù)來預(yù)測(cè)急性腎損傷風(fēng)險(xiǎn),從而達(dá)到提升醫(yī)療效果和減輕護(hù)士日常工作負(fù)擔(dān)的目的。 我們可以通過宣傳正面使用的事例來提升公眾的信任,比如倫敦交通局使用開放數(shù)據(jù)預(yù)測(cè)公交車的到站時(shí)間,或是食品標(biāo)準(zhǔn)局通過社交網(wǎng)絡(luò)來監(jiān)測(cè)諾如病毒的傳播。 咨詢公司FrontierEconomics在最近的一份報(bào)告中預(yù)測(cè),到2035年時(shí),人工智能將為英國(guó)經(jīng)濟(jì)增加8,140億美元的產(chǎn)值,并讓經(jīng)濟(jì)增長(zhǎng)率從2.5%上升到3.9%。 “這些實(shí)實(shí)在在的數(shù)字令人印象深刻,但它們?nèi)匀晃茨艹浞址从秤蓴?shù)據(jù)驅(qū)動(dòng)的技術(shù),比如數(shù)據(jù)分析和人工智能,將如何積極地改變經(jīng)濟(jì)和生活的方方面面,并真正幫助我們建設(shè)更加富裕、更加健康和更加清潔的社區(qū)?!蔽④浻?guó)的政府事務(wù)經(jīng)理歐文·拉特(Owen Larter)說。 美國(guó)醫(yī)療系統(tǒng)已經(jīng)在應(yīng)用能夠進(jìn)行模式識(shí)別的算法技術(shù),來應(yīng)對(duì)醫(yī)院中可預(yù)防的錯(cuò)誤,這些醫(yī)療事故是位居癌癥和心臟病之后的第三大致死原因。由數(shù)據(jù)驅(qū)動(dòng)的模式識(shí)別技術(shù)可以依照既有的最佳臨床實(shí)踐,為醫(yī)生標(biāo)記出反?,F(xiàn)象,防止這些錯(cuò)誤造成重大傷害。 如今,英國(guó)背負(fù)著倫理責(zé)任,它要應(yīng)對(duì)一系列挑戰(zhàn),比如老齡化人口的醫(yī)療費(fèi)用問題,那意味著,今天的NHS到了明天將無法維持。 techUK的副首席執(zhí)行官安東尼·沃克(Antony Walker)認(rèn)為,我們開發(fā)的數(shù)據(jù)寶藏能夠拯救生命,但前提是它的潛力得到釋放。 “如果我們希望子孫后代能夠擁有一套免費(fèi)的醫(yī)療服務(wù)體系,我們對(duì)他們是有倫理上的責(zé)任的?!蔽挚苏f,“做成這件事的唯一辦法是通過使用數(shù)據(jù)?!?/font> 當(dāng)涉及計(jì)算機(jī)代碼時(shí),追究責(zé)任可能成為一個(gè)難題,但讓整個(gè)過程可審計(jì),解釋其中的工作原理,將幫助建立公眾信任??死赘裾J(rèn)為,我們還需要對(duì)公眾擔(dān)心的事情做出回應(yīng)。 “透明度是必要的,但絕對(duì)說不上什么效率。”他說,“知道發(fā)生了什么事,這只是起點(diǎn)。” 問責(zé)、職責(zé)和責(zé)任是一個(gè)復(fù)雜的三角。最后一個(gè)會(huì)真正對(duì)公司造成損害,也是違規(guī)需要得到糾正的地方。 除了上述關(guān)于隱私、治理和知情同意的問題,在數(shù)據(jù)公平和偏見方面,公眾也存在著持續(xù)的擔(dān)憂。與人的意見相比,算法通常被賦予了更多的信任,盡管算法也是人類情感和偏見的產(chǎn)物。 數(shù)據(jù)科學(xué)仍然是一門相對(duì)較新的學(xué)科,因此,科學(xué)家需要在數(shù)據(jù)倫理和標(biāo)準(zhǔn)方面,接受全面的訓(xùn)練。他們?cè)O(shè)計(jì)的算法造成的結(jié)果應(yīng)該接受審計(jì),以確保透明度和安全性。 “我們很難窺視算法的黑箱?!鄙嘲⒄f。 他希望組建一個(gè)獨(dú)立的數(shù)據(jù)倫理委員會(huì),而且,相比建立新的監(jiān)管機(jī)構(gòu),他更愿意賦予現(xiàn)有監(jiān)管機(jī)構(gòu)額外的權(quán)力。 邁向未來 牛津大學(xué)哲學(xué)和信息倫理學(xué)教授盧西亞諾·弗洛里迪(Luciano Floridi)一直在研究數(shù)據(jù)未來的發(fā)展,以及未來幾年產(chǎn)生的倫理影響。 他描述了人工智能兩種不同的發(fā)展前景:第一種被稱為“泳池模型”,即人工智能的“池水”將溢滿整個(gè)世界;第二種是他自己預(yù)測(cè)的“坑洞模型”,即人工智能的“水滴”會(huì)滴落在一切事物上,但只會(huì)注滿特定的“坑洞”。 “就連接這些坑洞來說,人工智能不會(huì)做所有的工作,那將由人類來完成?!备ヂ謇锏险f,“而且,我們將如何充當(dāng)人工智能應(yīng)用與其他人工智能應(yīng)用,或是與其他需要連接的系統(tǒng)之間的接口,在這方面,我們需要搞清楚的倫理問題還有很多。如何連接這一切,是完全未知的領(lǐng)域。” 新技術(shù)總是會(huì)為犯罪活動(dòng)提供新的機(jī)會(huì),而私人企業(yè)、公共機(jī)構(gòu)和執(zhí)法部門的追趕步伐可能非常遲緩。在歐洲刑警組織2016年的《互聯(lián)網(wǎng)有組織犯罪威脅評(píng)估報(bào)告》中,有一個(gè)章節(jié)專門討論了現(xiàn)有的各種網(wǎng)絡(luò)犯罪行為,但幾乎沒有提到人工智能。 “很多人都在談?wù)摾脵C(jī)器學(xué)習(xí)和人工智能來打擊有組織犯罪,但有人在談?wù)撚薪M織犯罪會(huì)怎樣使用相同的技術(shù)嗎?”弗洛里迪問道,“如果你在操作系統(tǒng)中發(fā)現(xiàn)了某種漏洞,你能想象有人利用人工智能系統(tǒng)對(duì)這一漏洞進(jìn)行攻擊后,事情會(huì)演變成什么樣嗎?據(jù)我所知,只有汽車行業(yè)的人在談?wù)撨@件事?!?/font> 人們看到了算法在提升計(jì)算機(jī)安全性方面的潛力,但它同樣有能力去破壞這種安全性。當(dāng)自動(dòng)化技術(shù)把這些算法安裝到相同的系統(tǒng)上時(shí),一旦黑客發(fā)動(dòng)攻擊,他們將不再需要逐一破解每輛汽車上的電腦。 不過,我們?cè)谒饺祟I(lǐng)域看到了一些積極的發(fā)展態(tài)勢(shì)。企業(yè)越來越把數(shù)據(jù)倫理視為一筆珍貴的資產(chǎn),尤其是在它們從初創(chuàng)公司成長(zhǎng)為大型企業(yè)之后。 技術(shù)可以改變倫理,比如避孕藥的出現(xiàn),它在公眾掀起性革命之前,就引發(fā)了這樣一場(chǎng)革命。如果要讓數(shù)據(jù)充分發(fā)揮它所具有的變革性潛力,就必須建立一套倫理規(guī)范,同時(shí)還要搭建一個(gè)倫理框架來提供保障。新的制度能否落實(shí)到位,取決于政府和行業(yè)。 翻譯:何無魚 |
|