來(lái)源:科技日?qǐng)?bào) 最近人工智能又惹來(lái)一番爭(zhēng)議。 據(jù)英國(guó)廣播公司(BBC)報(bào)道,IBM近日被指在未經(jīng)用戶(hù)同意的情況下,在圖片分享網(wǎng)站Flickr上獲取了大約100萬(wàn)張照片,用于訓(xùn)練其人臉識(shí)別算法。 當(dāng)個(gè)人隱私成了“數(shù)據(jù)” 據(jù)報(bào)道,IBM研究人員在一篇公開(kāi)的論文中詳細(xì)描述了使用這些照片進(jìn)行人臉?lè)治龅牟襟E,包括測(cè)量人臉五官的距離等等。研究人員寫(xiě)道,通過(guò)使用頭部和面部的47個(gè)標(biāo)記點(diǎn),可以對(duì)人的面部照片進(jìn)行很多可靠的測(cè)量。 對(duì)于技術(shù)公司而言,這些照片的價(jià)值不言而喻。龐大的圖片數(shù)據(jù)集有助于將人臉識(shí)別算法訓(xùn)練得更加精確,從而可以快速地從不同照片或不同場(chǎng)景中識(shí)別出某個(gè)用戶(hù)。 然而,那些照片上的人,大概并沒(méi)有想到,自己的肖像數(shù)據(jù)就這樣被技術(shù)公司收集,“喂”給了人工智能神經(jīng)網(wǎng)絡(luò),不知不覺(jué)地成了人臉識(shí)別技術(shù)迭代升級(jí)的“糧食”。 IBM在一則聲明中表示,它非常嚴(yán)肅地對(duì)待用戶(hù)隱私,一直謹(jǐn)慎地遵循隱私原則,并表示用戶(hù)可以選擇退出數(shù)據(jù)集。 話說(shuō)回來(lái),選擇退出時(shí)間點(diǎn)應(yīng)為用戶(hù)在肖像數(shù)據(jù)被獲取之前,知道自己的肖像數(shù)據(jù)將被用于其他用途。而在這一事件中,很多用戶(hù)的隱私已不知不覺(jué)地被侵犯了。 行業(yè)內(nèi)公開(kāi)的秘密 假如你的頭像也是上述100萬(wàn)張照片之一,肯定會(huì)覺(jué)得這件事特別詭異。但對(duì)某些人來(lái)說(shuō),IBM的所作所為并不值得大驚小怪,只是行業(yè)內(nèi)公開(kāi)的秘密而已。 《麻省理工技術(shù)評(píng)論》官網(wǎng)發(fā)表文章說(shuō),人工智能研發(fā)人員一直在從互聯(lián)網(wǎng)的各個(gè)角落搜集大量數(shù)據(jù),來(lái)“喂”那些饑餓的機(jī)器學(xué)習(xí)算法,因?yàn)檫@些算法的訓(xùn)練需要以大數(shù)據(jù)為支撐。該文稱(chēng),社交平臺(tái)Instagram上的照片也常常作為技術(shù)公司獲取圖片數(shù)據(jù)的來(lái)源,而且照片的內(nèi)容標(biāo)簽經(jīng)常對(duì)應(yīng)照片的內(nèi)容,這更加方便了研發(fā)人員對(duì)數(shù)據(jù)的標(biāo)注。 除了社交平臺(tái)上的照片被不知不覺(jué)地獲取,隨著人工智能技術(shù)的應(yīng)用越來(lái)越廣泛,個(gè)人隱私被不當(dāng)利用的擔(dān)憂同樣存在于其他場(chǎng)景。 比如,最近不少商家把人臉識(shí)別技術(shù)請(qǐng)上了收銀臺(tái),推廣刷臉支付。消費(fèi)者在刷臉支付的同時(shí),自己的面部肖像也同時(shí)被人臉識(shí)別系統(tǒng)所獲取。關(guān)鍵是,這些面部會(huì)不會(huì)也像Flickr上的照片那樣,變成訓(xùn)練人工智能神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)?甚至在未經(jīng)消費(fèi)者同意的情況下,再次被提供給其他商家,用于其他用途?這些都是值得追問(wèn)的。 可能被侵犯的個(gè)人隱私也不僅僅限于面部肖像?,F(xiàn)在多種應(yīng)用軟件都可以在語(yǔ)音識(shí)別技術(shù)的支持下,允許用戶(hù)進(jìn)行語(yǔ)音輸入。但聲紋是重要的個(gè)人生物信息,這些語(yǔ)音數(shù)據(jù)被商家獲取后將如何被保管和使用?要知道,一旦聲紋數(shù)據(jù)被泄露,不法分子有可能利用當(dāng)前的語(yǔ)音技術(shù),合成出難辨真?zhèn)蔚穆曇簦糜陔娫捲p騙等不良企圖。 虹膜識(shí)別、指紋支付、文字識(shí)別等人工智能技術(shù)在應(yīng)用過(guò)程中也可能毫不例外地涉及個(gè)人隱私問(wèn)題。 用戶(hù)知情同意是前提 人工智能時(shí)代,正讓每個(gè)置身其中的人變得越來(lái)越透明。享受其便利的同時(shí),公民的個(gè)人隱私也很容易被推向灰色地帶。 解決方案其實(shí)很簡(jiǎn)單:獲取用戶(hù)個(gè)人隱私信息,應(yīng)保證用戶(hù)的知情權(quán);要給予用戶(hù)選擇不拿個(gè)人隱私“喂”人工智能的權(quán)利。 要實(shí)現(xiàn)這一目標(biāo),僅僅依靠行業(yè)自覺(jué)恐怕遠(yuǎn)遠(yuǎn)不夠。制定相關(guān)法律對(duì)人工智能技術(shù)的應(yīng)用加以規(guī)范才是硬道理。 就在IBM事件掀起軒然大波之際,兩位美國(guó)參議員提議通過(guò)新的法案——商業(yè)面部識(shí)別隱私法,對(duì)技術(shù)公司的人臉識(shí)別技術(shù)使用進(jìn)行一定限制。 這項(xiàng)法案提出,禁止在未經(jīng)用戶(hù)同意的情況下,使用商業(yè)面部識(shí)別技術(shù)收集和分享數(shù)據(jù),用于識(shí)別或追蹤用戶(hù)。新法案還將要求公司在收集人臉識(shí)別數(shù)據(jù)時(shí)明確地告知用戶(hù),并且經(jīng)過(guò)用戶(hù)的知情同意才能分享給第三方。 令人欣喜的是,今年兩會(huì)期間,我國(guó)在相關(guān)領(lǐng)域也有好消息傳出:全國(guó)人大常委會(huì)已將個(gè)人信息保護(hù)法等與人工智能密切相關(guān)的立法項(xiàng)目列入本屆五年的立法規(guī)劃。 期待人工智能技術(shù)在變得越來(lái)越能干的同時(shí),也越來(lái)越懂得尊重個(gè)人隱私。 延伸閱讀 歐美學(xué)者對(duì)于《一般數(shù)據(jù)保護(hù)條例》表示擔(dān)憂 過(guò)去一年,科技發(fā)展與隱私保護(hù)的沖突似乎愈演愈烈。近日,2014年經(jīng)濟(jì)學(xué)諾獎(jiǎng)得主、法國(guó)圖盧茲經(jīng)濟(jì)學(xué)院教授讓·梯若爾等多位知名學(xué)者現(xiàn)身杭州,就“數(shù)據(jù)隱私和技術(shù)發(fā)展”發(fā)表了各自的看法。 2018年5月,由歐盟頒發(fā)、被稱(chēng)為史上最嚴(yán)格的GDPR(《一般數(shù)據(jù)保護(hù)條例》)開(kāi)始實(shí)施,F(xiàn)acebook等巨頭企業(yè)接連收到了歐洲開(kāi)出的天價(jià)罰單。與此同時(shí),對(duì)于隱私保護(hù)的政策爭(zhēng)議不斷,有人呼吁出臺(tái)更嚴(yán)格的隱私保護(hù)條例,也有不少專(zhuān)家認(rèn)為,歐洲嚴(yán)格的數(shù)據(jù)保護(hù)條例,并不適合在全世界推廣,在未來(lái)的大世界面前,隱私就是一個(gè)小問(wèn)題。 討論中來(lái)自歐美的學(xué)者對(duì)這一由歐盟頒發(fā)的數(shù)據(jù)保護(hù)條例普遍表示了擔(dān)心。讓·梯若爾認(rèn)為,該條例太過(guò)復(fù)雜,如果不允許收集數(shù)據(jù),就類(lèi)似于“想倒掉洗澡水,把寶寶也潑出去了”。美國(guó)伯克利法學(xué)院教授姆斯·鄧普希則直言,當(dāng)前對(duì)隱私問(wèn)題的研究,有待于更充足的經(jīng)濟(jì)學(xué)、社會(huì)學(xué)層面的知識(shí)給予支撐和完善。 《經(jīng)濟(jì)學(xué)人》智庫(kù)發(fā)布的最新報(bào)告稱(chēng),關(guān)于隱私,存在很多地區(qū)偏見(jiàn)。中國(guó)比歐美更認(rèn)同“數(shù)據(jù)隱私對(duì)企業(yè)治理的重要性”。98%的中國(guó)受訪者認(rèn)為,數(shù)據(jù)隱私是良好企業(yè)治理的最重要組成部分,這與中國(guó)企業(yè)不重視隱私的普遍觀念截然相反。(記者江耘 實(shí)習(xí)生洪恒飛) |
|