2024年4月23日 致命的人工智能武器來(lái)了:我們?nèi)绾慰刂扑鼈儯?由人工智能引導(dǎo)的自主武器已經(jīng)投入使用。研究人員、法律專家和倫理學(xué)家都在糾結(jié)戰(zhàn)場(chǎng)上應(yīng)該允許什么。 大衛(wèi)·亞當(dāng)2023年3月,在烏克蘭頓巴斯地區(qū),一名烏克蘭士兵正在準(zhǔn)備一架無(wú)人機(jī)攜帶手榴彈進(jìn)行襲擊。鳴謝:阿里·梅西尼斯/法新社/蓋蒂 在俄羅斯和烏克蘭的沖突中,視頻畫(huà)面顯示,無(wú)人機(jī)深入俄羅斯領(lǐng)土,距離邊境1000多公里,摧毀了石油和天然氣基礎(chǔ)設(shè)施。專家表示,人工智能(AI)可能正在幫助引導(dǎo)無(wú)人機(jī)飛向目標(biāo)。對(duì)于這種武器,沒(méi)有人需要扣動(dòng)扳機(jī)或做出引爆的最終決定。 包括配備人工智能的無(wú)人機(jī)在內(nèi)的致命自主武器(LAWs)的開(kāi)發(fā)正在興起。例如,美國(guó)國(guó)防部迄今已為其復(fù)制器計(jì)劃撥款10億美元,該計(jì)劃旨在建立一支小型武器化自動(dòng)駕駛汽車(chē)車(chē)隊(duì)。使用人工智能進(jìn)行自我駕駛和射擊的實(shí)驗(yàn)性潛艇、坦克和船只已經(jīng)制造出來(lái)。商用無(wú)人機(jī)可以使用人工智能圖像識(shí)別來(lái)鎖定目標(biāo)并將其炸毀。法律不需要人工智能來(lái)運(yùn)作,但這項(xiàng)技術(shù)增加了速度、特異性和規(guī)避防御的能力。一些觀察人士擔(dān)心,在未來(lái),任何派別都可能出動(dòng)大批廉價(jià)的人工智能無(wú)人機(jī),通過(guò)面部識(shí)別來(lái)干掉某個(gè)特定的人。 戰(zhàn)爭(zhēng)是人工智能相對(duì)簡(jiǎn)單的應(yīng)用?!耙粋€(gè)系統(tǒng)找到并殺死一個(gè)人的技術(shù)能力比開(kāi)發(fā)一輛自動(dòng)駕駛汽車(chē)要容易得多。這是一個(gè)研究生項(xiàng)目,”加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)家、反對(duì)人工智能武器的著名活動(dòng)家斯圖爾特·拉塞爾說(shuō)。他在2017年幫助制作了一個(gè)名為“屠宰機(jī)器人”的視頻,強(qiáng)調(diào)了可能的風(fēng)險(xiǎn)。 人工智能在戰(zhàn)場(chǎng)上的出現(xiàn)引發(fā)了研究人員、法律專家和倫理學(xué)家的辯論。一些人認(rèn)為,人工智能輔助武器可能比人工制導(dǎo)武器更準(zhǔn)確,有可能減少附帶損害——如平民傷亡和居民區(qū)破壞——以及士兵傷亡人數(shù),同時(shí)幫助脆弱的國(guó)家和群體進(jìn)行自衛(wèi)。其他人強(qiáng)調(diào),自主武器可能會(huì)犯災(zāi)難性的錯(cuò)誤。許多觀察家對(duì)將目標(biāo)決定傳遞給算法有著首要的道德?lián)鷳n。聯(lián)合國(guó)安理會(huì)于2023年7月討論了配備人工智能的武器問(wèn)題。致謝:比安卡·奧特羅/祖瑪/艾維恩多年來(lái),研究人員一直在努力控制這種新的威脅。現(xiàn)在,聯(lián)合國(guó)已經(jīng)邁出了關(guān)鍵的一步。去年12月的一項(xiàng)決議將法律議題列入了今年9月聯(lián)合國(guó)大會(huì)的議程。聯(lián)合國(guó)秘書(shū)長(zhǎng)安東尼奧·古特雷斯去年7月表示,他希望在2026年前禁止無(wú)人監(jiān)管的武器。馬薩諸塞州劍橋市哈佛大學(xué)法學(xué)院的人權(quán)律師邦妮·多切蒂表示,在十多年來(lái)進(jìn)展甚微的情況下,將這一議題納入聯(lián)合國(guó)議程意義重大。“外交行動(dòng)緩慢,但這是重要的一步,”她說(shuō)。 專家說(shuō),這一舉措為各國(guó)就人工智能武器采取行動(dòng)提供了第一條現(xiàn)實(shí)的途徑。但這說(shuō)起來(lái)容易做起來(lái)難。這些武器引發(fā)了關(guān)于人類(lèi)能動(dòng)性、問(wèn)責(zé)制以及官員應(yīng)該在多大程度上將生死決策外包給機(jī)器的難題。 控制住了嗎? 控制和管理武器使用的努力可以追溯到幾百年前。例如,中世紀(jì)的騎士們同意不用長(zhǎng)矛瞄準(zhǔn)對(duì)方的馬。1675年,法國(guó)和神圣羅馬帝國(guó)的交戰(zhàn)國(guó)同意禁止使用毒彈。 今天,國(guó)際上對(duì)武器的主要限制是通過(guò)《聯(lián)合國(guó)特定常規(guī)武器公約》(CCW),這是一項(xiàng)1983年的條約,例如,它被用來(lái)禁止致盲激光武器。 這種或那種自主武器至少已經(jīng)存在了幾十年,包括熱尋的導(dǎo)彈,甚至(取決于自主的定義)可以追溯到美國(guó)內(nèi)戰(zhàn)時(shí)期的壓力觸發(fā)地雷。然而現(xiàn)在,人工智能算法的發(fā)展和使用正在擴(kuò)展它們的能力。 自2013年以來(lái),CCW一直在正式調(diào)查人工智能推進(jìn)的武器,但因?yàn)樗枰獓?guó)際共識(shí)來(lái)通過(guò)法規(guī),而且因?yàn)樵S多積極開(kāi)發(fā)該技術(shù)的國(guó)家反對(duì)任何禁令,所以進(jìn)展緩慢。今年3月,美國(guó)主辦了關(guān)于負(fù)責(zé)任地軍事使用人工智能和自主性的政治宣言的首次全體會(huì)議,這是一項(xiàng)并行的努力,強(qiáng)調(diào)最佳做法的自愿準(zhǔn)則,而不是法律上可強(qiáng)制執(zhí)行的禁令。 問(wèn)題的一部分是對(duì)法律到底是什么缺乏共識(shí)。2022年的一項(xiàng)分析發(fā)現(xiàn),由北大西洋公約組織(北約)等國(guó)家和組織提出的自主武器系統(tǒng)的定義至少有十幾個(gè)。拉塞爾說(shuō),這些定義涵蓋的范圍很廣,顯示出對(duì)人工智能的認(rèn)同甚至理解是有限的。 例如,英國(guó)表示,法律“能夠理解更高層次的意圖和方向”,而中國(guó)表示,這種武器可以“自主學(xué)習(xí),以超出人類(lèi)預(yù)期的方式擴(kuò)展其功能和能力”。伊斯雷爾宣稱:“我們應(yīng)該遠(yuǎn)離機(jī)器自我開(kāi)發(fā)、創(chuàng)造或激活的想象——這些應(yīng)該留給科幻電影?!钡聡?guó)將“自我意識(shí)”作為自主武器的一個(gè)必要屬性——大多數(shù)研究人員表示,這種品質(zhì)距離今天的人工智能還很遠(yuǎn),如果不是完全不可能的話。 “這意味著這種武器必須在早上醒來(lái),決定自己去攻擊俄羅斯,”拉塞爾說(shuō)。 盡管一個(gè)更全面、更具體、更現(xiàn)實(shí)的法律定義還需要進(jìn)一步完善,但一些專家表示,這個(gè)問(wèn)題可以等等?!皞鹘y(tǒng)上,在裁軍法中,雖然這是違反直覺(jué)的,但實(shí)際上他們經(jīng)常在談判中最后才下定義,”多切蒂說(shuō)。一個(gè)可行的定義通常足以啟動(dòng)這一進(jìn)程,并有助于軟化反對(duì)采取行動(dòng)的國(guó)家最初的反對(duì)意見(jiàn)。人工智能優(yōu)勢(shì) 根據(jù)2023年南丹麥大學(xué)戰(zhàn)爭(zhēng)研究中心在歐登塞3發(fā)表的一份分析報(bào)告,目前陸軍指揮官可以使用的人工智能制導(dǎo)自主武器相對(duì)簡(jiǎn)陋——移動(dòng)緩慢且笨拙的無(wú)人機(jī)配備了足夠的炸藥來(lái)炸毀自己和目標(biāo)。 這些“游蕩彈藥”可能有模型飛機(jī)那么大,成本約為5萬(wàn)美元,可以將幾公斤的炸藥帶到50公里以外,足以摧毀一輛汽車(chē)或殺死單個(gè)士兵。這些彈藥使用機(jī)載傳感器監(jiān)測(cè)光學(xué)、紅外或無(wú)線電頻率來(lái)探測(cè)潛在目標(biāo)。人工智能將這些傳感器輸入與預(yù)先設(shè)計(jì)的坦克、裝甲車(chē)和雷達(dá)系統(tǒng)——以及人類(lèi)——的輪廓進(jìn)行比較。 觀察人士表示,與遙控?zé)o人機(jī)相比,這些自主炸彈最大的優(yōu)勢(shì)是,如果對(duì)方有干擾電子通信的設(shè)備,它們?nèi)匀豢梢怨ぷ鳌W灾鞑僮飨诉h(yuǎn)程操作員被敵人追蹤和自身遭到攻擊的風(fēng)險(xiǎn)。 盡管有傳言稱自主彈藥在2020年殺死了利比亞的戰(zhàn)斗人員,但來(lái)自烏克蘭沖突的報(bào)道鞏固了人工智能無(wú)人機(jī)正在被使用的觀點(diǎn)。拉塞爾表示:“我認(rèn)為,現(xiàn)在烏克蘭已經(jīng)很好地接受了這一點(diǎn),他們已經(jīng)轉(zhuǎn)向了全自主武器,因?yàn)殡娮痈蓴_非常有效?!睘蹩颂m的Yaroslav Honchar等軍事指揮官表示,該國(guó)“已經(jīng)在沒(méi)有人工干預(yù)的情況下進(jìn)行了完全機(jī)器人化的行動(dòng)”3。 很難知道人工智能武器在戰(zhàn)場(chǎng)上的表現(xiàn)如何,這在很大程度上是因?yàn)檐姺讲粫?huì)公布此類(lèi)數(shù)據(jù)。在去年9月的一次英國(guó)議會(huì)質(zhì)詢中,英國(guó)戰(zhàn)略司令部副司令湯姆·科平格爾-賽默斯(Tom Copinger-Symes)被直接問(wèn)及人工智能武器系統(tǒng)時(shí)沒(méi)有透露太多信息,只是說(shuō)英國(guó)軍方正在進(jìn)行基準(zhǔn)研究,以比較自主和非自主系統(tǒng)。他說(shuō):“不可避免的是,你要檢查一下,與讓十名圖像分析師觀察同一事物的老式系統(tǒng)相比,這是否物有所值?!? 盡管真實(shí)世界的戰(zhàn)場(chǎng)數(shù)據(jù)很少,但研究人員指出,人工智能具有卓越的處理和決策能力,從理論上講,這將帶來(lái)巨大優(yōu)勢(shì)。例如,在快速圖像識(shí)別的年度測(cè)試中,近十年來(lái)算法的表現(xiàn)超過(guò)了人類(lèi)專家。例如,去年的一項(xiàng)研究表明,人工智能可以比人類(lèi)專家更快、更全面地找到科學(xué)論文中的重復(fù)圖像4。 2020年,一個(gè)人工智能模型在一系列模擬空戰(zhàn)中擊敗了一名經(jīng)驗(yàn)豐富的F-16戰(zhàn)斗機(jī)飛行員,這要?dú)w功于“人類(lèi)飛行員無(wú)法超越的侵略性和精確動(dòng)作”。然后,在2022年,中國(guó)軍事研究人員表示,一架人工智能驅(qū)動(dòng)的無(wú)人機(jī)戰(zhàn)勝了一架由地面操作員遠(yuǎn)程駕駛的飛機(jī)。人工智能飛機(jī)抓住了對(duì)手的尾巴,并進(jìn)入了一個(gè)本可以擊落它的位置。美國(guó)空軍的X-62A VISTA飛機(jī)已被用于測(cè)試自主代理執(zhí)行高級(jí)空中機(jī)動(dòng)的能力。鳴謝:美國(guó)空軍圖片/凱爾·布拉西爾 位于華盛頓DC的戰(zhàn)略與國(guó)際研究中心的安全分析師扎克·卡倫伯恩表示,無(wú)人機(jī)人工智能可以“圍繞如何執(zhí)行特定動(dòng)作、飛行距離對(duì)手多近以及攻擊角度等方面做出非常復(fù)雜的決策”。 盡管如此,Kallenborn表示,目前還不清楚人工智能武器能提供什么樣的重大戰(zhàn)略優(yōu)勢(shì),尤其是在雙方都能獲得這些武器的情況下。“問(wèn)題的很大一部分不是技術(shù)本身,而是軍隊(duì)如何使用這項(xiàng)技術(shù),”他說(shuō)。 人工智能理論上也可以用于戰(zhàn)爭(zhēng)的其他方面,包括編制潛在目標(biāo)的清單;媒體報(bào)道引發(fā)了人們的擔(dān)憂,例如,以色列使用人工智能創(chuàng)建了一個(gè)包含數(shù)萬(wàn)名疑似武裝分子姓名的數(shù)據(jù)庫(kù),盡管以色列國(guó)防軍在一份聲明中表示,它不使用“識(shí)別恐怖分子”的人工智能系統(tǒng)。沙灘上的線 評(píng)估自主武器倫理的一個(gè)關(guān)鍵標(biāo)準(zhǔn)是它們的可靠性和可能出錯(cuò)的程度。例如,2007年,英國(guó)軍方匆忙重新設(shè)計(jì)了用于阿富汗的自主“硫磺”導(dǎo)彈,當(dāng)時(shí)擔(dān)心該導(dǎo)彈可能會(huì)把一輛校車(chē)誤認(rèn)為一卡車(chē)叛亂分子。 卡倫伯恩說(shuō),人工智能武器可以相當(dāng)容易地鎖定紅外或強(qiáng)大的雷達(dá)信號(hào),并將它們與數(shù)據(jù)庫(kù)進(jìn)行比較,以幫助確定什么是什么??▊惒髡f(shuō):“這種方法相當(dāng)有效,因?yàn)樽咴诮稚系男『⒉粫?huì)在背包里裝大功率雷達(dá)?!边@意味著當(dāng)人工智能武器在戰(zhàn)場(chǎng)上探測(cè)到來(lái)襲雷達(dá)信號(hào)的來(lái)源時(shí),它可以在幾乎沒(méi)有傷害平民風(fēng)險(xiǎn)的情況下進(jìn)行射擊。 但是視覺(jué)圖像識(shí)別更成問(wèn)題,他說(shuō)。“如果它基本上只是一個(gè)像相機(jī)一樣的傳感器,我認(rèn)為你更容易出錯(cuò),”卡倫伯恩說(shuō)。盡管AI擅長(zhǎng)識(shí)別圖像,但它并不是萬(wàn)無(wú)一失的。他說(shuō),研究表明,對(duì)圖片的微小改動(dòng)會(huì)改變它們被神經(jīng)網(wǎng)絡(luò)分類(lèi)的方式——比如讓它們把飛機(jī)和狗搞混。 倫理學(xué)家的另一個(gè)可能的分界線是武器將如何使用:例如,攻擊或防御。復(fù)雜的自主雷達(dá)制導(dǎo)系統(tǒng)已經(jīng)被用于保護(hù)海上船只免受快速來(lái)襲目標(biāo)的攻擊。英國(guó)蘭開(kāi)斯特大學(xué)研究人與機(jī)器互動(dòng)的社會(huì)學(xué)家露西·蘇克曼表示,倫理學(xué)家對(duì)這種自主武器更感興趣,因?yàn)樗槍?duì)的是軍械而不是人,而且信號(hào)很難錯(cuò)誤地歸因于其他任何東西。 研究人員和軍方普遍提出的一個(gè)原則是,自主武器應(yīng)該“人在回路中”。但人們應(yīng)該或必須在哪里以及如何參與仍有待討論。包括蘇克曼在內(nèi)的許多人通常將這一想法解釋為,人類(lèi)特工必須在授權(quán)打擊之前對(duì)目標(biāo)進(jìn)行視覺(jué)驗(yàn)證,并且必須能夠在戰(zhàn)場(chǎng)條件發(fā)生變化時(shí)取消打擊(例如如果平民進(jìn)入戰(zhàn)斗區(qū))。但這也可能意味著人類(lèi)只是在釋放武器前輸入了目標(biāo)的描述——這種功能被稱為“開(kāi)火后就忘了”。 一些系統(tǒng)允許用戶根據(jù)情況在完全自主和人工輔助模式之間切換。蘇克曼和其他人表示,這還不夠好。“要求一個(gè)人禁用自主功能并不構(gòu)成有意義的控制,”她說(shuō)。 完全自治的想法也使問(wèn)責(zé)制變得模糊不清。“我們非常擔(dān)心自主武器系統(tǒng)的使用會(huì)出現(xiàn)問(wèn)責(zé)漏洞,因?yàn)楹苊黠@,你不能讓武器系統(tǒng)本身承擔(dān)責(zé)任,”多切蒂說(shuō)。她補(bǔ)充說(shuō),讓運(yùn)營(yíng)商對(duì)一個(gè)自動(dòng)運(yùn)行的系統(tǒng)的行為負(fù)責(zé)在法律上也具有挑戰(zhàn)性,而且可能不公平。 羅素建議“在機(jī)載計(jì)算和點(diǎn)火電路之間沒(méi)有通信”。這意味著射擊必須由遠(yuǎn)程操作員激活,而不能由人工智能激活。 拉塞爾說(shuō),在法律討論中至少有一點(diǎn)(幾乎)每個(gè)人似乎都同意:即使是普遍反對(duì)控制的國(guó)家,包括美國(guó)和中國(guó),也表示包括人工智能在內(nèi)的自主智能體不應(yīng)參與發(fā)射核武器的決定。 然而,俄羅斯在這個(gè)問(wèn)題上似乎更加謹(jǐn)慎。人們普遍認(rèn)為莫斯科重啟了一項(xiàng)名為“周邊”的冷戰(zhàn)計(jì)劃,該計(jì)劃至少在理論上可以在無(wú)人監(jiān)督的情況下對(duì)西方發(fā)動(dòng)第一次核打擊。美國(guó)和中國(guó)在有關(guān)自主武器的各種會(huì)談中提出了這個(gè)問(wèn)題,許多人表示,這可能會(huì)給俄羅斯帶來(lái)壓力,迫使其改變戰(zhàn)略。監(jiān)管系統(tǒng) 卡倫伯恩說(shuō),不幸的是,任何使用法律的禁令都很難通過(guò)檢查和觀察來(lái)執(zhí)行——這是其他受管制武器常用的經(jīng)典“信任但核實(shí)”方法。 以核武器為例,有一套完善的核材料現(xiàn)場(chǎng)檢查和審計(jì)系統(tǒng)。但有了人工智能,事情更容易隱藏或改變。“這可能很簡(jiǎn)單,只需更改幾行代碼,就可以說(shuō),好了,現(xiàn)在機(jī)器可以決定放大這個(gè)了?;蛘?,你知道,去掉代碼,然后在軍控核查人員在場(chǎng)時(shí)再插回去?!笨▊惒髡f(shuō)?!斑@要求我們重新思考我們?nèi)绾慰创淦飨到y(tǒng)和軍備控制中的核查問(wèn)題?!? 卡倫伯恩說(shuō),檢查可能不得不從生產(chǎn)時(shí)轉(zhuǎn)向事后。“這些東西會(huì)被擊落的。他們會(huì)被抓的。這意味著你可以進(jìn)行檢查并查看代碼。 所有這些問(wèn)題都將納入今年9月聯(lián)合國(guó)大會(huì)開(kāi)始的討論中;奧地利也在4月底召開(kāi)了一次前兆會(huì)議,以幫助啟動(dòng)這些對(duì)話。多切蒂說(shuō),如果有足夠多的國(guó)家投票決定在9月采取行動(dòng),那么聯(lián)合國(guó)可能會(huì)成立一個(gè)工作組來(lái)解決這些問(wèn)題。 在聯(lián)合國(guó)2017年禁止核武器條約的談判中發(fā)揮了關(guān)鍵作用的多切蒂補(bǔ)充說(shuō),條約可能在三年內(nèi)達(dá)成?!案鶕?jù)我的經(jīng)驗(yàn),談判一旦開(kāi)始,進(jìn)展會(huì)相對(duì)較快?!?a href="https:///10.1038/d41586-024-01029-0">https:///10.1038/d41586-024-01029-0參考 1.羅素,S. Nature 614,620–623(2023年)。 文章 PubMed 谷歌學(xué)術(shù) 2.軒轅洛尹,碩士和布蘭查德,理科碩士。英語(yǔ)。倫理學(xué)28,37(2022)。 文章 PubMed 谷歌學(xué)術(shù) 3《游蕩彈藥和不可預(yù)測(cè)性》(2023年)。 4.David,s . https:///10.1101/2023.09.03.556099生物研究所的預(yù)印本(2023年)。 5.蘇,瓦格斯,D. V .和櫻井,電氣與電子工程師學(xué)會(huì)譯。伊沃。計(jì)算機(jī)。23, 828–841 (2019). 文章 谷歌學(xué)術(shù) 6.Topychkanov,p .在《人工智能對(duì)戰(zhàn)略穩(wěn)定和核風(fēng)險(xiǎn)的影響:第一卷歐洲-大西洋視角》中。弗吉尼亞州布蘭寧。8(斯德哥爾摩國(guó)際和平研究所,2019年)。 谷歌學(xué)校 |
|