胡建華, 葉麗霞 (江西理工大學(xué)應(yīng)急管理與安全工程學(xué)院,江西 贛州 341000) 受知識的局限,傳統(tǒng)經(jīng)驗(yàn)難以預(yù)測未知風(fēng)險(xiǎn)的到來,尤其是隨著知識深度和廣度的拓展及科學(xué)技術(shù)的飛速發(fā)展,社會風(fēng)險(xiǎn)全面迅速增長。人類用以往的思維模式和措施去應(yīng)對和治理風(fēng)險(xiǎn),這些措施又反過來形成新的風(fēng)險(xiǎn),風(fēng)險(xiǎn)社會由此形成。烏爾里?!へ惪颂岢觯陲L(fēng)險(xiǎn)面前,科學(xué)負(fù)責(zé)“確定風(fēng)險(xiǎn)”,而人們依賴“感知風(fēng)險(xiǎn)”,這就導(dǎo)致了風(fēng)險(xiǎn)的科學(xué)界定與公眾感受之間存在巨大偏差[1]。現(xiàn)代社會中,人們通過科學(xué)人為地界定了很多“標(biāo)準(zhǔn)”,自然災(zāi)害有風(fēng)險(xiǎn)等級,人為事故有傷害程度,也正是因?yàn)檫@些風(fēng)險(xiǎn)標(biāo)準(zhǔn)降低了人類對風(fēng)險(xiǎn)的敏感度。人類以科學(xué)界定風(fēng)險(xiǎn),其實(shí)科學(xué)本身也會帶來風(fēng)險(xiǎn),在現(xiàn)代化風(fēng)險(xiǎn)社會里,科學(xué)帶來的風(fēng)險(xiǎn)也亟須關(guān)注。 21世紀(jì)以來,人類步入一個互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能共同發(fā)展的時(shí)代,人工智能技術(shù)的迅猛發(fā)展引起了社會的廣泛關(guān)注。人工智能作為新一代信息技術(shù),風(fēng)險(xiǎn)與收益并存,目前多以智能軟件和智能機(jī)器的形式存在于人類的生產(chǎn)生活中。人工智能為社會經(jīng)濟(jì)轉(zhuǎn)型升級提供了技術(shù)支撐,培育了新的創(chuàng)業(yè)創(chuàng)新機(jī)會,給人類生活帶來了極大的便利,但是對于人工智能這種新興技術(shù),如果不加以引導(dǎo)和規(guī)范,任其野蠻生長,可能會破壞社會穩(wěn)定,成為風(fēng)險(xiǎn)社會的重大隱患。因此,人工智能發(fā)展中已存在或未來可能出現(xiàn)的問題,迫切需要我們在風(fēng)險(xiǎn)治理的過程中加以重視、引導(dǎo)和規(guī)范。 一、人工智能治理的基本內(nèi)涵人工智能概念的出現(xiàn)最早可以追溯到1950年圖靈在《機(jī)器能思考嗎?》中提到的“圖靈測試”,該測試為測試機(jī)器是否擁有智能提供了一種方法。圖靈作為計(jì)算機(jī)科學(xué)與人工智能之父,最早提出了他所理解的人工智能:如果一個機(jī)器在隔壁和人對話,這個人無法分辨他是機(jī)器還是人的時(shí)候,它就是人工智能。在1956年美國的達(dá)特茅斯會議上,麥卡錫首次提出人工智能概念,從此,人工智能成為一個專業(yè)術(shù)語出現(xiàn)在計(jì)算機(jī)等領(lǐng)域。麥卡錫認(rèn)為人工智能就是要讓機(jī)器的行為看起來就像是人所表現(xiàn)出的智能行為一樣。其實(shí),人工智能是計(jì)算機(jī)科學(xué)與自然科學(xué)、社會科學(xué)的交叉學(xué)科,它是在數(shù)據(jù)計(jì)算的基礎(chǔ)上研究如何使機(jī)器模擬、擁有甚至超越人的智能的、通過機(jī)器人等形態(tài)體現(xiàn)出來的一種科學(xué)技術(shù)。人工智能能夠在各種復(fù)雜條件下完成人類甚至人類無法完成的任務(wù),目的在于滿足人類對于更先進(jìn)的生產(chǎn)和生活的需求。 人工智能技術(shù)的不斷突破和應(yīng)用領(lǐng)域的不斷拓展,使人工智能治理逐漸成為一個研究熱點(diǎn),人們在使用人工智能的同時(shí)會思考其帶來的一些影響,我們必須做好應(yīng)對的準(zhǔn)備。對于人工智能治理的理解,學(xué)術(shù)界還有一定的爭議,有能力說、過程說和方法說,但基本問題比較一致,那就是如何規(guī)范人工智能的發(fā)展,使其符合人類社會的預(yù)期。陳偉光認(rèn)為人工智能治理是對人工智能研究、開發(fā)、生產(chǎn)和運(yùn)用過程中可能會出現(xiàn)的公共安全、道德倫理等問題進(jìn)行協(xié)調(diào)、處理、監(jiān)管和規(guī)范的過程[2]。而汪亞菲等認(rèn)為人工智能治理的核心是如何規(guī)制算法問題[3]。算法、安全、倫理、法律等問題是學(xué)者們特別關(guān)注的方面,人工智能治理的目標(biāo)是引導(dǎo)和規(guī)范人工智能的技術(shù)方向,使其能夠健康穩(wěn)定發(fā)展,規(guī)避未來風(fēng)險(xiǎn),促進(jìn)人類經(jīng)濟(jì)社會穩(wěn)步向前。因此,所謂人工智能治理,就是指通過政策、法律法規(guī)等方式,對人工智能技術(shù)及因人工智能發(fā)展而可能對社會秩序、倫理道德、價(jià)值觀念和法律規(guī)則等產(chǎn)生沖擊而形成的規(guī)制和管理。總體而言,人工智能治理主要涉及以下兩個方面的內(nèi)容。 第一,對人工智能技術(shù)的治理,保障人工智能技術(shù)系統(tǒng)安全、可控。目前人工智能按其應(yīng)用可以分為三個階段:一是弱人工智能階段,指機(jī)器人只具備某項(xiàng)特定的認(rèn)知和用途,如語音識別、人工智能翻譯、掃地機(jī)器人等。雖然其用途單一,但是這一領(lǐng)域的發(fā)展最為迅猛,近年來已有大量弱人工智能機(jī)器人進(jìn)入市場。二是強(qiáng)人工智能階段,指具備人類認(rèn)知水平的人工智能,能在同一系統(tǒng)內(nèi)執(zhí)行多個認(rèn)知操作,目前這一階段的研究還未取得較好的進(jìn)展。三是超級機(jī)器人階段,它的特征就是完全超越人類的認(rèn)知,全方位強(qiáng)于人類。人類對機(jī)器人是否會毀滅人類的擔(dān)心也來源于此。人們對于機(jī)器人的爭論正是因?yàn)榭萍妓幍碾A段與思想所處的階段不一致。技術(shù)是人工智能發(fā)展的基礎(chǔ),技術(shù)治理與管控的基本目標(biāo)是保證系統(tǒng)安全可控。對此我國和世界上很多國家都已經(jīng)出臺了許多相關(guān)戰(zhàn)略和規(guī)劃,確保人工智能初始設(shè)計(jì)階段就要在技術(shù)上嚴(yán)格把關(guān),保證人工智能安全、可控。 第二,對人工智能產(chǎn)生的社會影響的治理。人工智能影響的對象是整個人類,所以針對人工智能的治理應(yīng)該以人為本,確保人類的利益和主體地位。人工智能的社會影響問題主要是人的價(jià)值問題,尤其是人工智能的出現(xiàn)對人的政治和經(jīng)濟(jì)主體地位的挑戰(zhàn),表現(xiàn)在未來如何實(shí)現(xiàn)人機(jī)共處;人工智能的濫用也會帶來人與機(jī)器之間的法律責(zé)任問題,人工智能的法律地位與責(zé)任如何確定;怎樣確保人類在人工智能的發(fā)展過程中的主體地位。人工智能的倫理治理目標(biāo)是要先確保人類的安全,機(jī)器不會取代、控制和傷害人類,以及機(jī)器如何遵循人類已有的道德和價(jià)值體系等[4]。尤其是近年來,人工智能的革新在大數(shù)據(jù)和互聯(lián)網(wǎng)的加持下更加突飛猛進(jìn),人們對未來超級人工智能潛在風(fēng)險(xiǎn)的擔(dān)憂和恐懼不斷加深,要求政府治理人工智能帶來的社會影響的呼聲越來越高。 二、人工智能發(fā)展帶來的風(fēng)險(xiǎn)挑戰(zhàn)人工智能走進(jìn)了每個人的生活,尤其是許多由人類才能勝任的復(fù)雜工作和那些人類無法承受、無法勝任的工作領(lǐng)域,人工智能機(jī)器扮演越來越重要的角色。越來越多的人意識到人工智能的發(fā)展隨著人們對它的依賴程度不斷取得新的突破[5]??萍及l(fā)展帶來社會紅利的同時(shí)也給治理帶來了巨大挑戰(zhàn),我國已有超過三分之二的人口進(jìn)入智能網(wǎng)絡(luò)空間,形成了巨大的治理場域。目前人工智能的發(fā)展給人類帶來的挑戰(zhàn)主要集中在技術(shù)、倫理、社會、安全和法律五個方面。 (一)技術(shù)風(fēng)險(xiǎn)人工智能技術(shù)并非十全十美,人工智能的技術(shù)風(fēng)險(xiǎn)主要表現(xiàn)在三個方面:一是技術(shù)失控度引起人類的擔(dān)憂。隨著技術(shù)發(fā)展到一定程度,擁有思想可能不再是人類的專利,當(dāng)人工智能學(xué)習(xí)能力不斷延伸,獲得超越人類的能力時(shí),其可能會對人類的生存造成威脅,甚至取代人類[6]。這種風(fēng)險(xiǎn)假設(shè)機(jī)器和人類一樣擁有了自主意識、創(chuàng)造性、情感和自我保護(hù)行為,那么人類在其面前將會毫無還手之力。二是人工智能技術(shù)缺陷導(dǎo)致的隱患。未來人工智能產(chǎn)品將會根據(jù)數(shù)據(jù)和算法自主進(jìn)行學(xué)習(xí),在得到計(jì)算結(jié)果之后實(shí)施行動,但沒有人能保證在這個過程中不存在數(shù)據(jù)缺少或者紕漏,所以其依據(jù)計(jì)算結(jié)果的行動有可能會給人類的生命、財(cái)產(chǎn)帶來損害。三是科學(xué)技術(shù)是由人創(chuàng)造出來的,則必然有其不足之處。人類是一個有自我意識的個體,其行為具有主觀性,算法或者智能軟件被設(shè)計(jì)出來就是為了達(dá)到設(shè)計(jì)者的初衷,而且人們不能要求一個技術(shù)人員在進(jìn)行技術(shù)設(shè)計(jì)的時(shí)候放棄自己的偏好和情感,這也是未來科學(xué)技術(shù)要面臨的一大難點(diǎn)。 與此同時(shí),在治理過程中存在一些技術(shù)困難。一是人工智能技術(shù)本身沒有統(tǒng)一的原理或范式指導(dǎo)人工智能研究,在很多問題上研究者都存在爭論。并且技術(shù)更新?lián)Q代速度迅猛,政府難以制定統(tǒng)一制度去規(guī)范人工智能研究。目前人工智能開發(fā)者眾多且沒有統(tǒng)一的組織,生產(chǎn)人工智能產(chǎn)品的企業(yè)規(guī)模大小不一,難以保證流入市場的產(chǎn)品質(zhì)量。二是各國政府非常關(guān)注人工智能的發(fā)展,也注重社會信息的收集,但是人工智能正處于快速發(fā)展時(shí)期,信息更新的速度快、頻率高,各國對信息的采集多是事后采集,對人工智能了解和認(rèn)識的準(zhǔn)確性、實(shí)時(shí)性還有待加強(qiáng)。三是人工智能技術(shù)在社會發(fā)展中風(fēng)起云涌,屬于自然科學(xué)、社會科學(xué)、技術(shù)科學(xué)交叉學(xué)科,涉及知識面廣,掌握這一技術(shù)的要求較高。當(dāng)前,信息技術(shù)在任何領(lǐng)域都起著非常重要的作用,信息的處理能力直接決定著組織的運(yùn)行效率和成本,但我國相關(guān)人才缺口較大。 (二)倫理風(fēng)險(xiǎn)倫理是指人應(yīng)該遵守的行為規(guī)范和道德準(zhǔn)則,而人工智能面臨的倫理挑戰(zhàn)則是指如何處理好人和人工智能產(chǎn)品之間產(chǎn)生的各種關(guān)系。倫理主要關(guān)心的是在某個情況下某件事情正確與否,倫理是人類普遍具備的能力,但是人工智能并不會充分理解倫理。倫理風(fēng)險(xiǎn)主要體現(xiàn)在:一是是否承認(rèn)人工智能的行為,人類在不同的事情中可能會犯錯,如果人工智能也這樣,人類能接受嗎?比如機(jī)器人致害事件如何歸責(zé)等倫理挑戰(zhàn)問題,在人類自身遇到都無法解決的問題情況下,如何讓智能機(jī)器人去選擇[7],其做出的選擇又由誰來負(fù)責(zé)?又比如智能機(jī)器人在手術(shù)上操作失敗,醫(yī)療事故責(zé)任又將落在何處?二是人工智能是否要遵守人類道德,隨著科學(xué)技術(shù)的發(fā)展,人工智能通過深度學(xué)習(xí)會發(fā)現(xiàn)隱含的價(jià)值觀和原則,因而可以理解甚至很可能模仿。當(dāng)人工智能的計(jì)算學(xué)習(xí)能力遠(yuǎn)超人類時(shí),它可以在人類生產(chǎn)生活的各個方面各個階段為人類提供建議,人類如何去判斷人工智能的建議正確與否,人類該不該信任它們?這個時(shí)候人工智能是否需要人類道德規(guī)范,人工智能應(yīng)載入誰的道德規(guī)范,又該怎樣實(shí)現(xiàn)?三是當(dāng)人工智能達(dá)到了人機(jī)共生的技術(shù)時(shí),人們該如何對待這些超越人類智力的仿生機(jī)器人,是否應(yīng)該賦予它們一些權(quán)利?這些已經(jīng)發(fā)生或即將發(fā)生的倫理問題都是人們爭論不休的焦點(diǎn),是需要解決的現(xiàn)實(shí)挑戰(zhàn),也是人工智能治理成功與否的關(guān)鍵。 (三)社會風(fēng)險(xiǎn)人工智能衍生出來的一系列產(chǎn)業(yè)創(chuàng)新、經(jīng)濟(jì)轉(zhuǎn)型無疑為各國經(jīng)濟(jì)快速健康發(fā)展作出了重大貢獻(xiàn)。人工智能具有提高生產(chǎn)力的巨大潛力,最明顯的是,它可以幫助公司和人們更有效地利用資源,并簡化人類與大量數(shù)據(jù)交互的方式,它還可以啟用全新的業(yè)務(wù)模型和解決舊問題的新方法。當(dāng)然,人工智能在帶來發(fā)展機(jī)遇的同時(shí),也帶來了金融風(fēng)險(xiǎn)、行業(yè)壟斷、勞務(wù)就業(yè)等負(fù)外部效應(yīng),這些負(fù)外部效應(yīng)容易引發(fā)社會風(fēng)險(xiǎn)危機(jī)。一是人工智能一旦介入高風(fēng)險(xiǎn)的金融領(lǐng)域,其背后的大數(shù)據(jù)信息很有可能會導(dǎo)致雪崩似的金融災(zāi)難。在全球市場,擁有人工智能先進(jìn)技術(shù)的企業(yè)為數(shù)不多,極有可能形成技術(shù)壟斷態(tài)勢,他們生產(chǎn)的人工智能及其產(chǎn)品可能會在短時(shí)間內(nèi),導(dǎo)致其他行業(yè)的破產(chǎn)或消失。二是機(jī)器替人的現(xiàn)象將越來越普遍,目前人工智能帶來的就業(yè)沖擊仍小于經(jīng)濟(jì)周期和行業(yè)景氣帶來的影響,但從長遠(yuǎn)來看,人工智能的發(fā)展可能帶來產(chǎn)業(yè)結(jié)構(gòu)的巨變。已經(jīng)有相關(guān)學(xué)者研究計(jì)算出各行各業(yè)將被人工智能替代的年份,這加劇了人們對人工智能的擔(dān)憂。三是人工智能的發(fā)展可能會加重各國尤為重視的人口失業(yè)問題,大量工廠機(jī)器人的開發(fā)與應(yīng)用,大量單一、重復(fù)的工作被人工智能所取代,如亞馬遜的快遞機(jī)器人和我國的無人超市。智能革命對就業(yè)的最大沖擊在于,它不僅僅取代體力勞動者,對腦力勞動者也會造成沖擊[8]。在新一代信息化、智能化技術(shù)的推動下,人工智能技術(shù)逐漸應(yīng)用于需要高學(xué)歷及高智商的新聞、金融、醫(yī)療、教育、科研等領(lǐng)域,在其迅猛的發(fā)展中,如果國家和社會并沒有做好相應(yīng)的預(yù)防治理措施,可能會導(dǎo)致較多社會問題的爆發(fā),破壞正常的生產(chǎn)生活秩序。 (四)安全風(fēng)險(xiǎn)在對人工智能及其治理的研究中,大部分學(xué)者持樂觀謹(jǐn)慎的態(tài)度看待人工智能的發(fā)展,也有部分學(xué)者認(rèn)為人工智能會給人類帶來許多威脅,比如引發(fā)世界大戰(zhàn)甚至毀滅人類,這種觀點(diǎn)顯然過于悲觀,但結(jié)合現(xiàn)實(shí)卻也有其合理之處。人工智能治理面臨的安全風(fēng)險(xiǎn)確實(shí)包含諸多方面,如數(shù)據(jù)安全、國防安全、社會安全等。人工智能基于大數(shù)據(jù)進(jìn)行算法操作,因此存在泄露個人隱私、國家機(jī)密等安全風(fēng)險(xiǎn),如經(jīng)常發(fā)生的用戶數(shù)據(jù)被竊取、軍用人工智能武器的線路被入侵等。另外,網(wǎng)絡(luò)信息安全威脅加劇,網(wǎng)絡(luò)攻擊形勢將更加嚴(yán)峻,使人工智能的安全問題更加突出,人工智能的大數(shù)據(jù)分析能力一定程度上加劇了數(shù)據(jù)安全問題。人工智能運(yùn)行的算法本身就是建立在數(shù)據(jù)的收集和分析之上,就像現(xiàn)在利用爬蟲技術(shù)收集信息進(jìn)行新聞推送,或者各種視頻軟件在媒體預(yù)設(shè)的框架內(nèi)辨別用戶的喜好進(jìn)行短視頻推送[9]。個人信息在智能時(shí)代早已不是秘密,每人每天幾乎都能收到垃圾短信或者垃圾電話,手機(jī)上的智能軟件在與人類進(jìn)行信息交互時(shí),或多或少都會導(dǎo)致個人隱私外泄。人工智能所帶來的安全問題是至關(guān)重要的,其所帶來的不僅僅是用戶個人的信息安全問題,國家也有可能面臨政治和軍事安全威脅,人工智能的安全風(fēng)險(xiǎn)可能會給人類社會的和諧穩(wěn)定帶來災(zāi)難,人工智能時(shí)代的風(fēng)險(xiǎn)治理迫切需要重視人工智能的發(fā)展并提出治理措施。 (五)法律風(fēng)險(xiǎn)21世紀(jì)以來人工智能技術(shù)的迅猛發(fā)展,極大地沖擊了現(xiàn)有法律體系和社會治理方式,人工智能產(chǎn)品法律主體界定和責(zé)任劃分等方面的法律法規(guī)的滯后性,可能影響相關(guān)產(chǎn)業(yè)發(fā)展,同時(shí)也會帶來巨大的法律風(fēng)險(xiǎn)。一是確責(zé)問題。比如在智能機(jī)器人致害事件中人類能否起訴機(jī)器人?現(xiàn)在各國都在研發(fā)無人駕駛,也產(chǎn)生了一系列法律問題,無人駕駛的汽車與人類駕駛的汽車相撞發(fā)生交通事故,若無人駕駛汽車的駕駛模式無明顯瑕疵,其他參與方均無過錯,事故最終由誰來負(fù)責(zé)?這就產(chǎn)生了法律責(zé)任的劃分與承擔(dān)、對人工智能的法律界定、人工智能能否以人的標(biāo)準(zhǔn)被問責(zé)等問題。從法律上來說,無過錯就無責(zé)任,那么執(zhí)行系統(tǒng)運(yùn)行程序的人工智能如何認(rèn)定責(zé)任便是一個難題。二是法律失效困境。在人工智能時(shí)代,人們是否還有必要參與立法?法律能否保護(hù)人們的權(quán)利?在人工智能的環(huán)境下,每個人的習(xí)慣、性格、偏好等都牢牢掌握在技術(shù)人員的手里,這種情況下為了強(qiáng)調(diào)技術(shù)效率,忽視社會參與和社會公平,將煩瑣的立法程序、立法調(diào)查方式拋棄,普通民眾的需求被等同于抽象的數(shù)字,將失去參與民主的途徑[10]。傳統(tǒng)的法律規(guī)則雖然有著程序復(fù)雜、效率不高等不足,但若是一味地用硬規(guī)則“被民主”,會使法律逐漸失去其權(quán)威性和民主性。三是“知情同意”現(xiàn)象。網(wǎng)絡(luò)服務(wù)者雖然告知了用戶獲取權(quán)利的條款,但是這種條款相當(dāng)于霸王條款,只有讓渡自己信息之后才能獲得相應(yīng)的網(wǎng)絡(luò)服務(wù)。最常見的莫過于下載智能軟件后,如果要進(jìn)入主頁就必須點(diǎn)擊各種授權(quán)條款的“同意”,使個人資料、通訊錄信息被人工智能機(jī)器讀取。那些條款用戶無法選擇,企業(yè)卻可以借助條款合理地規(guī)避法律風(fēng)險(xiǎn),造成格式條款的實(shí)質(zhì)性作用缺失,那么對個人隱私的保護(hù)就流于形式。這些硬性規(guī)則在很大程度上剝奪了人們保護(hù)自己隱私的權(quán)力,破壞了整個社會正常運(yùn)轉(zhuǎn)的民主秩序,引發(fā)法律失信失語現(xiàn)象。 三、人工智能治理的五個維度人工智能時(shí)代的到來,加劇了社會治理的風(fēng)險(xiǎn),對此國家新一代人工智能治理專業(yè)委員會發(fā)布了《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出了人工智能治理的框架和行動指南,強(qiáng)調(diào)了和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理的八條原則[11]。這些治理原則無不是人類在面對如火如荼的人工智能發(fā)展態(tài)勢和對人類命運(yùn)的期待與擔(dān)憂之下,尋求二者平衡的舉措。人工智能的發(fā)展應(yīng)以維護(hù)風(fēng)險(xiǎn)社會的穩(wěn)定和人民的幸福生活為前提,這也是人工智能治理的呼聲日益高漲的原因。人工智能治理涉及每一個人,為實(shí)現(xiàn)負(fù)責(zé)任的人工智能,應(yīng)從不同維度探討風(fēng)險(xiǎn)治理舉措。 (一)技術(shù)維度:優(yōu)化頂層設(shè)計(jì)與技術(shù)控制掌握最先進(jìn)的人工智能技術(shù)無疑擁有了強(qiáng)大的話語權(quán),對此,美國較早提出將人工智能技術(shù)上升到國家戰(zhàn)略層面。我國也非常重視人工智能技術(shù)的發(fā)展應(yīng)用,早在2015年就提出將人工智能納入國家級的優(yōu)先發(fā)展領(lǐng)域,連續(xù)幾年將人工智能的發(fā)展寫入政府工作報(bào)告,推動人工智能與互聯(lián)網(wǎng)、大數(shù)據(jù)的深度融合,成為我國經(jīng)濟(jì)健康穩(wěn)定發(fā)展的新增長點(diǎn)和新動能[12]。對于人工智能的發(fā)展,要明確政府的支持和引導(dǎo)作用,借助國家強(qiáng)制力實(shí)現(xiàn)對其進(jìn)行規(guī)范化引導(dǎo)。 第一,建立起制度化的人工智能設(shè)計(jì)和運(yùn)作機(jī)制及技術(shù)防控措施,推動建立完善統(tǒng)一的行業(yè)準(zhǔn)則。將人工智能的發(fā)展上升到國家戰(zhàn)略層面已是世界各國的共識,政府相關(guān)部門應(yīng)及時(shí)建立與各研究平臺、核心企業(yè)的產(chǎn)學(xué)研合作機(jī)制,制定標(biāo)準(zhǔn)化的人工智能規(guī)范和認(rèn)證體系,確保進(jìn)入市場的是符合生產(chǎn)和使用倫理規(guī)范的人工智能產(chǎn)品。國家可為人工智能治理的跨學(xué)科研究提供資金支持,并且利用人工智能技術(shù)提升自己的社會管理和治理水平,建立人工智能技術(shù)成果推廣體系,打通人工智能與社會之間的聯(lián)系與溝通,加深政府公職人員和普通群眾對人工智能的了解與運(yùn)用。人工智能是人類智慧與利益的結(jié)合,如果說企業(yè)開發(fā)利用人工智能的目的是獲取利益,那么在商業(yè)價(jià)值和數(shù)據(jù)安全、公民隱私之間,如何規(guī)范企業(yè)行為則在很大程度上影響了數(shù)據(jù)隱私安全。政府推動建立完善統(tǒng)一的行業(yè)準(zhǔn)則,加強(qiáng)企業(yè)的社會責(zé)任宣傳,推動人工智能行業(yè)自我凈化和自我規(guī)范。 第二,利用技術(shù)控制和保護(hù)數(shù)據(jù),建立技術(shù)開發(fā)應(yīng)用的監(jiān)管制度。比如,使用輸出擾動法或同態(tài)加密模式解決公民對信息安全的擔(dān)憂。運(yùn)用輸出擾動法在輸出結(jié)果中加入相應(yīng)的干擾,從而避免原始結(jié)果直接輸出;同態(tài)加密是在數(shù)據(jù)處于加密狀態(tài)下,使用密文對數(shù)據(jù)進(jìn)行運(yùn)算后再對結(jié)果進(jìn)行解密從而得到和明文進(jìn)行相同運(yùn)算的結(jié)果,同態(tài)加密是一種最直接有效的數(shù)據(jù)保護(hù)技術(shù)[13]。建立健全人工智能開發(fā)應(yīng)用的監(jiān)管制度,加強(qiáng)開發(fā)者對人工智能自身技術(shù)缺陷的監(jiān)督,規(guī)范開發(fā)者的行為[14],同時(shí)鼓勵公眾在應(yīng)用環(huán)節(jié)的監(jiān)督,預(yù)留應(yīng)急風(fēng)險(xiǎn)方案,減少危機(jī)事件帶來的損失。人非圣賢,如果對于技術(shù)人員沒有相關(guān)規(guī)則約束和監(jiān)督,沒有人能預(yù)料這種強(qiáng)大的人工智能技術(shù)會帶來什么災(zāi)難,所以加強(qiáng)開發(fā)應(yīng)用的監(jiān)管勢在必行。 (二)倫理維度:加強(qiáng)人工智能倫理道德規(guī)范建設(shè)人工智能在未來將深度進(jìn)入人類的生產(chǎn)生活之中,那么人與人工智能是一個什么樣的關(guān)系,人工智能在人類社會中的地位和責(zé)任如何確定,如何保證人的主體地位不受影響?人類的主體地位和自我判斷力要得到很好的保留,人們就必須具備人工智能的知識,了解其運(yùn)作的機(jī)制及優(yōu)缺點(diǎn),以保持相對審慎的態(tài)度對待技術(shù)的沖擊[15]。加快普及人工智能認(rèn)知教育,使人們能夠正確認(rèn)識人工智能,并積極參與到開發(fā)和使用中去,擁有識別正確信息的能力和態(tài)度。 第一,明確人工智能使用責(zé)任的劃分。從更深層次來看,倫理規(guī)范是技術(shù)、法律與其他相關(guān)原則的基礎(chǔ)。人工智能不同于傳統(tǒng)技術(shù),其具有自主學(xué)習(xí)和決策能力,如果責(zé)任劃分不明確,將會出現(xiàn)“機(jī)器替人”的現(xiàn)象,導(dǎo)致多方主體的利益受損。所以應(yīng)當(dāng)加快建立人工智能在設(shè)計(jì)、制造和使用中的歸責(zé)制度,明確人工智能創(chuàng)造者、生產(chǎn)者、使用者和消費(fèi)者之間的權(quán)利和義務(wù),健全相應(yīng)的責(zé)任追究制度,以防在現(xiàn)實(shí)使用中出現(xiàn)互相推諉和技術(shù)依賴風(fēng)險(xiǎn)。在人工智能的未來發(fā)展中必然會出現(xiàn)人工智能為人類做出決策的情況,這并不意味著人類可以放棄自己應(yīng)負(fù)的責(zé)任而歸咎于人工智能,而需要在人與人工智能的合作中重新界定各方利益。 第二,加強(qiáng)自身倫理道德的規(guī)范和教育。人工智能是人類智慧的產(chǎn)物,建立全覆蓋的倫理教育與技術(shù)培訓(xùn)體系,為符合倫理標(biāo)準(zhǔn)的人工智能產(chǎn)品的推廣提供道德和智力保障。首先,可以在學(xué)校的教學(xué)系統(tǒng)中加入倫理教育和人工智能知識普及,學(xué)校的知識普及往往能達(dá)到比較理想的效果。其次,要加強(qiáng)對技術(shù)人員的倫理教育,使其能夠自覺地將人本理念融入人工智能的開發(fā)與選擇中。人都是有主觀能動性的,要加強(qiáng)對技術(shù)人員的倫理道德培訓(xùn),使其樹立正確的世界觀、人生觀、價(jià)值觀。最后,加強(qiáng)對政府公職人員的培訓(xùn)。政府工作人員作為政府推廣人工智能產(chǎn)品的前沿助手,是人工智能推廣的直接動力,因此要使其在知識、道德、態(tài)度等各方面滿足推廣的要求。 (三)法治維度:健全人工智能治理法律法規(guī)相比人工智能的蓬勃發(fā)展,各國關(guān)于人工智能方面的法律法規(guī)制定具有一定的滯后性和不足。因此,各國應(yīng)盡快健全相關(guān)的法律法規(guī),限定人工智能技術(shù)的法律邊界,防止有人扛著“法無禁止即可為”的名號打法律的擦邊球。 第一,健全人工智能數(shù)據(jù)安全的法律法規(guī),推動人工智能有序健康發(fā)展。應(yīng)積極出臺相關(guān)法律法規(guī),重點(diǎn)加強(qiáng)對人工智能技術(shù)涉及的個人隱私、電子商務(wù)、無人駕駛等領(lǐng)域的立法工作,完善促進(jìn)人工智能健康發(fā)展的法律框架。對此,我國頒布和出臺了許多相關(guān)法律,比如《電子商務(wù)法》《個人信息保護(hù)法》《數(shù)據(jù)安全法》等,這幾項(xiàng)法律都曾在全國人大常委會立法規(guī)劃中被列為一類項(xiàng)目,表明人工智能治理的立法工作具有現(xiàn)實(shí)緊迫性。政府部門和監(jiān)管部門也紛紛出臺了相應(yīng)的規(guī)章制度,積極響應(yīng)本領(lǐng)域人工智能的監(jiān)管需要。 第二,規(guī)范人工智能技術(shù)發(fā)展的法律邊界。防止“法無禁止即可為”的濫用,限制一些破壞性的人工智能發(fā)展,比如無人機(jī)、殺人機(jī)器、黑客入侵等,加大對破壞人工智能健康發(fā)展的懲罰力度。健康有序的行業(yè)需要法律的規(guī)范,法律法規(guī)的制定為人工智能技術(shù)的發(fā)展掃除了制度障礙,減少社會的負(fù)面影響。法律法規(guī)的制定原則應(yīng)該包括有序、創(chuàng)新、公平,人工智能是新興技術(shù),其規(guī)制應(yīng)該充分包容創(chuàng)新性的開發(fā)和利用。同時(shí),加強(qiáng)對技術(shù)開發(fā)者、制造者和使用者的法律責(zé)任規(guī)范,明確他們的主體責(zé)任義務(wù)。 (四)共治維度:強(qiáng)化多元主體合作共治構(gòu)建多元主體合作共治的人工智能治理模式,搭建各方主體參與人工智能治理決策的平臺,通過網(wǎng)絡(luò)調(diào)查、民眾傾向性預(yù)測、意見征集等方式,讓不同層次和訴求的主體了解、參與人工智能治理的決策和修訂過程。今天人們要面對的已經(jīng)不是是否接受人工智能的問題,而是如何以科學(xué)理性的方式運(yùn)用人工智能技術(shù)造福人類。人們應(yīng)該提早研究如何應(yīng)對人工智能帶來的各類社會風(fēng)險(xiǎn)問題,人工智能的不同類型、不同行業(yè)甚至不同發(fā)展階段所需要的政策支持、行業(yè)規(guī)范和倫理制約都是不一樣的,這就需要政府、市場和公民等多元主體協(xié)同合作、共同參與,從而構(gòu)建多層次、多樣性的治理模式。對于搭建人工智能治理多方參與模式問題,我國已有相關(guān)實(shí)踐探索,比如2017年我國成立了新一代人工智能發(fā)展規(guī)劃推進(jìn)辦公室,目的是推進(jìn)新一代人工智能發(fā)展規(guī)劃和重大科技項(xiàng)目的組織實(shí)施,各高校、科研院所和企業(yè)專家也組成人工智能相關(guān)委員會,為國家人工智能的部署和實(shí)施提供咨詢,這些措施促進(jìn)了我國人工智能治理的健康發(fā)展。人工智能的發(fā)展應(yīng)該協(xié)同共治,加強(qiáng)不同主體之間的相互協(xié)調(diào),共同推進(jìn)人工智能健康發(fā)展體系。 (五)國際合作維度:加強(qiáng)國際合作,共同構(gòu)建全球人工智能治理體系人工智能治理更重要的一點(diǎn)在于從整體性、全局性的政策層面進(jìn)行全球協(xié)商,對人工智能技術(shù)的發(fā)展節(jié)奏和相關(guān)社會變革做出相應(yīng)的戰(zhàn)略部署。受“經(jīng)濟(jì)全球化”開放性的發(fā)展,人工智能的影響是全球性的,人工智能的進(jìn)步主要由民族國家和跨國企業(yè)推動,人工智能技術(shù)的跨國流動性、社會滲透性很強(qiáng)。人工智能的重要性不言而喻,各國政府都出臺相應(yīng)政策以期在本國范圍內(nèi)促進(jìn)人工智能技術(shù)的快速發(fā)展,但是全球各國的發(fā)展階段、政治制度、經(jīng)濟(jì)發(fā)展程度不同,很難保證人工智能技術(shù)的發(fā)展節(jié)奏和發(fā)展方向一致,加之有些大國為了自身利益采取封鎖人工智能研發(fā)技術(shù)等手段,這既不利于全球技術(shù)創(chuàng)新合作共贏,也不利于共同應(yīng)對人工智能的風(fēng)險(xiǎn)。如何掌握技術(shù)的發(fā)展節(jié)奏和方向,如何制定相關(guān)標(biāo)準(zhǔn),如何搭建共享合作平臺,如何共擔(dān)人工智能風(fēng)險(xiǎn)責(zé)任等問題,都需要各國在平等互助的基礎(chǔ)上加強(qiáng)國際合作,實(shí)現(xiàn)信息共享,共同構(gòu)建全球人工智能治理體系。 |
|