一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

人工智能倫理學的一知半解

 DuerOS布道師 2021-04-29

讀MBA時候的授業(yè)導師是周教授,周教授有一門頗受學生們歡迎的課程是“企業(yè)倫理學”。時隔多年,課本的內(nèi)容已經(jīng)還給了學校,但周老師課上的一些話還隱約記得。

倫理學是關(guān)于道德問題的科學,是將道德思想觀點的系統(tǒng)化和理論化。解決的基本問題只有一個,就是道德和利益的關(guān)系問題。對這一基本問題的答案決定著各種道德體系的原則,也決定著各種道德活動的評判標準。

由人組成的組織在進行經(jīng)營活動時,在本質(zhì)上始終存在著倫理問題。所以,企業(yè)倫理是企業(yè)經(jīng)營本身的倫理。

AI倫理的提出

在國內(nèi),明確提出AI倫理原則的人可能是百度的創(chuàng)始人李彥宏。2018年5月26日,他在貴陽大數(shù)據(jù)博覽會上指出,所有的AI產(chǎn)品、技術(shù)都要有大家共同遵循的理念和規(guī)則:

  1. AI 的最高原則是安全可控;

  2. AI 的創(chuàng)新愿景是促進人類更加平等地獲得技術(shù)能力;

  3. AI 存在的價值是教人學習,讓人成長,而不是取代人、超越人;

AI的終極理想是為人類帶來更多的自由和可能。

同樣是2018年,微軟發(fā)表了《未來計算》(The Future Computed)一書,其中提出了開發(fā)人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。

首先是公平性,是指不同區(qū)域的人、不同等級的人在AI面前是平等的,不應該有人被歧視。

第二是可靠性和安全性,指的是人工智能使用起來是安全、可靠、不作惡的。

第三是隱私和保障,因為涉及到數(shù)據(jù),所以總是會引起個人隱私和數(shù)據(jù)安全方面的問題。

第四是必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。

第五是透明度。在過去,人工智能領(lǐng)域突飛猛進最重要的一個技術(shù)就是深度學習,深度學習模型的準確度是幾乎所有機器學習模型中最高的,但在這里存在一個是否透明的問題。透明度和準確度無法兼得,只能在二者權(quán)衡取舍,如果準確度更高,可能要犧牲一定的透明度。

第六是問責。問責制是一個非常有爭議的話題,涉及到一個法律或者立法的問題。如果是機器代替人來進行決策、采取行動出現(xiàn)了不好的結(jié)果,到底是誰來負責?不能讓機器或者人工智能系統(tǒng)當替罪羊,人必須是承擔責任的。

實際上,大約在1950年,科幻作家阿西莫夫就提出了 “機器人三定律”:

第一,不傷害定律:機器人不得傷害人類,也不得見人受到傷害而袖手旁觀。

第二,服從定律:機器人必須服從人的命令,但不得違反第一定律。

第三,自保定律:機器人必須保護自己,但不得違反一、二定律。

這三條定律在制造機器人的伊始便被嵌入其大腦,永遠無法消除。

這些都涉及了一定的倫理問題, 都還都是些概要性原則,較完善地提出AI 倫理與價值的可能是阿西洛馬人工智能原則了。

阿西洛馬人工智能原則

2017年1月初舉行的“Beneficial AI”會議,在此基礎上建立起來的“阿西洛馬人工智能原則”,名稱來自此次會議的地點——美國加州的阿西洛馬(Asilomar)市,旨在確保AI為人類利益服務。

西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價值: 

6) 安全性:人工智能系統(tǒng)在它們整個運行過程中應該是安全和可靠的,而且其可應用性的和可行性應當接受驗證。

7) 故障透明性:如果一個人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。

8)司法透明性:任何自動系統(tǒng)參與的司法判決都應提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。

9)責任:高級人工智能系統(tǒng)的設計者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責任和機會去塑造那些道德影響。

10)價值歸屬:高度自主的人工智能系統(tǒng)的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。

11)人類價值觀:人工智能系統(tǒng)應該被設計和操作,以使其和人類尊嚴、權(quán)力、自由和文化多樣性的理想相一致。

12)個人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時,人們應該擁有權(quán)力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù)。

13)自由和隱私:人工智能在個人數(shù)據(jù)上的應用不能充許無理由地剝奪人們真實的或人們能感受到的自由。

14)分享利益:人工智能科技應該惠及和服務盡可能多的人。

15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟繁榮應該被廣泛地分享,惠及全人類。

16)人類控制:人類應該來選擇如何和決定是否讓人工智能系統(tǒng)去完成人類選擇的目標。

17)非顛覆:高級人工智能被授予的權(quán)力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。

18)人工智能軍備競賽:致命的自動化武器的裝備競賽應該被避免。

共有23條準則,旨在確保人類在新技術(shù)出現(xiàn)時能順利規(guī)避其潛在的風險,其突出核心成員有Stephen Hawking和Elon Musk。這個組織專注于由新技術(shù)和問題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。

AI 倫理學?

實際上,很多倫理問題連人類自身都沒有解決,由人類定義的倫理邏輯是否存在漏洞呢?微不足道的漏洞,在人工智能發(fā)展到一定程度后卻可能成為壓倒整個倫理系統(tǒng)的稻草。

對于功利主義者而言,“以人類為中心”將是發(fā)展人工智能的重要倫理依據(jù):必要的領(lǐng)域應該限制機器的智能超過人類的智能,即使將來某一天超過了,掌握權(quán)還要在人類的手中。但是這種“物我兩分”的價值觀,本質(zhì)上是一種“主奴思想”。在人工智能可能超過人類的語境下,可能并不是最好的解決方案。倘若人類真的要在人工智能這條路上走下去,將倫理的判斷完全掌握在人類手中或是全權(quán)交給“更智慧”的人工智能都是不可行的;將人類自身與人工智能放到統(tǒng)一的維度去審視,方能產(chǎn)生一個相較而言最為完善的人工智能倫理關(guān)系。

另外,妥善處理人工智能與人類之間可能產(chǎn)生的情感與羈絆,也是人工智能倫理研究的重要一環(huán)。

在國外,MIT媒體實驗室(MIT Media Lab)和哈佛大學伯克曼克萊恩互聯(lián)網(wǎng)及社會研究中心(Berkman Klein Center)共同成為了“人工智能倫理和監(jiān)管基金”的管理機構(gòu),用于解決人工智能所帶來的人文及道德問題。

現(xiàn)在,人工智能技術(shù)在我們生活的各個方面都變得越來越有用。它們存在于我們的智能手機、社交網(wǎng)絡、家庭智能音箱、私人交通工具ーー只要你能想到的,就有人工智能在某處工作。就像任何新興的技術(shù)一樣,需要充分利用這些AI技術(shù); 同時確保人工智能在道德和收益上有益于所有人。

人工智能倫理學可能會發(fā)展成一門學科,可能要解決以下的一些問題:

  • 人性: 機器如何影響人們的行為和互動?

  • 不平等: 人們?nèi)绾畏峙錂C器創(chuàng)造的財富?

  • 失業(yè): 人們在沒有工作后會發(fā)生什么?

  • 安全: 人們?nèi)绾伪WoAI不受敵人侵擾?

  • ......

在建立AI體系時需要考慮的一些倫理要點

現(xiàn)在,可能需要企業(yè)和政府介入并幫助解決這些問題,確定指導行業(yè)內(nèi)的AI倫理原則,最終幫助確保AI技術(shù)的安全性和可持續(xù)性,能夠發(fā)揮AI 的潛力。

在建立AI倫理和AI經(jīng)濟時需要考慮的五個要點——

1: 引入人工智能的公司治理和道德框架

對于支持AI倫理的人工智能經(jīng)濟而言,第一步是制定關(guān)鍵原則,以維護該技術(shù)的道德使用。企業(yè)應起草或修訂企業(yè)政策,納入新技術(shù)的道德使用立場,概述其業(yè)務模式所特有的問責措施。公司還需在組織的各個層面建立明確的期望,使AI倫理成為整個公司討論中的一部分,從董事會會議和員工績效評估,到非正式管理和員工簽到。

在政府層面,官員應該注意監(jiān)管機構(gòu)在指導實施AI倫理方面的作用。決策者應直接與行業(yè)專家合作,熟悉人工智能的技術(shù)構(gòu)成、潛在的安全風險和現(xiàn)實世界的應用程序,然后再啟動正式的調(diào)研方案。

2: 揭開人工智能的神秘面紗和關(guān)于其責任的問題

為了揭開人工智能的神秘面紗和圍繞問責制,企業(yè)應該首先承認實施該技術(shù)的任何潛在風險,并制定在部署之前和使用之后進行AI測試的戰(zhàn)略。在制定這些策略時,公司應該與外部專家一起探討人工智能的問責制如何適用于特定的企業(yè)目標和客戶需求。

政府官員應該認識到在采取措施促進問責制和允許人工智能創(chuàng)新之間的動態(tài)平衡。找到這種平衡將有助于保持技術(shù)及其用戶的誠實和透明度,因為新政策仍在制定之中。

3: 建立人們對企業(yè)人工智能的信任

作為一個企業(yè),在使用人工智能時,必須盡可能保持透明。在向利益相關(guān)者介紹這一想法時,企業(yè)必須分享技術(shù)的預期目的以及認為在他們的組織中采用這一想法的重要原因。商業(yè)領(lǐng)袖需要通過制定培訓和認證方案,明確界定使用人工智能的標準,并應公開說明為界定這些最佳實踐而采取的措施,特別是為檢驗技術(shù)缺陷而采取的任何步驟。

政府可以通過尋找機會,讓公眾參與正在進行的討論,解決民眾關(guān)注的問題,并介紹今后的考慮因素,從而建立對企業(yè)AI的信任。此外,通過政府來提高民眾的認識,政府可以努力減少公眾對于在工作和日常生活中使用AI的某些抑制。

4: 將人工智能引入勞動力隊伍

為了鼓勵將人工智能納入勞動力隊伍,企業(yè)應投資于對自動化技術(shù)相互作用的工作人員進行再培訓。為了最大限度地利用這種培訓,公司可以給人力資源部門提供未來技能需求所需的數(shù)據(jù),這樣他們就能準確地知道什么樣的工具可以武裝當前和未來的員工隊伍,從而取得成功。

5: 需要為年輕學生制定數(shù)字教育方案

最后,企業(yè)和政府都應該支持針對年輕學生的AI教育項目,幫助確保下一代人能夠運用人工智能,理解更廣泛的倫理問題。在一個理想的世界里,學生完成教育后,預測圍繞人工智能技術(shù)的使用的道德框架和原則,他們將理解問責制,并反過來期望公司具有透明度。只要企業(yè)、政府和行業(yè)參與者共同努力,為AI倫理奠定適當?shù)幕A,這一切就可以實現(xiàn)。

AI倫理學,可能還處于一知半解的狀態(tài)里,都在路上。

參考資料:

  • 周衛(wèi)中. 企業(yè)社會責任的五大認識誤區(qū)[J]. 企業(yè)管理(5):102-104.

  • 王景峰, 周衛(wèi)中, WANGJing-feng, et al. 偽社會責任的界定與形式轉(zhuǎn)化研究[J]. 技術(shù)經(jīng)濟與管理研究, 2015(7):57-61.

  • How Enterprises Can Help Build Ethical AI Strategies By: Chris Preimesberger, eWEEK | October 08, 2018

  • Michael Irving, 陳亮. 阿西洛馬23原則使AI更安全和道德[J]. 機器人產(chǎn)業(yè), 13(2):14-17.

  • 阿西洛馬人工智能原則——馬斯克、戴米斯·哈薩比斯等確認的23個原則,將使AI更安全和道德[J]. 智能機器人(1):28-29.

  • 張雪嬌. 阿西莫夫?qū)C器人世界的倫理凝視[D]. 華中師范大學, 2015.

  • 杜靜, 黃榮懷, 李政璇, et al. 智能教育時代下人工智能倫理的內(nèi)涵與建構(gòu)原則[J]. 電化教育研究, 2019(7).

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    国产级别精品一区二区视频| 成人日韩在线播放视频| 国产又猛又大又长又粗| 狠狠做五月深爱婷婷综合| 亚洲欧美日韩熟女第一页| 国产精品不卡免费视频| 欧美高潮喷吹一区二区| 亚洲av秘片一区二区三区| 日韩黄片大全免费在线看| 丝袜av一区二区三区四区五区| 免费性欧美重口味黄色| 亚洲中文字幕在线观看黑人| 亚洲熟妇中文字幕五十路| 国产精品欧美日韩中文字幕| 日本男人女人干逼视频| 亚洲一区二区久久观看| 国产一区二区三区av在线| 亚洲精品国产第一区二区多人| 黄片免费播放一区二区| 超薄肉色丝袜脚一区二区| 国产精品激情对白一区二区| 欧美日韩综合在线第一页| 欧美日韩综合在线第一页| 日韩国产欧美中文字幕| 色好吊视频这里只有精| 国内精品偷拍视频久久| 午夜福利大片亚洲一区| 亚洲视频一区二区久久久| 黄色片一区二区在线观看| 亚洲精品av少妇在线观看| 久草视频在线视频在线观看| 国产午夜福利在线观看精品| 婷婷激情四射在线观看视频| 四季精品人妻av一区二区三区 | 午夜精品一区免费视频| 激情图日韩精品中文字幕| 欧美整片精品日韩综合| 日韩在线视频精品中文字幕| 欧美激情中文字幕综合八区| 欧美日韩亚洲巨色人妻| 日韩国产精品激情一区|