企鵝號 《AI科技大本營》05-04 18:12
作者 | DavidZh 出品 | AI科技大本營(公眾號ID:rgznai100) 風(fēng)口浪尖上的 Facebook 在剛剛結(jié)束的 F8 開發(fā)者大會上宣布,將組建一個專門的 AI 倫理團隊跟公司里各項產(chǎn)品和服務(wù)合作,以此來保證 AI 的公正性。 Facebook 的一位科學(xué)家向 CNBC 確認(rèn)了這一消息,但拒絕透露這個團隊的人數(shù)規(guī)模。 從產(chǎn)品來看,F(xiàn)acebook 決定先從 Messenger 聊天應(yīng)用中的翻譯功能入手。在這個 AI 倫理團隊的協(xié)助和監(jiān)督之下,當(dāng) Messenger 用戶使用這個功能時需要確保根據(jù)用戶發(fā)送的文本或語音翻譯過來的內(nèi)容準(zhǔn)確而公正。 根據(jù)最新數(shù)據(jù),F(xiàn)acebook Messenger 的月度活躍用戶數(shù)已經(jīng)超過 20 億,擁有全世界多樣性最高的用戶群體。他們的語言、文字和文化傳統(tǒng)千差萬別,由 AI 驅(qū)動的翻譯等功能有必要保證其中立性。 這只是今年 3 月劍橋分析公司(Cambridge Analytica)泄露 8700 萬用戶隱私數(shù)據(jù)之后,F(xiàn)acebook 做出一系列調(diào)整中的一部分。 去年,F(xiàn)acebook 內(nèi)部研發(fā)的一個名叫 Fairness Flow 的算法工作流就已經(jīng)整合到 FBLearner Flow 平臺中了,主要作用是更便捷地訓(xùn)練 AI。
實際上,關(guān)于 AI 的倫理問題,至少從去年開始就有大科技公司關(guān)注并采取行動了。 早在 2011 年,微軟、IBM 和多倫多大學(xué)就已經(jīng)意識到 AI 領(lǐng)域非常需要克服偏見之后的公正性(fairness)。從技術(shù)層面解釋,這是因為 AI 中大多數(shù)算法模型的工作方式都是黑盒子,研究人員通常只知道輸入內(nèi)容和輸出的結(jié)果與質(zhì)量,但無法解釋清楚 AI 算法內(nèi)部的工作機制。如果 AI 研究者利用帶有偏見的數(shù)據(jù)集或者在調(diào)整參數(shù)時加入自己的偏見,都有可能導(dǎo)致 AI 輸出結(jié)果的不公正。 為了解決這個問題,2014 年微軟研究院成立了一個名叫 FATE(Fairness Accountability Transparency and Ethics in AI)的項目,旨在增加 AI 的公正、可靠和透明度。這個項目團隊每年會組織一次名為 FAT in ML 的專題討論會,邀請 AI 領(lǐng)域內(nèi)多位資深技術(shù)專家分享新的研究進展,到今年已經(jīng)辦到第五屆。 而 Google 花重金收購來的英國公司 DeepMind 也在 2017 年成立了 DeepMind Ethics & Society 項目,并提出了兩個目標(biāo): 幫助技術(shù)人員踐行道德 幫助社會預(yù)測和指導(dǎo) AI 的影響,讓所有人受益 目前,這個項目組共有四名成員,其中 Julia Angwin 已經(jīng)在犯罪學(xué)領(lǐng)域?qū)λ惴ǖ姆N族偏見(https://www./article/machine-bias-risk-assessments-in-criminal-sentencing)做了十分深入的研究。 盡管如此,Google 內(nèi)部科學(xué)家和研究人員對 AI 的看法仍然觀點不一。一位名叫 Ali Rahimi 的 Google 工程師在今年 4 月底的一次會議上表示,AI 算法通過不斷試錯來提高自己,有點兒像“煉金術(shù)”。 Ali Rahimi 說:“AI 研究領(lǐng)域有極其痛苦的部分,我們中的很多人都覺得好像在操作一項外星來的技術(shù)?!?/p> 從應(yīng)用層面來看,一套 AI 算法或模型正式形成之后,就只具備一種用途。比如,基于計算機視覺開發(fā)的桃子分揀算法,就只能分揀桃子,而不是黃瓜。 今日頭條用于信息流推薦的算法模型,不能用在安防攝像頭上做視頻監(jiān)控。 本質(zhì)上,這些例子都反映出了 AI 算法不可復(fù)用、遷移難度極高的特點。 對于科技公司而言,AI 不僅不是萬能靈藥,還是一項很有風(fēng)險的技術(shù)。 在 AI 的“黑盒子”可以被清楚理解和完整解釋之前,一個值得參考的建議是,先確立 AI 的基礎(chǔ)法則。就好比上世紀(jì) 50 年代,阿西莫夫提出的機器人三定律一樣,確保 AI 要為人類整體帶來福祉,而不是增強人類族群本身的偏見、歧視和黑暗面。 今年 4 月,英國上議院(House of Lords)發(fā)布的一份報告(https://publications./pa/ld201719/ldselect/ldai/100/100.pdf),確立了五項有關(guān) AI 基本原則,或許能對科技公司和各個垂直行業(yè)有所啟發(fā): 要為人類的共同利益開發(fā)人工智能。 人工智能應(yīng)該遵循可理解性和公平性的原則。 人工智能不得削弱或破壞個人、家庭或社區(qū)的數(shù)據(jù)權(quán)利和隱私。 所有公民都有權(quán)接受教育,使他們能夠在精神上、情感上、經(jīng)濟上與人工智能一同發(fā)展。 決不能將傷害、摧毀或欺騙人類的自動化能力賦予人工智能。 |
|
來自: 昵稱1WQSrz3B > 《待分類》