一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

科技公司開始重視AI倫理,他們都是怎么做的?

 昵稱1WQSrz3B 2018-05-05

企鵝號 《AI科技大本營》05-04 18:12

作者 | DavidZh

出品 | AI科技大本營(公眾號ID:rgznai100)

風(fēng)口浪尖上的 Facebook 在剛剛結(jié)束的 F8 開發(fā)者大會上宣布,將組建一個專門的 AI 倫理團隊跟公司里各項產(chǎn)品和服務(wù)合作,以此來保證 AI 的公正性。

Facebook 的一位科學(xué)家向 CNBC 確認(rèn)了這一消息,但拒絕透露這個團隊的人數(shù)規(guī)模。

從產(chǎn)品來看,F(xiàn)acebook 決定先從 Messenger 聊天應(yīng)用中的翻譯功能入手。在這個 AI 倫理團隊的協(xié)助和監(jiān)督之下,當(dāng) Messenger 用戶使用這個功能時需要確保根據(jù)用戶發(fā)送的文本或語音翻譯過來的內(nèi)容準(zhǔn)確而公正。

根據(jù)最新數(shù)據(jù),F(xiàn)acebook Messenger 的月度活躍用戶數(shù)已經(jīng)超過 20 億,擁有全世界多樣性最高的用戶群體。他們的語言、文字和文化傳統(tǒng)千差萬別,由 AI 驅(qū)動的翻譯等功能有必要保證其中立性。

這只是今年 3 月劍橋分析公司(Cambridge Analytica)泄露 8700 萬用戶隱私數(shù)據(jù)之后,F(xiàn)acebook 做出一系列調(diào)整中的一部分。

去年,F(xiàn)acebook 內(nèi)部研發(fā)的一個名叫 Fairness Flow 的算法工作流就已經(jīng)整合到 FBLearner Flow 平臺中了,主要作用是更便捷地訓(xùn)練 AI。

實際上,關(guān)于 AI 的倫理問題,至少從去年開始就有大科技公司關(guān)注并采取行動了。

早在 2011 年,微軟、IBM 和多倫多大學(xué)就已經(jīng)意識到 AI 領(lǐng)域非常需要克服偏見之后的公正性(fairness)。從技術(shù)層面解釋,這是因為 AI 中大多數(shù)算法模型的工作方式都是黑盒子,研究人員通常只知道輸入內(nèi)容和輸出的結(jié)果與質(zhì)量,但無法解釋清楚 AI 算法內(nèi)部的工作機制。如果 AI 研究者利用帶有偏見的數(shù)據(jù)集或者在調(diào)整參數(shù)時加入自己的偏見,都有可能導(dǎo)致 AI 輸出結(jié)果的不公正。

為了解決這個問題,2014 年微軟研究院成立了一個名叫 FATE(Fairness Accountability Transparency and Ethics in AI)的項目,旨在增加 AI 的公正、可靠和透明度。這個項目團隊每年會組織一次名為 FAT in ML 的專題討論會,邀請 AI 領(lǐng)域內(nèi)多位資深技術(shù)專家分享新的研究進展,到今年已經(jīng)辦到第五屆。

而 Google 花重金收購來的英國公司 DeepMind 也在 2017 年成立了 DeepMind Ethics & Society 項目,并提出了兩個目標(biāo):

幫助技術(shù)人員踐行道德

幫助社會預(yù)測和指導(dǎo) AI 的影響,讓所有人受益

目前,這個項目組共有四名成員,其中 Julia Angwin 已經(jīng)在犯罪學(xué)領(lǐng)域?qū)λ惴ǖ姆N族偏見(https://www./article/machine-bias-risk-assessments-in-criminal-sentencing)做了十分深入的研究。

盡管如此,Google 內(nèi)部科學(xué)家和研究人員對 AI 的看法仍然觀點不一。一位名叫 Ali Rahimi 的 Google 工程師在今年 4 月底的一次會議上表示,AI 算法通過不斷試錯來提高自己,有點兒像“煉金術(shù)”。

Ali Rahimi 說:“AI 研究領(lǐng)域有極其痛苦的部分,我們中的很多人都覺得好像在操作一項外星來的技術(shù)?!?/p>

從應(yīng)用層面來看,一套 AI 算法或模型正式形成之后,就只具備一種用途。比如,基于計算機視覺開發(fā)的桃子分揀算法,就只能分揀桃子,而不是黃瓜。

今日頭條用于信息流推薦的算法模型,不能用在安防攝像頭上做視頻監(jiān)控。

本質(zhì)上,這些例子都反映出了 AI 算法不可復(fù)用、遷移難度極高的特點。

對于科技公司而言,AI 不僅不是萬能靈藥,還是一項很有風(fēng)險的技術(shù)。

在 AI 的“黑盒子”可以被清楚理解和完整解釋之前,一個值得參考的建議是,先確立 AI 的基礎(chǔ)法則。就好比上世紀(jì) 50 年代,阿西莫夫提出的機器人三定律一樣,確保 AI 要為人類整體帶來福祉,而不是增強人類族群本身的偏見、歧視和黑暗面。

今年 4 月,英國上議院(House of Lords)發(fā)布的一份報告(https://publications./pa/ld201719/ldselect/ldai/100/100.pdf),確立了五項有關(guān) AI 基本原則,或許能對科技公司和各個垂直行業(yè)有所啟發(fā):

要為人類的共同利益開發(fā)人工智能。

人工智能應(yīng)該遵循可理解性和公平性的原則。

人工智能不得削弱或破壞個人、家庭或社區(qū)的數(shù)據(jù)權(quán)利和隱私。

所有公民都有權(quán)接受教育,使他們能夠在精神上、情感上、經(jīng)濟上與人工智能一同發(fā)展。

決不能將傷害、摧毀或欺騙人類的自動化能力賦予人工智能。

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    欧美中文日韩一区久久| 欧美精品日韩精品一区| 国产人妻熟女高跟丝袜| 久久综合狠狠综合久久综合| 99久久精品国产日本| 深夜日本福利在线观看| 日韩一区二区三区嘿嘿| 国产精品一区二区日韩新区| 办公室丝袜高跟秘书国产| 国产精品内射视频免费| 久久国产成人精品国产成人亚洲| 午夜视频成人在线观看| 欧美激情床戏一区二区三| 91蜜臀精品一区二区三区| 太香蕉久久国产精品视频| 久久人人爽人人爽大片av| 日韩国产亚洲欧美激情| 伊人色综合久久伊人婷婷| 一本久道久久综合中文字幕| 国产又色又爽又黄又免费| 欧美视频在线观看一区| 日韩欧美一区二区不卡看片| 国产在线小视频你懂的| 久久偷拍视频免费观看| 亚洲欧美国产中文色妇| 日本黄色美女日本黄色| 日韩精品区欧美在线一区| 日韩人妻精品免费一区二区三区 | 青青操成人免费在线视频| 亚洲日本加勒比在线播放| 国产亚洲二区精品美女久久| 粗暴蹂躏中文一区二区三区| 风韵人妻丰满熟妇老熟女av | 国产毛片对白精品看片| 91久久精品中文内射| 一区二区三区18禁看| 中文字幕亚洲精品人妻| 国产欧美另类激情久久久| 国产精品欧美一区两区| 国产视频福利一区二区| 国产偷拍精品在线视频|