「人工智能技術(shù)一旦完全投入使用,它有可能拯救這個世界,也有可能終結(jié)這個世界?!?/p> 近日,VentureBeat 與「谷歌大腦」的聯(lián)合創(chuàng)始人吳恩達、Facebook 人工智能研究院創(chuàng)始人 Yann LeCun 等業(yè)內(nèi)專家進行了對話,并將他們的觀點整理成文。AI 科技評論選取了吳恩達和 Yann LeCun 的觀點進行編譯,一起看看他們認為 2018 年有哪些里程碑,以及對 2019 年有何預(yù)測。 在對 2018 的回顧和對未來的預(yù)測中,其中一些專家表示,他們很欣慰越來越少地聽到「人工智能終結(jié)者」這樣的說法,同時也有越來越多的人開始理解人工智能能做什么以及不能做什么。不過,這些專家也強調(diào),該領(lǐng)域的計算機和數(shù)據(jù)科學(xué)家在推動人工智能發(fā)展的過程中,需要繼續(xù)保持負責任的倫理觀。 吳恩達:軟件業(yè)以外的 AI 應(yīng)用將會有很多故事可講吳恩達是斯坦福大學(xué)的一位計算機科學(xué)副教授。由于種種原因,他的名字在人工智能圈中如雷貫耳。他是「谷歌大腦」的聯(lián)合創(chuàng)始人,是將人工智能應(yīng)用到谷歌諸多產(chǎn)品中的倡導(dǎo)者,還創(chuàng)立了幫助企業(yè)將人工智能集成到公司運作中的初創(chuàng)公司——Landing AI。他也是 YouTube 上一些最受歡迎的機器學(xué)習(xí)課程的講師,也是在線學(xué)習(xí)公司 Coursera 的創(chuàng)始人兼講師,同時,他還創(chuàng)立了 deeplearning.ai,并出版了《機器學(xué)習(xí)要領(lǐng)》(Deep Learning Yearning)一書。 他曾在百度任職首席科學(xué)家,2017 年,他離開百度進入另一家科技巨頭,并幫助其轉(zhuǎn)型為人工智能公司。最終,他成立了投資基金 AI Fund,并籌集到1.75 億美元資金,同時還擔任無人車創(chuàng)業(yè)公司 Drive.ai 的董事會成員。 本月月初,在吳恩達發(fā)布關(guān)于指導(dǎo)企業(yè)獲取人工智能對公司所帶來的積極影響的《人工智能轉(zhuǎn)型指南》(AI Transformation Playbook)時,VentureBeat 就對他進行了采訪。 他預(yù)測在 2019 年,人工智能發(fā)生進展或者變化的一個主要方面是它會在科技或軟件公司以外得到應(yīng)用。他表示,人工智能領(lǐng)域待開發(fā)的最大機遇在軟件領(lǐng)域以外,同時,他還引用了麥肯錫報告中的用例,指出到 2030 年人工智能將會創(chuàng)造 13 萬億美元的 GDP 產(chǎn)值。 「我認為到 2019 年,軟件業(yè)以外的人工智能應(yīng)用將會有很多故事可講。在行業(yè)里,我們已經(jīng)幫助谷歌、百度以及 Facebook、微軟等企業(yè)做了許多不錯的工作,甚至像 Square、 Airbnb 和 Pinterest 等公司也都開始用上了一些人工智能能力。我認為下一個巨大的價值創(chuàng)造浪潮將發(fā)生在能夠賦能制造業(yè)、農(nóng)業(yè)設(shè)備以及醫(yī)療公司開發(fā)一系列有助于企業(yè)發(fā)展的人工智能解決方案的時候。」 對話中,吳恩達對于 2018 年人們對于人工智能能做什么以及不能做什么的理解的進步表達了他的驚訝,同時,他也很高興對話沒有圍繞殺人機器人事件以及對于通用人工智能的恐懼展開。 吳恩達表示,對于采訪中的問題,他有意識地給出與其他專家有所區(qū)別的答案:「我嘗試特意列舉出我認為對于實際應(yīng)用非常重要的一些領(lǐng)域。我認為 AI 的實際應(yīng)用還存在很多阻礙,而在這些問題的某些方面是有前景性進展的?!?/p> 對于接下來的一年,吳恩達期望 AI/ML 研究中的兩個特定領(lǐng)域取得進展,而這將能夠推動整個人工智能領(lǐng)域發(fā)展。
「但是如果你將訓(xùn)練好的模型應(yīng)用到低端 X 光機上,或不同醫(yī)院拍攝的有些模糊的 X 光片上,或者技術(shù)人員讓病人稍稍右轉(zhuǎn)而導(dǎo)致角度產(chǎn)生偏差的 X 光片上,那人類放射科醫(yī)生在對這一新場景的泛化能力會比現(xiàn)在的學(xué)習(xí)算法好得多。所以我也看到一些有趣的研究正在嘗試提高學(xué)習(xí)算法在新場景中的泛化性?!?/p>Yann LeCun:AI 倫理問題尚未生死攸關(guān),但人們需未雨綢繆 Yann LeCun 是紐約大學(xué)教授、Facebook 首席人工智能科學(xué)家,并創(chuàng)立了 Facebook 人工智能研究院(FAIR)——它是 Facebook 的科研部門,先后開發(fā)了 PyTorch 1.0 、 Caffe2 以及大量的人工智能系統(tǒng),例如在 Facebook 上每日被使用上百萬次的文本翻譯 AI 工具或者會下圍棋的強化學(xué)習(xí)系統(tǒng)。 LeCun 認為 FAIR 針對研究和工具所采取的開源政策幫助推動了其他大型科技公司也進行開源,并且他認為其中的一些開源項目推動了整個人工智能領(lǐng)域的進步。上個月的 NeurIPS2018 以及 FAIR 50 周年慶前夕,LeCun 接受了 VentureBeat 的采訪,對于 FAIR,他將其描述為一個致力于成為「機器學(xué)習(xí)的技術(shù)性、數(shù)學(xué)性腹地,實現(xiàn)各種可能」的機構(gòu)。 「開源推動了整個領(lǐng)域更快地向前發(fā)展,因為越來越多人進行研究交流,這實實在在地帶來了非常大的影響。人工智能現(xiàn)在的發(fā)展速度很大程度上是由于現(xiàn)在有更多的人在更加快速、更加高效地開展交流,同時做了更多開放性的研究。」 關(guān)于倫理,LeCun 表示很高興看到大家在思考人工智能研究帶來的倫理影響以及帶有偏見的決策所帶來的風險方面的進步?!肝覀兌紤?yīng)該關(guān)注這些倫理問題,現(xiàn)在這也已經(jīng)成為大家的共識。在兩三年前情況還非常不同?!?/p> LeCun 提到,他認為人工智能中的倫理和偏見現(xiàn)在還未成為需要我們立馬采取行動的主要問題,但是人們應(yīng)該要為此做好準備。「我認為現(xiàn)在還沒有出現(xiàn)... 亟待解決的生死攸關(guān)的大問題,但倫理和偏見問題終有一天會發(fā)生,因此我們需要... 理解這些問題,并在它們發(fā)生之前未雨綢繆?!?/p> 和吳恩達一樣,LeCun 期望未來出現(xiàn)更多靈活的 AI 系統(tǒng),進而開發(fā)出不需要原始輸入數(shù)據(jù)或者完全準確的場景就能產(chǎn)生精確輸出的穩(wěn)健的 AI 系統(tǒng)。LeCun 表示,研究者已經(jīng)能夠很好地利用深度學(xué)習(xí)管理感知,但缺乏對完整人工智能系統(tǒng)的整體架構(gòu)的理解。 同時他還指出,教會機器通過觀察世界來學(xué)習(xí),將需要自監(jiān)督學(xué)習(xí)或基于模型的強化學(xué)習(xí)。 「不同的人對此的稱呼不同,但本質(zhì)上人類嬰兒和動物都是通過觀察和分辨大量關(guān)于世界的背景信息來學(xué)習(xí)世界的運作原理,我們不知道如何讓機器學(xué)會這么做,但這是一項重要挑戰(zhàn)。這個研究方向的成果可以讓 AI 以及計算機取得真正的進步,讓它們具備一點常識,以及讓虛擬助手可以更流暢自然地就更廣泛的話題和討論與人類對話?!?/p> 對于將有助于 Facebook 內(nèi)部運營的應(yīng)用,LeCun 稱讓自監(jiān)督學(xué)習(xí)取得顯著進步以及人工智能僅需要少量數(shù)據(jù)也能返回準確結(jié)果,將會非常重要。 「在解決這一問題的過程中,我們希望能夠找到能夠減少機器翻譯或圖像識別任務(wù)等特定任務(wù)所必需的數(shù)據(jù)量的方法,而現(xiàn)在,我們在這個方向已經(jīng)有所進展。我們在翻譯和圖像識別任務(wù)中使用弱監(jiān)督或自監(jiān)督學(xué)習(xí),這已經(jīng)為 Facebook 所使用的服務(wù)帶來了影響。所以實際上,這些問題并不是純粹的長期問題,它們也可以帶來短期影響?!?/p> LeCun 期望在未來能夠看到人工智能在事件之間建立因果關(guān)系方面有所進步。這一能力不僅僅通過觀察就能學(xué)到,還需要對事物有實際的理解,例如,如果有人打傘,就有可能是下雨天?!高@是非常重要的,因為如果你想讓機器通過觀察學(xué)會世界的模型,它就必須能夠了解它能對這個世界的狀態(tài)有何影響,以及哪些事情是它自己做不到的。假設(shè)你在一個房間里,面前有一張桌子,桌上有一瓶水,你知道推一下水瓶,水瓶就會移動,不過你沒法移動桌子,因為桌子又大又重——這類事情都是與因果關(guān)系相關(guān)的。」 via venturebeat.com,AI 科技評論編譯 |
|