一区二区三区日韩精品-日韩经典一区二区三区-五月激情综合丁香婷婷-欧美精品中文字幕专区

分享

觀點|對話吳恩達、Yann LeCun:AI 2018 年的里程碑以及 2019 年的預(yù)測

 博容書屋 2019-01-04

觀點|對話吳恩達、Yann LeCun:AI 2018 年的里程碑以及 2019 年的預(yù)測

「人工智能技術(shù)一旦完全投入使用,它有可能拯救這個世界,也有可能終結(jié)這個世界?!?/p>

近日,VentureBeat 與「谷歌大腦」的聯(lián)合創(chuàng)始人吳恩達、Facebook 人工智能研究院創(chuàng)始人 Yann LeCun 等業(yè)內(nèi)專家進行了對話,并將他們的觀點整理成文。AI 科技評論選取了吳恩達和 Yann LeCun 的觀點進行編譯,一起看看他們認為 2018 年有哪些里程碑,以及對 2019 年有何預(yù)測。

在對 2018 的回顧和對未來的預(yù)測中,其中一些專家表示,他們很欣慰越來越少地聽到「人工智能終結(jié)者」這樣的說法,同時也有越來越多的人開始理解人工智能能做什么以及不能做什么。不過,這些專家也強調(diào),該領(lǐng)域的計算機和數(shù)據(jù)科學(xué)家在推動人工智能發(fā)展的過程中,需要繼續(xù)保持負責任的倫理觀。

吳恩達:軟件業(yè)以外的 AI 應(yīng)用將會有很多故事可講

觀點|對話吳恩達、Yann LeCun:AI 2018 年的里程碑以及 2019 年的預(yù)測

吳恩達是斯坦福大學(xué)的一位計算機科學(xué)副教授。由于種種原因,他的名字在人工智能圈中如雷貫耳。他是「谷歌大腦」的聯(lián)合創(chuàng)始人,是將人工智能應(yīng)用到谷歌諸多產(chǎn)品中的倡導(dǎo)者,還創(chuàng)立了幫助企業(yè)將人工智能集成到公司運作中的初創(chuàng)公司——Landing AI。他也是 YouTube 上一些最受歡迎的機器學(xué)習(xí)課程的講師,也是在線學(xué)習(xí)公司 Coursera 的創(chuàng)始人兼講師,同時,他還創(chuàng)立了 deeplearning.ai,并出版了《機器學(xué)習(xí)要領(lǐng)》(Deep Learning Yearning)一書。

他曾在百度任職首席科學(xué)家,2017 年,他離開百度進入另一家科技巨頭,并幫助其轉(zhuǎn)型為人工智能公司。最終,他成立了投資基金 AI Fund,并籌集到1.75 億美元資金,同時還擔任無人車創(chuàng)業(yè)公司 Drive.ai 的董事會成員。

本月月初,在吳恩達發(fā)布關(guān)于指導(dǎo)企業(yè)獲取人工智能對公司所帶來的積極影響的《人工智能轉(zhuǎn)型指南》(AI Transformation Playbook)時,VentureBeat 就對他進行了采訪。

他預(yù)測在 2019 年,人工智能發(fā)生進展或者變化的一個主要方面是它會在科技或軟件公司以外得到應(yīng)用。他表示,人工智能領(lǐng)域待開發(fā)的最大機遇在軟件領(lǐng)域以外,同時,他還引用了麥肯錫報告中的用例,指出到 2030 年人工智能將會創(chuàng)造 13 萬億美元的 GDP 產(chǎn)值。

「我認為到 2019 年,軟件業(yè)以外的人工智能應(yīng)用將會有很多故事可講。在行業(yè)里,我們已經(jīng)幫助谷歌、百度以及 Facebook、微軟等企業(yè)做了許多不錯的工作,甚至像 Square、 Airbnb 和 Pinterest 等公司也都開始用上了一些人工智能能力。我認為下一個巨大的價值創(chuàng)造浪潮將發(fā)生在能夠賦能制造業(yè)、農(nóng)業(yè)設(shè)備以及醫(yī)療公司開發(fā)一系列有助于企業(yè)發(fā)展的人工智能解決方案的時候。」

對話中,吳恩達對于 2018 年人們對于人工智能能做什么以及不能做什么的理解的進步表達了他的驚訝,同時,他也很高興對話沒有圍繞殺人機器人事件以及對于通用人工智能的恐懼展開。

吳恩達表示,對于采訪中的問題,他有意識地給出與其他專家有所區(qū)別的答案:「我嘗試特意列舉出我認為對于實際應(yīng)用非常重要的一些領(lǐng)域。我認為 AI 的實際應(yīng)用還存在很多阻礙,而在這些問題的某些方面是有前景性進展的?!?/p>

對于接下來的一年,吳恩達期望 AI/ML 研究中的兩個特定領(lǐng)域取得進展,而這將能夠推動整個人工智能領(lǐng)域發(fā)展。

  • 一個是「小樣本學(xué)習(xí)」(few shot learning),即人工智能能以更少的數(shù)據(jù)實現(xiàn)較高的準確率。「我認為深度學(xué)習(xí)發(fā)展的第一波浪潮是擁有海量數(shù)據(jù)的大公司訓(xùn)練龐大的神經(jīng)網(wǎng)絡(luò),對吧?因此如果你想要構(gòu)建語音識別系統(tǒng),就在 10 萬小時的數(shù)據(jù)上對它進行訓(xùn)練吧;想要訓(xùn)練機器翻譯系統(tǒng)的話,就在大量平行語料的句對上對它進行訓(xùn)練,以此來實現(xiàn)大量突破性成果?,F(xiàn)在,我看到在小數(shù)據(jù)集上也取得了越來越多的成果,這種形勢下,即便你只有 1000 張圖像,你也可以嘗試做出點成果?!?/p>

  • 另一個是計算機視覺領(lǐng)域的進展——通用化的視覺能力(generalized visibility)。一個計算機視覺系統(tǒng)可能在斯坦福大學(xué)的高端 X 光機拍攝的原始圖像上訓(xùn)練時的表現(xiàn)非常好。同時,該領(lǐng)域的許多先進企業(yè)和研究者已經(jīng)開發(fā)出表現(xiàn)勝過人類放射科醫(yī)生的系統(tǒng),不過,它們并不是特別靈活。

「但是如果你將訓(xùn)練好的模型應(yīng)用到低端 X 光機上,或不同醫(yī)院拍攝的有些模糊的 X 光片上,或者技術(shù)人員讓病人稍稍右轉(zhuǎn)而導(dǎo)致角度產(chǎn)生偏差的 X 光片上,那人類放射科醫(yī)生在對這一新場景的泛化能力會比現(xiàn)在的學(xué)習(xí)算法好得多。所以我也看到一些有趣的研究正在嘗試提高學(xué)習(xí)算法在新場景中的泛化性?!?/p>Yann LeCun:AI 倫理問題尚未生死攸關(guān),但人們需未雨綢繆

觀點|對話吳恩達、Yann LeCun:AI 2018 年的里程碑以及 2019 年的預(yù)測

Yann LeCun 是紐約大學(xué)教授、Facebook 首席人工智能科學(xué)家,并創(chuàng)立了 Facebook 人工智能研究院(FAIR)——它是 Facebook 的科研部門,先后開發(fā)了 PyTorch 1.0 、 Caffe2 以及大量的人工智能系統(tǒng),例如在 Facebook 上每日被使用上百萬次的文本翻譯 AI 工具或者會下圍棋的強化學(xué)習(xí)系統(tǒng)。

LeCun 認為 FAIR 針對研究和工具所采取的開源政策幫助推動了其他大型科技公司也進行開源,并且他認為其中的一些開源項目推動了整個人工智能領(lǐng)域的進步。上個月的 NeurIPS2018 以及 FAIR 50 周年慶前夕,LeCun 接受了 VentureBeat 的采訪,對于 FAIR,他將其描述為一個致力于成為「機器學(xué)習(xí)的技術(shù)性、數(shù)學(xué)性腹地,實現(xiàn)各種可能」的機構(gòu)。

「開源推動了整個領(lǐng)域更快地向前發(fā)展,因為越來越多人進行研究交流,這實實在在地帶來了非常大的影響。人工智能現(xiàn)在的發(fā)展速度很大程度上是由于現(xiàn)在有更多的人在更加快速、更加高效地開展交流,同時做了更多開放性的研究。」

關(guān)于倫理,LeCun 表示很高興看到大家在思考人工智能研究帶來的倫理影響以及帶有偏見的決策所帶來的風險方面的進步?!肝覀兌紤?yīng)該關(guān)注這些倫理問題,現(xiàn)在這也已經(jīng)成為大家的共識。在兩三年前情況還非常不同?!?/p>

LeCun 提到,他認為人工智能中的倫理和偏見現(xiàn)在還未成為需要我們立馬采取行動的主要問題,但是人們應(yīng)該要為此做好準備。「我認為現(xiàn)在還沒有出現(xiàn)... 亟待解決的生死攸關(guān)的大問題,但倫理和偏見問題終有一天會發(fā)生,因此我們需要... 理解這些問題,并在它們發(fā)生之前未雨綢繆?!?/p>

和吳恩達一樣,LeCun 期望未來出現(xiàn)更多靈活的 AI 系統(tǒng),進而開發(fā)出不需要原始輸入數(shù)據(jù)或者完全準確的場景就能產(chǎn)生精確輸出的穩(wěn)健的 AI 系統(tǒng)。LeCun 表示,研究者已經(jīng)能夠很好地利用深度學(xué)習(xí)管理感知,但缺乏對完整人工智能系統(tǒng)的整體架構(gòu)的理解。

同時他還指出,教會機器通過觀察世界來學(xué)習(xí),將需要自監(jiān)督學(xué)習(xí)或基于模型的強化學(xué)習(xí)。

「不同的人對此的稱呼不同,但本質(zhì)上人類嬰兒和動物都是通過觀察和分辨大量關(guān)于世界的背景信息來學(xué)習(xí)世界的運作原理,我們不知道如何讓機器學(xué)會這么做,但這是一項重要挑戰(zhàn)。這個研究方向的成果可以讓 AI 以及計算機取得真正的進步,讓它們具備一點常識,以及讓虛擬助手可以更流暢自然地就更廣泛的話題和討論與人類對話?!?/p>

對于將有助于 Facebook 內(nèi)部運營的應(yīng)用,LeCun 稱讓自監(jiān)督學(xué)習(xí)取得顯著進步以及人工智能僅需要少量數(shù)據(jù)也能返回準確結(jié)果,將會非常重要。

「在解決這一問題的過程中,我們希望能夠找到能夠減少機器翻譯或圖像識別任務(wù)等特定任務(wù)所必需的數(shù)據(jù)量的方法,而現(xiàn)在,我們在這個方向已經(jīng)有所進展。我們在翻譯和圖像識別任務(wù)中使用弱監(jiān)督或自監(jiān)督學(xué)習(xí),這已經(jīng)為 Facebook 所使用的服務(wù)帶來了影響。所以實際上,這些問題并不是純粹的長期問題,它們也可以帶來短期影響?!?/p>

LeCun 期望在未來能夠看到人工智能在事件之間建立因果關(guān)系方面有所進步。這一能力不僅僅通過觀察就能學(xué)到,還需要對事物有實際的理解,例如,如果有人打傘,就有可能是下雨天?!高@是非常重要的,因為如果你想讓機器通過觀察學(xué)會世界的模型,它就必須能夠了解它能對這個世界的狀態(tài)有何影響,以及哪些事情是它自己做不到的。假設(shè)你在一個房間里,面前有一張桌子,桌上有一瓶水,你知道推一下水瓶,水瓶就會移動,不過你沒法移動桌子,因為桌子又大又重——這類事情都是與因果關(guān)系相關(guān)的。」

via venturebeat.com,AI 科技評論編譯

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多

    美女露小粉嫩91精品久久久| 国产乱人伦精品一区二区三区四区 | 日本在线视频播放91| 亚洲精品美女三级完整版视频| 经典欧美熟女激情综合网| 特黄大片性高水多欧美一级| 91爽人人爽人人插人人爽| 欧美精品专区一区二区| 高清国产日韩欧美熟女| 色婷婷丁香激情五月天| 久热人妻中文字幕一区二区| 中文字幕日韩欧美理伦片| 丁香六月啪啪激情综合区| 欧美一二三区高清不卡| 国产一级不卡视频在线观看| 日本理论片午夜在线观看| 亚洲精品国男人在线视频| 中日韩免费一区二区三区| 丰满人妻一二区二区三区av| 中文字幕乱子论一区二区三区| 蜜桃臀欧美日韩国产精品| 国产丝袜女优一区二区三区| 亚洲第一区二区三区女厕偷拍| 日韩精品毛片视频免费看| 亚洲一区二区三区福利视频| 国产精品免费无遮挡不卡视频| 亚洲精品日韩欧美精品| 中文字幕亚洲精品乱码加勒比| 国产色第一区不卡高清| 91人妻人人揉人人澡人| 激情五月天免费在线观看| 视频在线免费观看你懂的| 欧美黑人暴力猛交精品| 99久久精品国产日本| 欧美日韩亚洲国产综合网| 中文字幕乱码亚洲三区| 国产精品十八禁亚洲黄污免费观看| 亚洲一区二区三区四区性色av| 中文字幕亚洲精品在线播放| 黄片在线观看一区二区三区| 国产超碰在线观看免费|