一轉(zhuǎn)眼,春節(jié)就進入倒計時啦。 假期除了走親訪友,也是追劇和刷電影的好時候。給大家推薦一部剛剛上映,既有趣又有料的“硬核”紀錄片,趕快收藏起來,春節(jié)看吧~ 《人工智能時代》The Age Of A.I.(2019年12月上線) 《人工智能時代》是由鋼鐵俠小羅伯特·唐尼的制片公司聯(lián)合YouTube打造的人工智能題材紀錄片劇集,2019年12月在YouTube上線。 該紀錄片整個系列共有8集,每集時長1小時,內(nèi)容涵蓋人工智能、機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò),以及科學(xué)家們?nèi)绾卫眠@些技術(shù)改變世界。 在《人工智能時代》每集都會集中一個主題進行采訪,第一集中,唐尼將會帶我們認識三個前沿案例: 1、擁有情緒、可以學(xué)習(xí)圖像的模擬嬰兒; 2、表情、說話方式都和本人別無二致的虛擬分身; 3、不需要手術(shù)就可以隨心而動的義肢。 為了探索人與機器之間的創(chuàng)新與合作,紀錄片采訪了嘉賓:Mark Sagar,Soul Machines公司CEO。 Mark Sagar的研究領(lǐng)域是藝術(shù)與科技的交叉學(xué)科,博士學(xué)位是生物工程,后來卻進入了電影業(yè),重要作品包括《金剛》、《阿凡達》,工作內(nèi)容是模擬人臉,還獲得了兩次奧斯卡獎。 Mark做了一個項目叫Baby X,用來模擬嬰兒。 當人類像教育孩子一樣跟這個 AI 嬰兒玩“看圖識字”時,這個逼真度十足的“孩子”不僅能從文字和圖像上辨別事物,還能做出各種類似“困惑”、“思考”的表情。 這個項目的目的是為了探索如何構(gòu)建數(shù)字意識、未來促成人類與機器攜手合作,他認為這個路徑應(yīng)該是讓AI更像人類。 AI生成高保真虛擬人改變交互方式 2016年11月,Soul Machines獲得750萬美元A輪融資,金主是李嘉誠旗下的維港投資。 Mark認為,正如電視機和收音機的區(qū)別,Soul Machines的數(shù)字人類和目前已有的聊天機器人、語音助手的區(qū)別在于,前者給用戶帶來了更真實的交互體驗。Mark堅信表情的力量。他認為,比起僅有文本的交流方式,人和人面對面交流獲得的信息極大豐富。而且表情、眼神的交流都非常重要。 Mark的研究正引領(lǐng)著人類與機器之間全新的交互模式的發(fā)展。 隨著智能助手和使用深度學(xué)習(xí)技術(shù)的生產(chǎn)力應(yīng)用的迅速發(fā)展,Mark和他的團隊為AI行業(yè)的智能提供了一個情感化和富有社會意義的平臺。 Soul Machines利用數(shù)字虛擬人怎么賺錢? Soul Machines打算為每個人帶來量身打造的個性化服務(wù)和專業(yè)化知識,成為每個人私人的教師、顧問、教練和伙伴。 目前,戴姆勒金融服務(wù)、蘇格蘭皇家銀行等客戶都已經(jīng)在使用數(shù)字虛擬人提供客服服務(wù)了。 Soul Machines設(shè)計制造數(shù)字虛擬人時,就已經(jīng)把憤怒、沮喪等負面情感“閹割”掉了。所以,一個耐心體貼、不知疲倦、不會發(fā)脾氣的智能服務(wù)人員,應(yīng)該是人人都需要的。 通過超聲波和深度學(xué)習(xí),患者可以精準控制機械手指 紀錄片中采訪的另一位嘉賓叫Gil Weinberg,佐治亞理工學(xué)院,音樂技術(shù)中心創(chuàng)始主任。 機械手作為人工智能和機器人領(lǐng)域的一個重要課題,其硬件和軟件都已經(jīng)取得了長足的發(fā)展。 目前的機械手抓取力強、行動快速、靈巧敏捷,且周身遍布傳感器。盡管機械手的硬件做的很好,其軟件控制系統(tǒng)還有待提升,讓機械手完全按照人們的意愿做出相應(yīng)的動作是非常困難的。 一般而言,機械手的控制方式并非像工業(yè)機器人那樣簡單直觀的。例如,有的機械假肢手需要感受上臂、肩膀、胸部的微小肌肉運動,有的則需要通過感受腳趾肌肉運動。 無論哪種情況,都無法做到根據(jù)用戶意愿來擺動機械手手指;這需要不同機械手指不同部位的協(xié)同運動,最終形成復(fù)雜的整體運動。通過不斷的實踐和長時間的模擬運動,機械手雖然能夠?qū)崿F(xiàn)簡單的操作功能,但是,依然無法控制機械手進行精密的動作。 佐治亞理工學(xué)院的Gil Weinberg、Minoru Shinohara和Mason Bretan研發(fā)了一種全新的控制機械手的方法。 通過超聲波和深度學(xué)習(xí)技術(shù),研究人員已經(jīng)能夠繪制出詳細的前臂小肌肉運動圖,使得人類使用假肢后可以直觀地控制機械手甚至機械手指。 紀錄片的后面幾集陸續(xù)介紹了AI與醫(yī)療,用AI升級人類等話題。 運用AI技術(shù),讓我們重新奔跑、攀爬、起舞 Hugh Herr是美國的一名優(yōu)秀攀巖者。17歲時就已經(jīng)在美國攀巖圈小有名氣。然而Hugh Herr和同伴在新罕布什爾州華盛頓山攀登時,成功越過800英尺的冰面到達頂點之后,還沒來得及下山,就遭遇了強烈的暴風雪。 兩人在風雪中被困三天三夜,幸運的是最后他們得救了,但不幸的是,Hugh Herr的腳在零下29度的雪地中,嚴重凍傷了,不得不在膝蓋以下截肢。 但是,他仍然沒有放棄夢想,他去了米勒斯維爾大學(xué),攻讀物理學(xué)本科學(xué)位,然后在麻省理工學(xué)院(MIT)攻讀機械工程碩士學(xué)位,隨后又在哈佛大學(xué)攻讀生物物理學(xué)博士學(xué)位。 畢業(yè)后,重返MIT實驗室專心于研究能夠靈活運動的仿生機械腿,在Hugh Herr的帶領(lǐng)下,他的研究小組最后成功開發(fā)出了可與生物肢體交流的仿生假肢。 Hugh Herr成為MIT Biomechatronics(BiOM)團隊負責人,并在2006年創(chuàng)立了iWalk公司,將仿生假肢推廣到全世界。 使用仿生義肢行走自如的Hugh Herr 使用仿生義肢健步如飛的老兵 Huge還幫助舞蹈演員Adrianne Haslet-Davis利用智能義肢重回舞臺。 現(xiàn)在仿生假肢還有很多需要改進的地方,而且3-5萬美元的價格也頗為昂貴,為了打造便宜可復(fù)制的假肢,讓每個被截肢的人都能用得上,Hugh Herr和團隊還在不斷的探索。 谷歌幫助ALS患者恢復(fù)溝通能力 前橄欖球運動員蒂姆,身患肌萎縮性側(cè)索硬化癥(ALS),也就是俗稱的“漸凍人”。 在紀錄片研究人員利用人工智能,通過大量數(shù)據(jù)訓(xùn)練,可以識別漸凍癥患者的發(fā)聲語意,將他不清楚的發(fā)音正確解讀,并用電腦復(fù)刻他原來的聲音說出正確的句子。 Google的Euphonia項目在開發(fā)一套新的AI交互系統(tǒng),該系統(tǒng)可以通過手勢、面部表情識別等,為語言障礙人群提供幫助,讓這些人群能夠順利使用智能產(chǎn)品。 研究人員通過使用基準語音識別模型,應(yīng)用了一些ALS人群長達數(shù)十小時的說話錄音,以此訓(xùn)練AI模型。 其實Euphonia項目在谷歌 IO 2019的事件列表中出現(xiàn)過,但一直并未公布相關(guān)細節(jié),隨著紀錄片的播出,可以知道該項目的進展。 除此之外,紀錄片中還將出現(xiàn)自動駕駛公司圖森未來、農(nóng)業(yè)機器人公司Sweeper、以及仿生肢體企業(yè)Open Bionics等公司的身影。 紀錄片B站已經(jīng)放出,感興趣的朋友們可以看起來了! 在得到上線的王煜全老師《2019-2020風口行業(yè)解析》課程,幫你深度解析7大風口行業(yè)的背后邏輯,把7大熱點產(chǎn)業(yè)的未來發(fā)展講清楚。 這門課程不僅會解析這些產(chǎn)業(yè)的最新動向,分析明星企業(yè)的商業(yè)布局,更重要的是,帶你聚焦產(chǎn)業(yè)背后的技術(shù)進展,關(guān)注目前的核心挑戰(zhàn),幫你建立全景性的認知。 |
|