據(jù)谷歌人工智能研究負責(zé)人Jeff Dean透露,谷歌正在嘗試通過人工智能程序推進專用芯片的內(nèi)部開發(fā),以加速其軟件。Dean在舊金山舉行的International Solid State Circuits Conference年度技術(shù)研討會主題演講之后,接受ZDNet采訪時說:“我們內(nèi)部正在將人工智能技術(shù)用于一系列芯片設(shè)計項目中?!?/p> 過去幾年中,谷歌開發(fā)了一個AI硬件家族——Tensor Processing Unit(TPU芯片),用于在服務(wù)器計算機中處理AI。使用AI來設(shè)計芯片是一個良性循環(huán):AI讓芯片變得更好,經(jīng)過改良的芯片又能增強AI算法,依此類推。 在主題演講中,Dean向參會者介紹了如何使用機器學(xué)習(xí)程序決定計算機芯片的電路布局,最終設(shè)計與人類芯片設(shè)計人員相比,其敏銳度相當(dāng)甚至更高。 當(dāng)“布線”任務(wù)中,芯片設(shè)計人員通常會使用軟件來確定芯片中的電路布局,有點類似于建筑物設(shè)計平面圖。為了找到滿足多個目標(biāo)的最佳布局,需要考慮很多因素,包括提供芯片性能,同時還要避免不必要的復(fù)雜性,否則可能增加芯片制造成本。這種平衡需要大量的人類啟發(fā)式思維,以最佳方式進行設(shè)計?,F(xiàn)在,人工智能算法也能夠以這種啟發(fā)式思維方式進行設(shè)計。 Dean舉例說,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)只花了24個小時就解決了問題,而人類設(shè)計是需要6至8周,并且前者的解決方案更好。這減少了芯片總布線數(shù)量,從而提高了效率。 Dean向參會者表示,用于解決這個問題的機器學(xué)習(xí)模型僅用24小時就提出了一種芯片設(shè)計方案,而人類設(shè)計師用了8周時間才完成。 這個深度學(xué)習(xí)程序類似于Google DeepMind部門為征服Go游戲開發(fā)的AlphaZero程序,并且也是一種強化學(xué)習(xí)。為了實現(xiàn)目標(biāo),該程序嘗試了各種步驟來查看哪些步驟可以帶來更好的結(jié)果,只不過不是下棋,而是在芯片中設(shè)計最優(yōu)的電路布局。 與Go不同的是,這個解決方案的“空間”(布線數(shù)量)要大得多,而且如上所述必須滿足很多要求,不是僅僅贏得比賽這一個目標(biāo)。 Dean表示,這個內(nèi)部研究還處于了解深度學(xué)習(xí)技術(shù)的早期階段?!拔覀冋谧屛覀兊脑O(shè)計師進行試驗,看看如何開始在工作流程中使用該程序。另外我們正在試圖了解該程序的用處以及它在哪些方面可以改進。” 谷歌進軍AI設(shè)計領(lǐng)域正處于芯片生產(chǎn)復(fù)興之時,旨在讓不同大小的專用芯片都可以更快地運行機器學(xué)習(xí)。有機器學(xué)習(xí)科學(xué)家認(rèn)為,專用AI硬件可以催生更大型、更高效的機器學(xué)習(xí)軟件項目。 Dean說,即使谷歌擴展了AI設(shè)計項目,仍然會有很多AI硬件初創(chuàng)公司(例如Cerebras Systems和Graphcore)給市場帶來多樣性,并迅速發(fā)展起來。并表示這種多樣性會很有意思。 “我不確定這些初創(chuàng)公司是否能夠在市場中生存下去,但這很有意思,因為其中很多初創(chuàng)公司采取了截然不同的設(shè)計方式。有些加速的模型很小,可以用于片上SRAM。”這意味著,機器學(xué)習(xí)模型可能非常小,不需要外置內(nèi)存。 “如果你的模型可用于SRAM,那么會變得非常高效,但如果不適合,那就不是你應(yīng)該選擇的芯片?!?/p> 谷歌稱,這個機器學(xué)習(xí)程序創(chuàng)造了很多連人類設(shè)計師都沒有想到的新穎電路設(shè)計。 當(dāng)被問及這些芯片是否會融入某些標(biāo)準(zhǔn)設(shè)計的時候,Dean暗示,多樣化是很有可能的,至少就目前來看。“我確實認(rèn)為大家使用的方法會各有千秋,因為當(dāng)前有關(guān)機器學(xué)習(xí)的研究呈現(xiàn)爆炸式增長,機器學(xué)習(xí)被用于解決各種各樣的問題,當(dāng)有如此多選擇的時候,你肯定不想只盯著一個選擇,而是想要五個或者六個——不會是一千個,但得有五個或六個不同的設(shè)計點?!?/p> Dean補充說:“哪些設(shè)計方法會脫穎而出,這一點令人期待,不管是能夠解決很多問題的通用方法,還是加速某個方面的專業(yè)化方法?!?/p> 談到谷歌除了TPU之外的舉措, Dean表示,谷歌正在嘗試越來越多的專用芯片。當(dāng)被問及谷歌AI硬件是否可能延伸到其現(xiàn)有產(chǎn)品之外時,Dean回答說:“哦,是的?!?/p> “毫無疑問,機器學(xué)習(xí)正在被越來越廣泛地用于谷歌產(chǎn)品中,這些產(chǎn)品既包括基于數(shù)據(jù)中心的服務(wù),也有很多手機上的產(chǎn)品?!盌ean指出,Google Translate就是一個擺脫了復(fù)雜性的程序,該程序現(xiàn)在支持七十種不同的語言,即使是在飛行模式下也可以在手機上使用。 Dean指出,谷歌擴充了面向AI的芯片家族。例如Edge TPU就涵蓋了“不同的設(shè)計點”,包括低功耗應(yīng)用,以及數(shù)據(jù)中心核心的高性能應(yīng)用。當(dāng)被問及谷歌是否會進一步擴大多樣性的時候,Dean回答說:“我認(rèn)為會的?!?/p> Dean表示,“即使在非數(shù)據(jù)中心領(lǐng)域,你會也看到不同高功率環(huán)境——例如自動駕駛汽車——之間的區(qū)別,不一定是1瓦,有可能是50或100瓦。因此,針對這種環(huán)境和針對手機環(huán)境,你需要不同的方法?!蓖瑫r,還有農(nóng)業(yè)傳感器之類的超低功耗應(yīng)用,這些應(yīng)用程序可以執(zhí)行一些AI處理,而無需將任何數(shù)據(jù)發(fā)送到云中。這種傳感器如果支持AI就可以評估是否收集了(例如攝像頭的)任何數(shù)據(jù),并將這些單獨的數(shù)據(jù)點發(fā)送回云端進行分析。 責(zé)編:陶宗瑤
|
|