馬斯克在上個月發(fā)推表示 “我盡力警告人們激光雷達并不是車輛的最佳選擇。道路是為生物神經(jīng)網(wǎng)絡和眼睛而設計的,因此數(shù)字神經(jīng)網(wǎng)絡和相機效果最好?!?/p> 集成后的系統(tǒng)可以同時"看"到每一個方向,其波長遠超人類的感官,提供了一幅駕駛員自身無法觸及的世界影像。蘇黎世大學在基于視覺的自主系統(tǒng)方面的突破表明,通過使用先進的神經(jīng)網(wǎng)絡和機器學習算法,基于視覺的自主系統(tǒng)確實可以超越人類。對特斯拉基于純視覺的自動駕駛方法的信心,提供了一個令人信服的論點。 專注攝像頭視覺解決方案 目前,大部分車企自動輔助駕駛的解決方案,均以雷達方案、攝像頭和傳感器的融合方案為主。通過發(fā)射激光束來檢測周圍的物體,從而構建一個三維的周圍環(huán)境模型,這在自動駕駛領域的使用率非常高。 不過,這種方案存在一些缺點。比如,搭載激光雷達的車越來越多,它們彼此之間會互相干擾,影響探測精度;雷達的觀測值會不定時地發(fā)生一些跳變,帶來一定誤差;除此之外,當攝像頭和激光雷達傳回的信息沖突時,車機又該選擇相信誰呢? 必須強調的是,道路是為生物神經(jīng)網(wǎng)絡和眼睛設計的,人沒有類似于雷達的器官,只靠眼睛依然能夠識別道路上的交通情況。馬斯克堅持第一性原理,相信基于算法的數(shù)字神經(jīng)網(wǎng)絡,配合攝像頭的純視覺方案,才是實現(xiàn)自動駕駛的最優(yōu)方案。 前特斯拉AI高級總監(jiān)Andrej說:“希望能夠打造一個類似動物視覺皮層的神經(jīng)網(wǎng)絡連接,模擬大腦信息輸入和輸出的過程。就像光線進入到視網(wǎng)膜當中,我們希望通過攝像頭來模擬這個過程?!?/p> “Tesla視覺神經(jīng)系統(tǒng)”,是依靠車身搭載的高分辨率攝像頭捕捉周圍的環(huán)境信息,經(jīng)過不斷迭代的先進算法和神經(jīng)網(wǎng)絡模型處理,最終直接輸出3D場景下的 “Vector Space”用于輔助駕駛。 這種純視覺方案,目前已經(jīng)應用在了9月上市的Model 3煥新版。 Model 3煥新版移除了車上所有的超聲波雷達和毫米波雷達,共有8個高精度攝像頭,前視三目分別是主攝像頭、魚眼和窄攝像頭,負責近、中、遠3種不同距離的視角感知;左右側柱共兩目,可以看到側前方視野;左右翼子板也有兩目,覆蓋側后方視野;最后一顆攝像頭是廣角鏡頭,安裝在后備箱門上,負責整個后方視野。8個攝像頭環(huán)繞車身,提供360度無死角的視野,最高探測距離能達到250米。 和激光雷達相比,攝像頭的信息傳輸速率快出幾個量級,對于環(huán)境感知更為真切。舉個例子,在十字路口,攝像頭是可以捕捉分辨紅綠燈顏色的,但是激光雷達卻無法實現(xiàn)。當然,也有激光雷達派認為,攝像頭捕捉到的圖像是二維的,不能像激光雷達一樣實現(xiàn)精準測距,是無法脫離雷達的配合獨立存在的。 針對這個所謂的“短板”,特斯拉的工程師研發(fā)了一套純視覺測距法。就像人類可以通過雙目測距一樣,“Tesla視覺神經(jīng)系統(tǒng)”通過這套算法,借助多個攝像頭配合,也可以實現(xiàn)對目標距離的測算。 這套純視覺測距算法,在經(jīng)過研發(fā)團隊反復驗證后,才正式推出。工程師首先通過二維圖像測距,再用這套數(shù)據(jù)與毫米波雷達探測的距離數(shù)據(jù)進行對比驗證,不斷對純視覺測距算法進行修正。從最終驗證的結果來看,純視覺測距已經(jīng)足夠精確,毫米波雷達自然也就可以功成名退。因此,Model 3煥新版去掉毫米波雷達并不是減配,反而意味著純視覺方案已經(jīng)足夠成熟。 即使Model 3煥新版擁有先進的視覺測距算法,但在正式出廠前,每輛車都要經(jīng)歷嚴格的“視力測試”。只有當其8顆攝像頭完美通過標靶檢測,車輛才會進入下一階段的檢驗。 然而,僅僅依賴8個攝像頭對環(huán)境的精準捕捉,還不足以在Model 3煥新版的中控屏上生成3D實時地圖。這背后,還需要一個核心部件的支持——那就是車載芯片。 持續(xù)進化,視覺方案才是未來 人類實現(xiàn)實時駕駛依賴于眼睛和大腦的協(xié)同處理。如果將攝像頭比作Model 3煥新版的“視覺器官”,那么芯片則可視為其“智慧中樞”。 多數(shù)車企不愿嘗試視覺技術,認為視覺方案在霧天、暗夜等條件下存在缺陷,但特斯拉經(jīng)過一系列研究得出的結論是,視覺方案的不足主要源于AI算力不足和算法不夠精密。 在HW1.0、HW2.0和HW2.5硬件系統(tǒng)時代,特斯拉芯片來自不同的供應商。純視覺方案,本質上是將攝像頭上傳二維圖像結合AI算法,利用芯片還原成3D圖像。但很快特斯拉就發(fā)現(xiàn),供應商的芯片達不到純視覺方案對芯片算力和算法的要求。于是,以“科技狂魔”著稱的特斯拉再次走上了自研道路。 HW3.0開始,特斯拉旗下電動車搭載的就是特斯拉自研自產的FSD芯片,和其他芯片不一樣的是,F(xiàn)SD芯片既負責圖形處理、也負責數(shù)據(jù)處理和深度學習。 FSD芯片擁有強大的計算能力,高達600TOPS,而當時主流車企使用的英偉達AGX Xavier僅提供了30TOPS的性能。在圖像處理方面,F(xiàn)SD芯片也遙不可及,能夠達到每秒2100幀的處理速度,遠超其他供應商通常使用的17FPS浮點運算能力,這意味著它可以以每秒25億像素的超高速度處理8個攝像頭同時捕捉到的畫面,從而協(xié)助駕駛員實時觀察路況和車流。 特斯拉在算法方面也在不斷創(chuàng)新。早在2021年,特斯拉就提出了使用合成數(shù)據(jù)進行算法訓練的概念,例如合成高速公路上奔跑的行人、突然變道的車輛等等。而在2022年,特斯拉進一步推出了構建自動化仿真環(huán)境,用于算法的訓練和測試。不管是在視覺技術、算力還是算法方面,特斯拉都明顯領先于其他電動車制造公司。 目前的FSD芯片已經(jīng)研發(fā)到二代,即HW4.0芯片。Model 3煥新版目前搭載的就是4.0芯片,這一代芯片上,特斯拉開創(chuàng)了在車載領域使用 GDDR高級顯存的先河,而且是用了 16 顆,算力比HW3.0有 3-5 倍提升。 然而特斯拉并不滿足于此,“Tesla視覺神經(jīng)系統(tǒng)”還在持續(xù)升級。8月26日,馬斯克在社交網(wǎng)絡開啟了一場FSD Beta V12試駕直播。直播中,特斯拉輕松識別了各種道路標識。 遇到交叉路口時,特斯拉會主動停下來等待信號燈變化;前方有減速帶,特斯拉會自動減速慢行;遇到環(huán)形交叉路口,特斯拉甚至做出了轉彎行駛的動作。FSD Beta V12從頭到尾都是通過AI實現(xiàn)的,由視覺輸入,神經(jīng)網(wǎng)絡給出決策,就像人類大腦一樣。 FSD Beta V12整體還在升級調試,等到真正應用于車機的那一天,電動車純視覺方案必將迎來一次全面進化。 車主點贊,多次緊急避險 目前,Model 3煥新版升級成了純視覺方案,實際上,原版Model 3的“Tesla視覺神經(jīng)系統(tǒng)”就已經(jīng)有不俗的表現(xiàn)。 2022年懂車帝曾發(fā)起《輔助駕駛系統(tǒng)測試內容與評分》,“ 參賽選手”有特斯拉Modle 3、比亞迪漢、比亞迪海豹、長安深藍SL03和極氪001,其中Model 3的表現(xiàn)一騎絕塵,滿分通關十種真實駕駛場景,證明了“Tesla視覺神經(jīng)系統(tǒng)”的滿級實用性。 “Tesla視覺神經(jīng)系統(tǒng)”通過精準探測附近車輛,也多次幫助車主避險。 一位來自上海的Model S車主分享了自己的經(jīng)歷:他在機動車道以較快的車速正常行駛,前方突然出現(xiàn)一輛電動車在機動車道違章行駛,夜間視線不好,車主第一時間沒有反應過來,特斯拉憑借“Tesla視覺神經(jīng)系統(tǒng)”率先“看”到,并直接介入方向盤向左成功避讓,避免了一場嚴重追尾的事故。 在特斯拉之前,乘用車行業(yè)通常采用激光雷達為主的融合方案。然而,特斯拉的“Tesla視覺神經(jīng)系統(tǒng)”取得了巨大突破,將乘用車3D成像推向了一個新的階段。Model 3煥新版取消了毫米波雷達,選擇了純視覺方案,完全依靠卓越的算力和成熟的算法。毫無疑問,特斯拉在自動駕駛領域是絕對的領導者。特斯拉堅持第一性原理,將繼續(xù)秉承“零廣告投入,專注研發(fā)”的原則,讓更多的全球消費者能夠享受低碳、科技和智能化的電動車。 *聲明:上述內容及觀點,僅代表作者,與網(wǎng)上車市無關,如有來源錯誤或侵犯您的合法權益,可通過郵箱與我們聯(lián)系,郵箱地址:marong@cheshi.com |
|