日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

BEV+Transformer對(duì)智能駕駛硬件系統(tǒng)有著什么樣的影響?

佐思汽車研究 ? 來源:佐思汽車研究 ? 2023-02-16 17:14 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

31558bde-a926-11ed-bfe3-dac502259ad0.png

圖片來源:特斯拉

BEV+Transformer是目前智能駕駛領(lǐng)域最火熱的話題,沒有之一,這也是無人駕駛低迷期唯一的亮點(diǎn),BEV+Transformer徹底終結(jié)了2D直視圖+CNN時(shí)代,BEV+Transformer對(duì)智能駕駛硬件系統(tǒng)有著什么樣的影響?背后的受益者又是誰?

先說結(jié)論。首先受益者是視覺系統(tǒng)廠家,車輛至少要增加4-6個(gè)攝像頭,不過目前新興造車企業(yè)都已經(jīng)準(zhǔn)備好了這些硬件基礎(chǔ),此外需要6-8個(gè)加串行芯片,2-3個(gè)解串行芯片,加串行與解串行的市場(chǎng)基本被德州儀器ADI旗下的美信壟斷,美信獨(dú)占了中高端市場(chǎng),這些芯片價(jià)格隨著像素的上升也大幅度增加,數(shù)量也增加了,最終成本幾乎與主SoC一樣價(jià)格,讓ADI業(yè)績(jī)大漲。

其次是英偉達(dá)這樣的強(qiáng)大數(shù)據(jù)訓(xùn)練系統(tǒng)廠家,Transformer就是暴力美學(xué),參數(shù)量動(dòng)輒十億百億千億,萬億也不罕見,層數(shù)動(dòng)輒上千層,根本不是老舊數(shù)據(jù)訓(xùn)練中心能支撐的,需要大量購(gòu)買英偉達(dá)或AMD的上萬美元級(jí)的訓(xùn)練芯片。以前做訓(xùn)練的RTX3090,現(xiàn)在只能做推理用了。毫無疑問這讓研發(fā)成本暴增。

再次是存儲(chǔ)系統(tǒng),Transformer模型體積驚人,動(dòng)輒GB起,這需要芯片上的L2緩存大增,實(shí)際就是消耗大量的SRAM,對(duì)數(shù)據(jù)訓(xùn)練中心和嵌入式系統(tǒng)來說就是芯片價(jià)格暴漲,如果用不起昂貴的SRAM,數(shù)據(jù)中心這一級(jí)也要用HBM。對(duì)推理的嵌入式系統(tǒng)來說,HBM的價(jià)格太高,消費(fèi)級(jí)的汽車市場(chǎng)是無法接受的,只能退一步選擇LPDDR5或GDDR5/6,容量要大幅度增加,至少32GB起,成本自然也大幅增加。

最后是數(shù)據(jù)搜集和標(biāo)注,Transformer需要海量訓(xùn)練數(shù)據(jù),越多越好,意味著智能駕駛廠家需要更多的數(shù)據(jù)采集車,數(shù)據(jù)采集設(shè)備,更多的數(shù)據(jù)處理人員,研發(fā)成本暴增。2D直視圖+CNN時(shí)代廠家累積起來的研發(fā)成果化為烏有,很多事情都要從頭做起,意味著以前的研發(fā)成果貶值嚴(yán)重。最終這一切都轉(zhuǎn)換為消費(fèi)者頭上的成本,成本至少增加300%。

激光雷達(dá)和傳統(tǒng)AI芯片也將受到影響。首先是激光雷達(dá),BEV+Transformer讓純視覺更加強(qiáng)大,接近以前激光雷達(dá)制造BEV的效果,廠家都一窩蜂地?fù)肀EV+Transformer,冷落激光雷達(dá)。其次是推理用的AI芯片,之前的AI芯片大多是針對(duì)CNN的,對(duì)Transformer的適應(yīng)性會(huì)比較差,畢竟Transformer是源自自然語(yǔ)言處理(NLP)的,數(shù)據(jù)的串行性很顯著,并行性不佳,這需要AI芯片做出對(duì)應(yīng)的改變,并且是硬件上的改變,這可能意味著推倒重來,或者用更強(qiáng)的Host來對(duì)數(shù)據(jù)整形,也就是標(biāo)量運(yùn)算即CPU要加強(qiáng),Cortex-A55恐怕是無法勝任的。

再有原本智能駕駛AI專用芯片都特別針對(duì)INT8精度,但Transformer簡(jiǎn)單量化為8位后性能顯著下降,這主要是由于普通的激活函數(shù)量化策略無法覆蓋全部的取值區(qū)間。參數(shù)越多,量化后的效果就越差。引入BF16非常有必要,而以前設(shè)計(jì)的AI芯片大多沒考慮BF16。

我們來簡(jiǎn)單了解一下BEV+Transformer,基于多視角攝像頭的3D目標(biāo)檢測(cè)在鳥瞰圖下的感知(Bird's-eye-viewPerception, BEV Perception)吸引了越來越多的關(guān)注。一方面,將不同視角在BEV下統(tǒng)一表征是很自然的描述,方便后續(xù)規(guī)劃控制模塊任務(wù);另一方面,BEV下的物體沒有圖像視角下的尺度(scale)和遮擋(occlusion)問題。

目前BEV+Transformer算法對(duì)比都是基于nuScenes數(shù)據(jù)集的,因?yàn)槠溆?xùn)練數(shù)據(jù)最多,在小尺寸的Kitti上,Transformer表現(xiàn)不如CNN。

nuScenes與其他數(shù)據(jù)集的對(duì)比

3198988e-a926-11ed-bfe3-dac502259ad0.png

圖片來源:《nuScenes: A multimodal dataset for autonomous driving》

nuScenes是唯一有毫米波雷達(dá)的數(shù)據(jù)集。論文名稱《nuScenes:A multimodal dataset for autonomous driving》,這是智能駕駛領(lǐng)域最具影響力的數(shù)據(jù)集,完成于2019年3月,2020年7月推出nuScenes-lidarseg,nuTonomy提出的激光雷達(dá)點(diǎn)柱算法也是目前最常用的激光雷達(dá)算法。nuScenes-lidarseg則是激光雷達(dá)最完備的測(cè)試數(shù)據(jù)集,包含850個(gè)訓(xùn)練場(chǎng)景,150個(gè)測(cè)試場(chǎng)景,驚人的14億標(biāo)注點(diǎn),4萬點(diǎn)云幀,32級(jí)分類。nuScenes目前由安波福與現(xiàn)代汽車的合資公司Motional維護(hù)。

BEV+Transformer基本概念

31b61e5e-a926-11ed-bfe3-dac502259ad0.png

圖片來源:《BEVFormer: Learning Bird’s-Eye-View Representation from Multi-Camera Images via SpatiotemporalTransformers》

CNN時(shí)代,完全拋棄了時(shí)間序列,智能駕駛檢測(cè)的是圖片而非視頻,因此在靜止目標(biāo)識(shí)別方面要差很多,也很難定位目標(biāo)的具體位置,因?yàn)橐苿?dòng)目標(biāo)位置是變換的,需要加入時(shí)間序列變量。光流加入了時(shí)間序列變量,但是單目光流法效果很差,因?yàn)楣饬鞫际腔诹Ⅲw雙目或激光雷達(dá)發(fā)展而來的,特別是立體雙目,做光流尤其合適,奔馳是這方面的頂尖高手,開發(fā)了所謂6D視覺,其中光流就是另外3D的構(gòu)成,不僅能檢測(cè)目標(biāo)的速度,還能推斷目標(biāo)的時(shí)間序列位置。

Transformer與CNN最大不同就是加入了時(shí)序信息,而BEV是一個(gè)空間概念,BEV+Transformer就是時(shí)空融合,時(shí)序信息對(duì)于自動(dòng)駕駛感知任務(wù)十分重要,但現(xiàn)階段基于視覺的3D目標(biāo)檢測(cè)方法并沒有很好地利用上這一非常重要的信息。時(shí)序信息一方面可以作為空間信息的補(bǔ)充,來更好地檢測(cè)當(dāng)前時(shí)刻被遮擋的物體或者為定位物體的位置提供更多參考信息。另一方面就是對(duì)靜止目標(biāo)的處理更加快速高效。

對(duì)于每一個(gè)位于(x,y)位置的BEV特征,我們可以計(jì)算其對(duì)應(yīng)現(xiàn)實(shí)世界的坐標(biāo) x',y'。然后我們將BEV query進(jìn)行l(wèi)ift操作,獲取在z軸上的多個(gè)3D points。有了3D points,就能夠通過相機(jī)內(nèi)外參獲取3Dpoints在view平面上的投影點(diǎn)。受到相機(jī)參數(shù)的限制,每個(gè)BEV query一般只會(huì)在1-2個(gè)view上有有效的投影點(diǎn)。

基于Deformable Attention,我們以這些投影點(diǎn)作為參考點(diǎn),在周圍進(jìn)行特征采樣,BEV query使用加權(quán)的采樣特征進(jìn)行更新,從而完成了spatial空間的特征聚合。將BEV特征視為類似能夠傳遞序列信息的memory。每一時(shí)刻生成的BEV特征都從上一時(shí)刻的BEV特征獲取了所需的時(shí)序信息,這樣保證能夠動(dòng)態(tài)獲取所需的時(shí)序特征,而非像堆疊不同時(shí)刻BEV特征那樣只能獲取定長(zhǎng)的時(shí)序信息。

Transformer會(huì)瘋狂消耗內(nèi)存,內(nèi)存容量與輸入序列長(zhǎng)度的平方成正比,與批大小成線性比例。一個(gè)vocab Embedding 的shape是(50304, 5120)。而對(duì)于每個(gè)parameter來說,其需要存儲(chǔ):來自于FP32的weight以及Adam的(Embedding也是Adam更新),來自于前向時(shí)FP16的weight。注意,此處沒有g(shù)rad的計(jì)算,因?yàn)镋mbedding layer的grad通常占用的很小,不像MatMul一樣。最終結(jié)果是3.6GB,每一層Transformer Encoder Model States消耗約6GB,Activation的batch_size每增加1消耗約1GB,Vocab Embedding Layer模型權(quán)重約消耗3.6GB。這是理論值,實(shí)際值比這大得多。

對(duì)于深度學(xué)習(xí)或者說人工智能運(yùn)算,瓶頸就在存儲(chǔ)器,最簡(jiǎn)單的解決辦法就是用HBM3內(nèi)存,HBM就是高寬帶。

32630916-a926-11ed-bfe3-dac502259ad0.jpg

圖片來源:SK Hynix

高性能AI芯片必用HBM,而HBM有三個(gè)缺點(diǎn),一是價(jià)格昂貴,每GB成本大約20-40美元,至少8GB起售;二是必須使用2.5D封裝,成本進(jìn)一步增加;三是功耗增加不少。

HBM的成本還不是最高的,最高的成本是SRAM,也就是L2緩存,無論是訓(xùn)練還是推理,都要用到,容量越大越好,它的速度比HBM要高許多,成本要高更多。AI芯片當(dāng)然要用先進(jìn)工藝,臺(tái)積電N4即4納米工藝,這種工藝如果做SRAM并不會(huì)提高密度,4N工藝下每MB的SRAM成本大約40-50美元,也有人估計(jì)是近100美元。

現(xiàn)在我們來構(gòu)建一套BEV+Transformer,首選至少需要新增6個(gè)攝像頭,為什么不能用360環(huán)視的攝像頭,很簡(jiǎn)單,360環(huán)視用的都是魚眼鏡頭,水平FOV一般是195度,其有效距離一般不超過5米,大部分都是在3米甚至2米內(nèi)。做BEV至少需要20米的側(cè)向有效距離。此外,360環(huán)視攝像頭的安裝高度偏低,做BEV,高度越高越好,最好是車頂。

32746026-a926-11ed-bfe3-dac502259ad0.png

圖片來源:特斯拉

特斯拉是8個(gè)攝像頭,前面3個(gè),F(xiàn)OV分別是35度、50度、120度,側(cè)方A柱和B柱各2個(gè),前側(cè)攝像頭的FOV據(jù)說是90度,后側(cè)攝像頭的FOV推測(cè)是80度,后攝像頭FOV推測(cè)是130度,像素都是130萬像素。2023或2024年的HW4.0是7個(gè),前面從三個(gè)變成兩個(gè),35度FOV的攝像頭取消,50度FOV的攝像頭像素增加到536萬,就是索尼的IMX490做傳感器,其余6個(gè)攝像頭升級(jí)為200萬像素。

攝像頭的有效距離與像素?cái)?shù)、安裝高度成正比,與水平FOV成反比。中國(guó)車特別是新興造車勢(shì)力一貫采用800萬像素。因此800萬像素?cái)z像頭6個(gè),像素比較高,F(xiàn)OV就可以寬一點(diǎn),側(cè)向和后向都用120度,前向還是45度或50度。這需要8個(gè)加串行芯片,一般是MAX9295,4個(gè)解串行芯片,一般是MAX9296或MAX96712,MAX96712目前非常火爆,2倍甚至3倍高價(jià)都拿不到貨。光這12個(gè)解串行芯片估計(jì)就要近150美元,差不多1000人民幣。

處理器系統(tǒng),運(yùn)算量巨大,非4個(gè)頂配Orin莫屬,僅此一項(xiàng)大約1200美元。理論上算力足夠了,但實(shí)際瓶頸在存儲(chǔ),需要強(qiáng)大的存儲(chǔ)器,GDDR6或LPDDR5是首選。

32b7fd86-a926-11ed-bfe3-dac502259ad0.png

圖片來源:STH

DDR5性能提升不少,如上圖,英偉達(dá)頂配Orin推薦的是64GB的256bit LPDDR5,帶寬有204.8GB/s。4個(gè)Orin需要256GBLPDDR5,目前48GB LPDDR4報(bào)價(jià)是35美元,256GB LPDDR5估計(jì)要200美元。GDDR6價(jià)格會(huì)更高,估計(jì)要300美元。

BEV+Transformer的根源是特斯拉,特斯拉自然是不用激光雷達(dá)的。迄今為止,研究BEV+Transformer的絕大部分都是純視覺,Waymo、地平線和國(guó)內(nèi)的毫末智行加入了激光雷達(dá)。與攝像頭比,線數(shù)再高的激光雷達(dá)都是稀疏點(diǎn)云數(shù)據(jù),兩者的query特征差別較大,雖然說BEV更適合傳感器前融合,但激光雷達(dá)的作用明顯弱化,核心還是攝像頭,純視覺與加了激光雷達(dá)的傳感器高級(jí)融合,實(shí)際差別不大,這與激光雷達(dá)領(lǐng)域大量使用點(diǎn)柱算法也有關(guān)系,激光雷達(dá)的深度信息完全沒有發(fā)揮,等于是一個(gè)能在黑夜工作的加強(qiáng)版的攝像頭。反倒是那些8線或16線甚至4線的激光雷達(dá)效果更好。

再來看AI芯片,目前智能駕駛領(lǐng)域的AI芯片都是以CNN為核心的,基本都是設(shè)計(jì)針對(duì)INT8即整數(shù)8位精度的,在Transformer時(shí)代很難有所作為,需要重新設(shè)計(jì),且重要性下降,與GPU比差距拉大了。最關(guān)鍵一點(diǎn),時(shí)間序列是矢量,Transformer是浮點(diǎn)矢量矩陣乘法累加運(yùn)算,浮點(diǎn)運(yùn)算與整數(shù)運(yùn)算差異巨大,GPU最初就是專門為浮點(diǎn)運(yùn)算而生的。AI推理專用芯片幾乎都不考慮浮點(diǎn)運(yùn)算。AI芯片做浮點(diǎn)運(yùn)算時(shí),效率會(huì)直線下降。

Swin Transformer的模型結(jié)構(gòu)

32cdaeb0-a926-11ed-bfe3-dac502259ad0.png

圖片來源:《MaxViT: Multi-Axis VisionTransformer》

從圖上就能看出其采用了4*4卷積矩陣,而CNN是3*3,這就意味著目前的AI芯片有至少33%的效率下降。再者就是其是矢量與矩陣的乘法,這會(huì)帶來一定的浮點(diǎn)矢量運(yùn)算。假設(shè)高和寬都為112,窗口大小為7,C為128,那么未優(yōu)化的浮點(diǎn)計(jì)算是:4*112*112*128*128+2*112*112*112*112*128=41GFLOP/s。大部分AI芯片如特斯拉的FSD和谷歌的TPU,未考慮這種浮點(diǎn)運(yùn)算。不過華為和高通都考慮到了,英偉達(dá)就更不用說了,GPU天生就是針對(duì)浮點(diǎn)運(yùn)算的。

英偉達(dá)在新一代GPU中特別增加了Transformer引擎,Transformer引擎的秘訣在于它能夠在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的每個(gè)步驟中動(dòng)態(tài)選擇神經(jīng)網(wǎng)絡(luò)中每一層所需的精度。最不精確的單元,即8位浮點(diǎn),可以加快計(jì)算速度,但如果這是下一層所需的精度,則可以為下一層生成16位或32位和。不過,Hopper更進(jìn)一步。

它的8浮點(diǎn)單元可以使用兩種形式的8位數(shù)字中的任何一種進(jìn)行矩陣數(shù)學(xué)運(yùn)算。標(biāo)準(zhǔn)的16位浮點(diǎn)格式(IEEE 754-2008)需要5位指數(shù)和10位尾數(shù)以及符號(hào)位。為了減少數(shù)據(jù)存儲(chǔ)要求和加速機(jī)器學(xué)習(xí),英偉達(dá)和谷歌更喜歡bfloat-16,它用三位尾數(shù)換取一個(gè)附加指數(shù),使其范圍與32位數(shù)字相同。

bf16是最適合Transformer的格式。英偉達(dá)的Transformer引擎可以協(xié)調(diào)動(dòng)態(tài)范圍和準(zhǔn)確度,比如浮點(diǎn)8位,大動(dòng)態(tài)范圍可以使用5位指數(shù)和2位尾數(shù)(E5M2),或者當(dāng)精度是關(guān)鍵時(shí),可以使用4位指數(shù)和3位尾數(shù)(E4M3)。

CNN的權(quán)重模型通常不超過20MB,而Transformer則輕松超過1000MB也就是1GB。以前CNN時(shí)代,AI芯片還可以勉強(qiáng)放下權(quán)重模型,而Transformer時(shí)代則絕無可能,存儲(chǔ)器的重要性進(jìn)一步上升,AI芯片的地位下降,GPU的優(yōu)勢(shì)更加明顯。

不僅是智能駕駛,所謂AI的發(fā)展方向就是模型體積越來越龐大,參數(shù)量越來越多,就像劣幣驅(qū)逐良幣一樣,這樣硬件會(huì)不斷迭代,成本也會(huì)越來越高。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 激光雷達(dá)
    +關(guān)注

    關(guān)注

    982

    文章

    4560

    瀏覽量

    197194
  • SRAM編程
    +關(guān)注

    關(guān)注

    0

    文章

    2

    瀏覽量

    6068
  • HBM
    HBM
    +關(guān)注

    關(guān)注

    2

    文章

    435

    瀏覽量

    15887
  • LPDDR5
    +關(guān)注

    關(guān)注

    2

    文章

    98

    瀏覽量

    13399
  • 智能駕艙
    +關(guān)注

    關(guān)注

    0

    文章

    20

    瀏覽量

    4108

原文標(biāo)題:BEV+Transformer對(duì)無人駕駛硬件體系的巨大改變

文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電子工程師視角下的SAFETY ISOLATING TRANSFORMER

    TRANSFORMER(安全隔離變壓器),型號(hào)為44087 EI30x12.5,來自myrra,它在保障設(shè)備安全運(yùn)行方面有著出色的表現(xiàn)。 文件下載: 44087.pdf 二、關(guān)鍵參數(shù)分析 功率與電壓 該變壓器的功率為
    的頭像 發(fā)表于 04-08 16:20 ?120次閱讀

    FT 5000 Smart Transceiver與FT - X3 Communications Transformer智能網(wǎng)絡(luò)新選擇

    FT 5000 Smart Transceiver與FT - X3 Communications Transformer智能網(wǎng)絡(luò)新選擇 在智能網(wǎng)絡(luò)的發(fā)展進(jìn)程中,設(shè)備的性能、成本和兼容性是工程師們
    的頭像 發(fā)表于 03-31 09:10 ?165次閱讀

    Transformer如何讓自動(dòng)駕駛大模型獲得思考能力?

    在談及自動(dòng)駕駛時(shí),Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer在自動(dòng)駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4425次閱讀

    自動(dòng)駕駛BEV Camera數(shù)據(jù)采集系統(tǒng):高精度時(shí)間同步解決方案

    1 自動(dòng)駕駛數(shù)據(jù)采集的時(shí)間同步挑戰(zhàn)與重要性 隨著自動(dòng)駕駛技術(shù)的快速發(fā)展,車輛準(zhǔn)確感知周圍環(huán)境的能力變得至關(guān)重要。在分布式多傳感器系統(tǒng)中,信號(hào)從創(chuàng)建到存儲(chǔ)會(huì)歷經(jīng)多個(gè)軟件模塊和系統(tǒng),產(chǎn)生傳
    的頭像 發(fā)表于 12-11 17:11 ?1495次閱讀
    自動(dòng)<b class='flag-5'>駕駛</b><b class='flag-5'>BEV</b> Camera數(shù)據(jù)采集<b class='flag-5'>系統(tǒng)</b>:高精度時(shí)間同步解決方案

    自動(dòng)駕駛BEV Camera數(shù)據(jù)采集:時(shí)間同步技術(shù)解析與康謀解決方案

    一、自動(dòng)駕駛傳感器融合中的時(shí)間同步重要性 在自動(dòng)駕駛感知體系中,BEV(Bird's-Eye-View,鳥瞰圖)感知技術(shù)憑借尺度變化小、視角遮擋少的優(yōu)勢(shì),成為環(huán)境感知的核心技術(shù)方向。BEV
    的頭像 發(fā)表于 12-11 16:36 ?1177次閱讀
    自動(dòng)<b class='flag-5'>駕駛</b><b class='flag-5'>BEV</b> Camera數(shù)據(jù)采集:時(shí)間同步技術(shù)解析與康謀解決方案

    Transformer如何讓自動(dòng)駕駛變得更聰明?

    ]自動(dòng)駕駛中常提的Transformer本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),最早在自然語(yǔ)言處理里火起來。與卷積神經(jīng)網(wǎng)絡(luò)(CNN)或循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)不同,Transformer能夠自動(dòng)審視所有輸入信息,并動(dòng)態(tài)判斷哪些部分更為關(guān)鍵,同時(shí)
    的頭像 發(fā)表于 11-19 18:17 ?2487次閱讀

    賦能 BEV 感知課題!高??蒲卸鄠鞲衅鲿r(shí)間同步方案

    在高校自動(dòng)駕駛實(shí)驗(yàn)室里,團(tuán)隊(duì)可能常以BEV(Bird’s-EyeView)感知架構(gòu)為研究主線。旨在通過相機(jī)陣列和激光雷達(dá)的數(shù)據(jù),在空間上重建統(tǒng)一的車周環(huán)境,為下游檢測(cè)、分割提供高精度“語(yǔ)義地圖”。然而,一旦相機(jī)間的時(shí)間同步存在幾十毫秒及以上的
    的頭像 發(fā)表于 11-14 17:32 ?3094次閱讀
    賦能 <b class='flag-5'>BEV</b> 感知課題!高??蒲卸鄠鞲衅鲿r(shí)間同步方案

    車載判斷系統(tǒng)智能駕駛的安全基石

    秒。 在現(xiàn)代汽車工業(yè)中,車載判斷系統(tǒng)已成為智能駕駛的核心組成部分,它通過先進(jìn)的傳感器和人工智能技術(shù),讓汽車擁有了感知、分析和決策的能力。 這些系統(tǒng)
    的頭像 發(fā)表于 11-14 15:19 ?366次閱讀

    智能駕駛的“感官系統(tǒng)”:超聲波雷達(dá)、毫米波雷達(dá)與激光雷達(dá)的協(xié)同之道

    智能駕駛技術(shù)飛速發(fā)展的今天,汽車已不再是單純的交通工具,而是具備感知、決策與執(zhí)行能力的“移動(dòng)智能體”。要實(shí)現(xiàn)自動(dòng)駕駛,車輛必須像人類一
    的頭像 發(fā)表于 11-04 17:43 ?1565次閱讀
    <b class='flag-5'>智能</b><b class='flag-5'>駕駛</b>的“感官<b class='flag-5'>系統(tǒng)</b>”:超聲波雷達(dá)、毫米波雷達(dá)與激光雷達(dá)的協(xié)同之道

    奔馳攜手Momenta打造新一代智能輔助駕駛

    9月25日,梅賽德斯-奔馳與Momenta正式聯(lián)合宣布,基于Momenta飛輪大模型,雙方聯(lián)合研發(fā)的智能駕駛輔助系統(tǒng)即將發(fā)布,并率先搭載于今秋上市的國(guó)產(chǎn)全新純電CLA車型。該系統(tǒng)具備強(qiáng)
    的頭像 發(fā)表于 09-30 17:41 ?3882次閱讀

    中科慧眼高級(jí)智能輔助駕駛系統(tǒng)再獲雙定點(diǎn)

    近日,中科慧眼高級(jí)智能輔助駕駛系統(tǒng)接連斬獲兩個(gè)商用車主機(jī)廠量產(chǎn)定點(diǎn),充分彰顯中科慧眼在商用車高級(jí)智能輔助駕駛領(lǐng)域的領(lǐng)先地位。
    的頭像 發(fā)表于 09-05 17:57 ?1119次閱讀

    自動(dòng)駕駛Transformer大模型會(huì)取代深度學(xué)習(xí)嗎?

    持續(xù)討論。特別是在自動(dòng)駕駛領(lǐng)域,部分廠商開始嘗試將多模態(tài)大模型(MLLM)引入到感知、規(guī)劃與決策系統(tǒng),引發(fā)了“傳統(tǒng)深度學(xué)習(xí)是否已過時(shí)”的激烈爭(zhēng)論。然而,從技術(shù)原理、算力成本、安全需求與實(shí)際落地路徑等維度來看,Transformer
    的頭像 發(fā)表于 08-13 09:15 ?4392次閱讀
    自動(dòng)<b class='flag-5'>駕駛</b>中<b class='flag-5'>Transformer</b>大模型會(huì)取代深度學(xué)習(xí)嗎?

    紅燈謎局:誰綁架了輔助駕駛的“跟車靈魂”?#ACC #智能駕駛 #ADAS

    智能駕駛
    北匯信息POLELINK
    發(fā)布于 :2025年08月06日 13:46:34

    寶馬攜手Momenta共研中國(guó)專屬智能駕駛輔助系統(tǒng) 躋身智能駕駛體驗(yàn)第一梯隊(duì)

    更貼近中國(guó)用戶:專為中國(guó)深度定制的智能駕駛輔助系統(tǒng),功能覆蓋高速及城區(qū)道路,全場(chǎng)景、點(diǎn)到點(diǎn),AI大模型賦能,一體化感知決策與自進(jìn)化升級(jí) 安全機(jī)制完備:新一代系統(tǒng)在設(shè)計(jì)上融入了寶馬20余
    的頭像 發(fā)表于 07-15 14:28 ?494次閱讀
    寶馬攜手Momenta共研中國(guó)專屬<b class='flag-5'>智能</b><b class='flag-5'>駕駛</b>輔助<b class='flag-5'>系統(tǒng)</b> 躋身<b class='flag-5'>智能</b><b class='flag-5'>駕駛</b>體驗(yàn)第一梯隊(duì)

    淺析4D-bev標(biāo)注技術(shù)在自動(dòng)駕駛領(lǐng)域的重要性

    感知領(lǐng)域的一項(xiàng)突破性創(chuàng)新,通過引入時(shí)間維度與全局視角,為自動(dòng)駕駛系統(tǒng)提供了高精度、多模態(tài)的時(shí)空真值數(shù)據(jù),重塑了自動(dòng)駕駛系統(tǒng)的開發(fā)范式。 4D-BEV
    的頭像 發(fā)表于 06-12 16:10 ?2898次閱讀
    酒泉市| 博湖县| 太和县| 合山市| 吕梁市| 洪江市| 水城县| 台北县| 敦化市| 吉林省| 青河县| 淅川县| 沈丘县| 长顺县| 永胜县| 黄浦区| 松滋市| 晋城| 陈巴尔虎旗| 新邵县| 甘泉县| 府谷县| 丹巴县| 奉节县| 新巴尔虎右旗| 札达县| 白水县| 砀山县| 河北区| 道孚县| 蒲江县| 青河县| 丰顺县| 赣榆县| 神农架林区| 贞丰县| 珲春市| 抚顺县| 绥棱县| 胶州市| 开平市|