日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀(guān)看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為小米自動(dòng)駕駛Occupancy Network對(duì)決

佐思汽車(chē)研究 ? 來(lái)源:佐思汽車(chē)研究 ? 2024-04-28 14:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

2023年6月計(jì)算機(jī)視覺(jué)學(xué)術(shù)圈CVPR舉辦兩場(chǎng)自動(dòng)駕駛研討會(huì),一個(gè)是端到端自動(dòng)駕駛研討會(huì) (End-to-End Autonomous Driving Workshop),另一個(gè)是視覺(jué)中心自動(dòng)駕駛研討會(huì) (Vision-Centric Autonomous Driving Workshop)。由此又引出4項(xiàng)算法任務(wù)挑戰(zhàn)賽,其中:

第一項(xiàng)是OpenLane Topology即開(kāi)放路口車(chē)道線(xiàn)拓?fù)涫噶炕瘶?gòu)建,第一名是曠視,第二名是輕舟智航,理想L6自動(dòng)駕駛供應(yīng)商。第三名則是美國(guó)AMD,第四名是美團(tuán)。

第二項(xiàng)是在線(xiàn)高精度地圖繪制,第一名是曠視的自動(dòng)駕駛子公司邁馳智行,第二名是美國(guó)獨(dú)立研究者,第三名是上海交通大學(xué)。第十名是廣汽研究院。

第四項(xiàng)是nuPlan即自動(dòng)駕駛規(guī)劃,第一名是德國(guó)Tübingen大學(xué),第二名是地平線(xiàn),第三名是初創(chuàng)公司云驥智行。

第三項(xiàng)是最具價(jià)值的3D Occupancy network預(yù)測(cè),也就是特斯拉帶火的占用網(wǎng)絡(luò),共有149個(gè)團(tuán)隊(duì)參加比賽,其中不乏業(yè)內(nèi)巨頭,包括英偉達(dá)、小米、上汽、華為、海康威視。

bb01c242-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:https://opendrivelab.com/challenge2023/

占用網(wǎng)絡(luò)挑戰(zhàn)賽前10名,第一名有15000美元的獎(jiǎng)金。第四名到第十名可算第三梯隊(duì),差距很小。英偉達(dá)遙遙領(lǐng)先。韓國(guó)自動(dòng)駕駛初創(chuàng)公司42dot與小米可算第二梯隊(duì)。

比賽中使用的Occ數(shù)據(jù)集來(lái)自nuScenes,要求選手在僅使用圖像這個(gè)模態(tài)的情況下,對(duì)200x200x16的3D體素空間的占據(jù)情況進(jìn)行預(yù)測(cè),其中評(píng)價(jià)指標(biāo)采用mIoU,并且將僅對(duì)圖像中的可視范圍中的預(yù)測(cè)結(jié)果進(jìn)行評(píng)估。在比賽中,一共有兩個(gè)Baseline可供選擇,一個(gè)是官方提供的基于BEVFormer框架的實(shí)現(xiàn),另一個(gè)則是基于BEVDet框架實(shí)現(xiàn)的,也分別代表了在3D目標(biāo)檢測(cè)現(xiàn)在主流的兩個(gè)實(shí)現(xiàn)路線(xiàn),LSS和Transformer。兩種Baseline都將原來(lái)輸入檢測(cè)頭的特征,從BEV空間拉伸成200x200x16的3D體素空間,然后接上一個(gè)簡(jiǎn)單的語(yǔ)義分割頭,來(lái)對(duì)3D占據(jù)的結(jié)果進(jìn)行預(yù)測(cè)。

第一名英偉達(dá)的FB-OCC,其成功的關(guān)鍵還是大模型,英偉達(dá)使用了比較新的InterImage-H來(lái)作為他們的Backbone,而為了更好的應(yīng)用InterImage-H,作者還將其在原先在COCO的預(yù)訓(xùn)練基礎(chǔ)上,在object365上也進(jìn)行了預(yù)訓(xùn)練,使其更好的應(yīng)用在此任務(wù)上。InternImage-H參數(shù)多達(dá)10.8億個(gè),當(dāng)然大模型也不是想用就能用,太大的模型容易出現(xiàn)過(guò)擬合,且消耗運(yùn)算和存儲(chǔ)資源也較多。

最新2D圖像骨干網(wǎng)對(duì)比

bb0b591a-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:arxiv.org

上表中,特斯拉使用META的RegNet,參數(shù)為8400萬(wàn),消耗運(yùn)算資源很少,得分82.9也算不低,小米UniOcc使用META的ConvNeXt-B,參數(shù)8900萬(wàn),消耗運(yùn)算資源最少,得分83.8,華為RadOcc使用微軟的Swin-B,參數(shù)8800萬(wàn),相對(duì)ConvNeXt-B消耗運(yùn)算資源幾乎翻倍,得分83.5,略高。得分最高的是ConvNeXt-XL,高達(dá)87.8,參數(shù)3.5億個(gè),消耗運(yùn)算資源是Swin-B的十倍還多。

第二名是42dot,一家韓國(guó)初創(chuàng)公司,成功的關(guān)鍵也是大模型,其2D Backbone用了InterImage-XL,有3.35億參數(shù),3D Backbone用了微軟的Swin-V2-L,有30億參數(shù),但提升不大。

重點(diǎn)來(lái)看第三名的小米汽車(chē),論文題目為《UniOcc: Unifying Vision-Centric 3D Occupancy Prediction with Geometric and Semantic Rendering》,迄今為止在網(wǎng)上可以找到的小米汽車(chē)的三篇論文都是圍繞Occupancy來(lái)展開(kāi)的,足見(jiàn)小米對(duì)Occupancy的重視程度。

UniOcc框架

bb2e8b92-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:《UniOcc: Unifying Vision-Centric 3D Occupancy Prediction with Geometric and Semantic Rendering》

小米和接下來(lái)要說(shuō)到的華為都使用了比較新穎的知識(shí)蒸餾技術(shù),即教師學(xué)生模型,這是一種半監(jiān)督深度學(xué)習(xí)方式,最早由谷歌提出,發(fā)布于2015年3月,論文為《Distilling the Knowledge in a Neural Network》。知識(shí)蒸餾技術(shù)是一種模型壓縮方法,是一種基于Teacher-Student模型的訓(xùn)練方法。知識(shí)蒸餾(Knowledge Distillation),顧名思義就是將一個(gè)復(fù)雜的大模型的“知識(shí)”,蒸餾到一個(gè)簡(jiǎn)單的小模型中,比較類(lèi)似于教師(大模型)向?qū)W生(小模型)傳授(蒸餾)知識(shí)。這樣做主要是因?yàn)榇竽P筒渴鹌饋?lái)成本驚人,通常最低都是8張英偉達(dá)A100這樣的計(jì)算和存儲(chǔ)資源,成本最低也在5萬(wàn)美元以上,在車(chē)上完全不可能部署大模型,必須采用蒸餾模式。在Teacher-Student模型中通常有兩個(gè)階段:

① 教師模型訓(xùn)練:首先訓(xùn)練一個(gè)較大或復(fù)雜的教師模型,它通常具有更多的參數(shù)和復(fù)雜性,并能夠在訓(xùn)練數(shù)據(jù)上表現(xiàn)得更好。

② 學(xué)生模型訓(xùn)練:接著,使用教師模型的輸出作為輔助目標(biāo),指導(dǎo)較簡(jiǎn)化的學(xué)生模型進(jìn)行訓(xùn)練。學(xué)生模型嘗試去模仿教師模型的預(yù)測(cè)結(jié)果,以此來(lái)學(xué)習(xí)教師模型的“知識(shí)”。在訓(xùn)練學(xué)生模型時(shí),通常會(huì)利用教師模型的軟標(biāo)簽(soft labels)或教師模型的隱藏層表示(logits)作為額外的監(jiān)督信號(hào),結(jié)合有標(biāo)簽數(shù)據(jù)進(jìn)行訓(xùn)練。這個(gè)過(guò)程中,學(xué)生模型的目標(biāo)是盡量擬合教師模型的預(yù)測(cè)結(jié)果,并同時(shí)擬合真實(shí)的標(biāo)簽信息。

有些外行把軟標(biāo)簽(標(biāo)注,標(biāo)記)說(shuō)成是無(wú)標(biāo)簽,說(shuō)什么自動(dòng)駕駛數(shù)據(jù)集完全不需要標(biāo)簽了,這當(dāng)然是大錯(cuò)特錯(cuò),絕對(duì)的無(wú)標(biāo)簽無(wú)監(jiān)督深度學(xué)習(xí)永遠(yuǎn)不可能實(shí)現(xiàn),頂多是半監(jiān)督,硬標(biāo)簽是1或者0,沒(méi)有中間狀態(tài),軟標(biāo)簽則是連續(xù)分布的概率。軟標(biāo)簽可以用教師模型的SOFTMAX層輸出的類(lèi)別概率做為軟標(biāo)簽,某種意義上這可算是自動(dòng)生成的標(biāo)簽,無(wú)需人工添加。教師模型還是需要標(biāo)簽數(shù)據(jù),還是需要人工標(biāo)注。

小米的創(chuàng)新有三點(diǎn),一是使用NeRF的體渲染(volume rendering)來(lái)統(tǒng)一2D和3D表示監(jiān)督的通用解決方案,二是通過(guò)知識(shí)蒸餾做深度預(yù)測(cè)訓(xùn)練,三是用低成本的體渲染監(jiān)督學(xué)習(xí)代替成本高昂稀缺的3D占用網(wǎng)絡(luò)語(yǔ)義標(biāo)簽監(jiān)督學(xué)習(xí)。

NeRF神經(jīng)輻射場(chǎng),不同于傳統(tǒng)的三維重建方法把場(chǎng)景表示為點(diǎn)云、網(wǎng)格、體素等顯式的表達(dá),它獨(dú)辟蹊徑,將場(chǎng)景建模成一個(gè)連續(xù)的5D輻射場(chǎng)隱式存儲(chǔ)在神經(jīng)網(wǎng)絡(luò)中,只需輸入稀疏的多角度帶pose的圖像訓(xùn)練得到一個(gè)神經(jīng)輻射場(chǎng)模型,根據(jù)這個(gè)模型可以渲染出任意視角下的清晰的照片。通俗來(lái)講就是構(gòu)造一個(gè)隱式的渲染流程,其輸入是某個(gè)視角下發(fā)射的光線(xiàn)的位置o,方向d以及對(duì)應(yīng)的坐標(biāo)(x,y,z),送入神經(jīng)輻射場(chǎng)Fθ得到體密度和顏色,最后再通過(guò)體渲染得到最終的圖像。顯式是離散的表達(dá),不能精細(xì)化,導(dǎo)致重疊等偽影,耗費(fèi)內(nèi)存,限制了在高分辨率場(chǎng)景的應(yīng)用。隱式是連續(xù)的表達(dá),能夠適用于大分辨率的場(chǎng)景,而且不需要3D信號(hào)進(jìn)行監(jiān)督。

NeRF需要兩個(gè)MLP,一個(gè)負(fù)責(zé) Coarse,一個(gè)負(fù)責(zé) Fine,因此計(jì)算量比較大,存儲(chǔ)資源要求也比較高。自動(dòng)駕駛領(lǐng)域使用NeRF還是相當(dāng)少見(jiàn)的,因?yàn)樗倪\(yùn)算和存儲(chǔ)資源了,同時(shí)自動(dòng)駕駛的視角有限,一般是5個(gè)視角,想做好NeRF相當(dāng)困難。

小米的知識(shí)蒸餾DTS框架

bb56ffd2-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:《UniOcc: Unifying Vision-Centric 3D Occupancy Prediction with Geometric and Semantic Rendering》

小米的知識(shí)蒸餾DTS框架,在訓(xùn)練中使用visible masks,使用更強(qiáng)的預(yù)先訓(xùn)練的骨干,增加體素分辨率,以及實(shí)現(xiàn)Test-Time Augmentation(TTA)。大部分人都是使用英偉達(dá)的LSS算法獲得深度,小米的DTS可謂獨(dú)樹(shù)一幟。

第四名來(lái)自上汽AI LAB,其整體框架設(shè)計(jì)采用BEVDet的設(shè)計(jì)思路,主要提出利用多尺度信息來(lái)進(jìn)行訓(xùn)練和預(yù)測(cè)以及一種解耦頭的預(yù)測(cè)方法。論文異常簡(jiǎn)單,只有4頁(yè)。

上汽OCC架構(gòu)

bb763f28-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:上汽

最后來(lái)看華為的,華為由華為諾亞方舟實(shí)驗(yàn)室出面,諾亞方舟實(shí)驗(yàn)室是華為三級(jí)部門(mén),隸屬于中央研究院。內(nèi)地主要分布在北京、深圳、上海、西安。下面又分成很多組,比如計(jì)算視覺(jué)、終端視覺(jué)、自動(dòng)駕駛、網(wǎng)絡(luò)大腦、NLP等等。主要的工作內(nèi)容就是科研和落地,主要做前沿研究,之所以取名諾亞方舟就是說(shuō)當(dāng)華為出現(xiàn)大洪水那樣級(jí)別的災(zāi)難時(shí),諾亞方舟實(shí)驗(yàn)室的成果足以讓華為走出困境。

最初華為諾亞方舟并未提供論文,直到2023年底才提供論文,論文題目《RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering Assisted Distillation》華為論文換了Occ3D的測(cè)試數(shù)據(jù)集,最好成績(jī)高達(dá)55.09,比第一名英偉達(dá)還高,當(dāng)然不是一個(gè)測(cè)試數(shù)據(jù)集,沒(méi)辦法直接對(duì)比,但華為應(yīng)該在挑戰(zhàn)賽后還是做了不少改進(jìn)的地方。

華為也是采用知識(shí)蒸餾的教師學(xué)生模式。

華為RadOcc架構(gòu)

bb8e1814-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:《RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering Assisted Distillation》

華為RadOcc架構(gòu),思路和小米基本一致,也用了NeRF。教師網(wǎng)絡(luò)是多模態(tài)模型,而學(xué)生網(wǎng)絡(luò)僅需要相機(jī)輸入,無(wú)需激光雷達(dá)。兩個(gè)網(wǎng)絡(luò)的預(yù)測(cè)將用于通過(guò)可微分體渲染(differentiable volume rendering)生成渲染深度和語(yǔ)義。

bba9f264-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:《RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering Assisted Distillation》

現(xiàn)有的方法如圖a的是將特征或 logits 進(jìn)行對(duì)齊。RadOcc的核心思想是對(duì)教師模型和學(xué)生模型生成的渲染結(jié)果進(jìn)行對(duì)齊,如圖(b)所示。使用相機(jī)的內(nèi)參和外參對(duì)體素特征進(jìn)行體渲染Volume Rendering,能夠從不同的視點(diǎn)獲得相應(yīng)的深度圖和語(yǔ)義圖。為了實(shí)現(xiàn)渲染輸出之間更好的對(duì)齊,引入了新穎的渲染深度一致性(RDC)和渲染語(yǔ)義一致性(RSC)損失。一方面,RDC 損失強(qiáng)制光線(xiàn)分布(ray distribution)的一致性,這使得學(xué)生模型能夠捕獲數(shù)據(jù)的底層結(jié)構(gòu)。另一方面,RSC損失利用了視覺(jué)基礎(chǔ)模型的優(yōu)勢(shì),并利用預(yù)先提取的segment進(jìn)行affinity蒸餾。允許模型學(xué)習(xí)和比較不同圖像區(qū)域的語(yǔ)義表示,從而增強(qiáng)其捕獲細(xì)粒度細(xì)節(jié)的能力。

bbc3ebb0-0449-11ef-a297-92fbcf53809c.png

圖片來(lái)源:《RadOcc: Learning Cross-Modality Occupancy Knowledge through Rendering Assisted Distillation》

采用視覺(jué)基礎(chǔ)模型(VFM),即SAM,將segments提取到原始圖像中。對(duì)每個(gè)segment 中渲染的語(yǔ)義特征進(jìn)行segment聚合,獲得affinity matrix 。

自動(dòng)駕駛的理論基礎(chǔ)或者說(shuō)骨干被META、谷歌、英偉達(dá)和微軟這些巨頭壟斷,自動(dòng)駕駛算法公司能做的就是應(yīng)用層的微調(diào),大家的技術(shù)水平都差不多。另一方面理論基礎(chǔ)在沒(méi)有實(shí)現(xiàn)重大突破之前,自動(dòng)駕駛難有實(shí)質(zhì)性進(jìn)展。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀(guān)點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 華為
    +關(guān)注

    關(guān)注

    218

    文章

    36212

    瀏覽量

    262737
  • 小米
    +關(guān)注

    關(guān)注

    70

    文章

    14551

    瀏覽量

    152630
  • 自動(dòng)駕駛
    +關(guān)注

    關(guān)注

    795

    文章

    15012

    瀏覽量

    181720
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3797

    瀏覽量

    5280

原文標(biāo)題:華為小米對(duì)決自動(dòng)駕駛Occupancy Network

文章出處:【微信號(hào):zuosiqiche,微信公眾號(hào):佐思汽車(chē)研究】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自動(dòng)駕駛占用網(wǎng)絡(luò)還需要數(shù)據(jù)標(biāo)注嗎?

    [首發(fā)于智駕最前沿微信公眾號(hào)]在自動(dòng)駕駛領(lǐng)域,占據(jù)網(wǎng)絡(luò)(Occupancy Network,簡(jiǎn)稱(chēng)OCC)一直是近年來(lái)的熱點(diǎn)技術(shù)。不知道大家在了解占用網(wǎng)絡(luò)時(shí),是否會(huì)有這么一個(gè)想法,那就是既然占據(jù)網(wǎng)絡(luò)
    的頭像 發(fā)表于 04-17 08:53 ?424次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>占用網(wǎng)絡(luò)還需要數(shù)據(jù)標(biāo)注嗎?

    自動(dòng)駕駛中占據(jù)感知網(wǎng)絡(luò)是如何識(shí)別障礙物的?

    方式雖然直觀(guān),但在面對(duì)現(xiàn)實(shí)世界中千奇百怪的物體時(shí),就會(huì)顯得力不從心。為了解決這一問(wèn)題,占據(jù)感知網(wǎng)絡(luò)(Occupancy Network,簡(jiǎn)稱(chēng)OCC)技術(shù)逐漸成為行業(yè)主流。 為什么傳統(tǒng)的畫(huà)框方式不夠用了 在過(guò)去很長(zhǎng)一段時(shí)間里,自動(dòng)駕駛
    的頭像 發(fā)表于 04-15 09:37 ?245次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>中占據(jù)感知網(wǎng)絡(luò)是如何識(shí)別障礙物的?

    蘑菇車(chē)聯(lián)自動(dòng)駕駛巴士正式登陸新加坡

    3月,由蘑菇車(chē)聯(lián)(MOGOX)、比亞迪及MKX聯(lián)合打造的新一代L4級(jí)自動(dòng)駕駛巴士MOGOBUS抵達(dá)新加坡。作為新加坡首個(gè)自動(dòng)駕駛公交服務(wù)項(xiàng)目,該車(chē)將投入400路與191路公交線(xiàn)路運(yùn)營(yíng)——這一
    的頭像 發(fā)表于 04-14 17:43 ?2952次閱讀

    如何構(gòu)建適合自動(dòng)駕駛的世界模型?

    [首發(fā)于智駕最前沿微信公眾號(hào)]世界模型經(jīng)歷了系統(tǒng)動(dòng)力學(xué)階段(1960年~2000年)、認(rèn)知科學(xué)階段(2001年~2017年)、深度學(xué)習(xí)階段(2018年至今),但將其應(yīng)用到自動(dòng)駕駛汽車(chē)上,還是近幾年才
    的頭像 發(fā)表于 02-18 08:14 ?1.1w次閱讀
    如何構(gòu)建適合<b class='flag-5'>自動(dòng)駕駛</b>的世界模型?

    自動(dòng)駕駛汽車(chē)如何實(shí)現(xiàn)自動(dòng)駕駛

    人類(lèi)駕駛員而言是非常直觀(guān)且有效的指令,但對(duì)于自動(dòng)駕駛汽車(chē)來(lái)說(shuō),則意味著需要一套極其復(fù)雜的感知、理解與決策鏈路。 自動(dòng)駕駛如何看清文字? 自動(dòng)駕駛汽車(chē)感知漢字的第一步是場(chǎng)景文本識(shí)別技術(shù),
    的頭像 發(fā)表于 02-10 08:50 ?829次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>汽車(chē)如何實(shí)現(xiàn)<b class='flag-5'>自動(dòng)駕駛</b>

    如何設(shè)計(jì)好自動(dòng)駕駛ODD?

    為確定自動(dòng)駕駛的可使用范圍,會(huì)給自動(dòng)駕駛設(shè)置一個(gè)運(yùn)行設(shè)計(jì)域(Operational Design Domain,ODD)。ODD的作用就是用來(lái)明確自動(dòng)駕駛在什么情況下能工作,在什么情況下不能工作,給車(chē)設(shè)定“工作范圍”。
    的頭像 發(fā)表于 01-24 09:27 ?1814次閱讀

    不同等級(jí)的自動(dòng)駕駛技術(shù)要求上有何不同?

    談到自動(dòng)駕駛,不可避免地會(huì)涉及到自動(dòng)駕駛分級(jí),美國(guó)汽車(chē)工程師學(xué)會(huì)(SAE)根據(jù)自動(dòng)駕駛系統(tǒng)與人類(lèi)駕駛員參與駕駛行為程度的不同,將
    的頭像 發(fā)表于 10-18 10:17 ?2883次閱讀

    如何確保自動(dòng)駕駛汽車(chē)感知的準(zhǔn)確性?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛汽車(chē)想要自動(dòng)駕駛,首先要做的就是能對(duì)周邊環(huán)境實(shí)現(xiàn)精準(zhǔn)感知,也就是能“看”清道路,那自動(dòng)駕駛汽車(chē)如何在復(fù)雜、快速變化的道路環(huán)境中做到感知的精確又可靠? 自動(dòng)
    的頭像 發(fā)表于 08-23 15:06 ?1851次閱讀
    如何確保<b class='flag-5'>自動(dòng)駕駛</b>汽車(chē)感知的準(zhǔn)確性?

    自動(dòng)駕駛汽車(chē)是如何準(zhǔn)確定位的?

    [首發(fā)于智駕最前沿微信公眾號(hào)]隨著自動(dòng)駕駛技術(shù)的快速發(fā)展,車(chē)輛的精準(zhǔn)定位成為安全駕駛與路徑規(guī)劃的核心基礎(chǔ)。相比于傳統(tǒng)人類(lèi)駕駛依賴(lài)路標(biāo)和視覺(jué)判斷,自動(dòng)駕駛汽車(chē)需要在復(fù)雜多變的交通環(huán)境中,
    的頭像 發(fā)表于 06-28 11:42 ?1520次閱讀
    <b class='flag-5'>自動(dòng)駕駛</b>汽車(chē)是如何準(zhǔn)確定位的?

    卡車(chē)、礦車(chē)的自動(dòng)駕駛和乘用車(chē)的自動(dòng)駕駛在技術(shù)要求上有何不同?

    [首發(fā)于智駕最前沿微信公眾號(hào)]自動(dòng)駕駛技術(shù)的發(fā)展,讓組合輔助駕駛得到大量應(yīng)用,但現(xiàn)在對(duì)于自動(dòng)駕駛技術(shù)的宣傳,普遍是在乘用車(chē)領(lǐng)域,而對(duì)于卡車(chē)、礦車(chē)的自動(dòng)駕駛發(fā)展,卻鮮有提及。其實(shí)在卡車(chē)、
    的頭像 發(fā)表于 06-28 11:38 ?1852次閱讀
    卡車(chē)、礦車(chē)的<b class='flag-5'>自動(dòng)駕駛</b>和乘用車(chē)的<b class='flag-5'>自動(dòng)駕駛</b>在技術(shù)要求上有何不同?

    華為數(shù)據(jù)中心自動(dòng)駕駛網(wǎng)絡(luò)通過(guò)EANTC歐洲高級(jí)網(wǎng)絡(luò)測(cè)試中心L4級(jí)自智網(wǎng)絡(luò)測(cè)評(píng)

    Networking Test Center,簡(jiǎn)稱(chēng)“EANTC”)發(fā)布華為數(shù)據(jù)中心自動(dòng)駕駛網(wǎng)絡(luò)的自智網(wǎng)絡(luò)(Autonomous Network,簡(jiǎn)稱(chēng)“AN”)分級(jí)測(cè)評(píng)結(jié)果。此次測(cè)評(píng)結(jié)果顯示,
    的頭像 發(fā)表于 06-22 10:50 ?2238次閱讀
    <b class='flag-5'>華為</b>數(shù)據(jù)中心<b class='flag-5'>自動(dòng)駕駛</b>網(wǎng)絡(luò)通過(guò)EANTC歐洲高級(jí)網(wǎng)絡(luò)測(cè)試中心L4級(jí)自智網(wǎng)絡(luò)測(cè)評(píng)

    自動(dòng)駕駛安全基石:ODD

    電子發(fā)燒友網(wǎng)綜合報(bào)道 自動(dòng)駕駛ODD(Operational Design Domain)即設(shè)計(jì)運(yùn)行域,是指自動(dòng)駕駛系統(tǒng)被設(shè)計(jì)為安全、有效運(yùn)行的具體條件范圍。它定義了自動(dòng)駕駛汽車(chē)在哪些環(huán)境、場(chǎng)景
    的頭像 發(fā)表于 05-19 03:52 ?7072次閱讀
    蒙城县| 定日县| 隆回县| 宣汉县| 博白县| 唐山市| 晴隆县| 灯塔市| 驻马店市| 广西| 响水县| 南靖县| 武鸣县| 连平县| 洞口县| 独山县| 桑日县| 宁陵县| 安阳县| 巧家县| 闽侯县| 望奎县| 韩城市| 讷河市| 夏邑县| 兴城市| 南江县| 呼伦贝尔市| 同仁县| 宁强县| 余干县| 文安县| 安化县| 姚安县| 尼勒克县| 哈巴河县| 陵川县| 西昌市| 彰武县| 博白县| 观塘区|