日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

自動駕駛端到端時代,還會使用BEV和Transformer嗎?

智駕最前沿 ? 來源:智駕最前沿 ? 作者:智駕最前沿 ? 2026-04-23 09:08 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

[首發(fā)于智駕最前沿微信公眾號]在討論自動駕駛技術(shù)時,很多人容易產(chǎn)生一種誤解,認為端到端是一項孤立的新技術(shù),會完全取代BEV(鳥瞰圖)或Transformer,也有小伙伴曾在后臺留言詢問端到端模型還會使用BEV+Transformer嗎?

事實上,端到端并不是要推翻現(xiàn)有的感知架構(gòu),而是將原本各司其職的模塊,通過一種更高效、更具邏輯性的方式融合在一個龐大的神經(jīng)網(wǎng)絡(luò)里。BEV和Transformer依然是這套系統(tǒng)的眼睛和骨架,只是它們的工作方式發(fā)生了變革。

wKgZPGnpcO2ADSmKAAAQo00DEvw996.jpg

為什么空間感知依然是核心?

自動駕駛最基本的要求就是讓車輛知道自己在哪里,周圍有什么。雖然端到端模型可以直接輸出駕駛軌跡,但如果系統(tǒng)內(nèi)部沒有建立起準(zhǔn)確的空間模型,它給出的動作就會變得不可預(yù)測且缺乏邏輯。

BEV技術(shù)的核心價值在于它提供了一個統(tǒng)一的空間底座。它能將布置在車身四周的多個攝像頭采集到的圖像信息,實時投影到一個俯視的角度下。在這個角度里,物體之間的距離、車道的走向以及交叉口的布局,都變得和人類看地圖一樣直觀。

wKgZO2npcO6ASR8qAADfadUzXD0848.jpg

圖片源自:網(wǎng)絡(luò)

在目前的端到端方案中,BEV不再只是為了畫出漂亮的感知畫面供工程師查看。它的真實作用是作為特征容器。當(dāng)多路攝像頭的數(shù)據(jù)涌入模型時,系統(tǒng)會在這個統(tǒng)一的空間平面內(nèi)進行特征疊加。

這種做法解決了攝像頭視野重疊或遮擋的問題,讓模型在處理諸如大曲率彎道或復(fù)雜的城市路口時,能夠擁有一份連貫的空間記憶。如果缺少了這個空間視角,端到端模型就只能在混亂的像素中摸索,很難表現(xiàn)出穩(wěn)定的駕駛決策能力。

wKgZPGnpcO6AG6y0AAAR42n7O-I677.jpg

Transformer是如何連接時空的?

如果說BEV是舞臺,那么Transformer就是舞臺上的總導(dǎo)演,負責(zé)決定哪些信息該被保留,哪些信息該被重點關(guān)注。在端到端模型內(nèi)部,Transformer的注意力機制解決了感知中的一個痛點,如何把不同位置、不同時間的信息關(guān)聯(lián)起來。

wKgZO2npcO-AX7AmAACV9pp1n6Y307.jpg

圖片源自:網(wǎng)絡(luò)

通過這種機制,模型可以自主學(xué)習(xí)哪些畫面特征對當(dāng)前的駕駛?cè)蝿?wù)最重要。如在通過紅綠燈路口時,它會自動把權(quán)重分配給前方的信號燈和側(cè)方的行人,而不是路邊無關(guān)緊要的樹木。

更重要的是,現(xiàn)在的端到端模型非常依賴Transformer來處理時間序列。駕駛不是一個靜態(tài)的瞬間,而是一個連續(xù)的過程。Transformer能夠像人類的短期記憶一樣,把過去幾秒鐘的特征信息串聯(lián)起來。這讓模型具備了預(yù)測能力,即使遇到一個騎車人被路邊的公交車擋住了的場景,系統(tǒng)依然能通過之前的觀察記錄,推斷出這個人的大概位置和行進速度。這種對時空信息的深度整合,讓端到端模型在面對“鬼探頭”等極端場景時,反應(yīng)比純粹的規(guī)則算法更加靈敏且自然。

wKgZPGnpcO-ALCBhAAASG3BOmsQ078.jpg

神經(jīng)網(wǎng)絡(luò)內(nèi)部是怎么交流的?

傳統(tǒng)的自動駕駛架構(gòu)像是一條流水線,感知算完了給預(yù)測,預(yù)測算完了給規(guī)控。每一道工序都會把數(shù)據(jù)翻譯成如目標(biāo)物的坐標(biāo)、速度數(shù)值等人類能讀懂的格式。但在端到端模型中,這種交流變得更加高效。BEV和Transformer生成的特征,直接以高維向量的形式傳給下游。這種方式最大的進步在于避免了信息折損。

wKgZO2npcPCAZyn9AAB1w6K0N9k385.jpg

圖片源自:網(wǎng)絡(luò)

以往如果我們把一個異形物體誤識別成了電線桿,后面的規(guī)劃模塊就可能因為這個錯誤的標(biāo)簽而做出錯誤的規(guī)避。但在端到端系統(tǒng)里,即便模型叫不出那個物體的名字,它也能通過Transformer感知到那個位置的特征是不可通行的,從而直接計算出一條繞行的曲線。

這種從原始特征到駕駛行為的直接映射,省去了中間繁雜的人工規(guī)則定義,讓車輛在面對各種奇奇怪怪的路況時,表現(xiàn)得更像一個有經(jīng)驗的老司機,而不是只會按說明書干活的機器人。

wKgZPGnpcPCAeXFNAAASAJELks8343.jpg

未來的模型還會怎么變?

雖然現(xiàn)在的端到端模型高度依賴BEV和Transformer,但這套組合也在不斷進化。目前的趨勢是讓模型具備更強的世界感,很多技術(shù)方案也正在嘗試引入Occupancy(占用網(wǎng)絡(luò))的思想,讓模型不再關(guān)注具體的物體,而是關(guān)注空間中的每一個體積單位是否被占據(jù)。這種做法讓端到端模型在處理施工區(qū)域、散落物等不規(guī)則障礙物時,擁有了更高的魯棒性。

wKgZO2npcPGAZCZmAAE4H9lCoLQ053.jpg

圖片源自:網(wǎng)絡(luò)

此外,隨著多模態(tài)大模型的普及,端到端架構(gòu)也開始吸收語言和視覺大模型的經(jīng)驗。未來的系統(tǒng)可能不僅能看到路,還能通過類似Transformer的架構(gòu)去理解一些如識別出路邊交警的手勢、判斷出前方車輛突然減速的意圖等隱性的交通邏輯。

所以,BEV和Transformer并不會消失,它們反而在端到端的大趨勢下,從原本獨立的插件變成了系統(tǒng)神經(jīng)網(wǎng)絡(luò)中不可分割的神經(jīng)元,共同讓自動駕駛變得更加聰明。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 端到端
    +關(guān)注

    關(guān)注

    0

    文章

    52

    瀏覽量

    10865
  • 自動駕駛
    +關(guān)注

    關(guān)注

    795

    文章

    15011

    瀏覽量

    181706
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3797

    瀏覽量

    5278
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    為什么一段式自動駕駛很難落地?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)在過去十年中經(jīng)歷了從基礎(chǔ)輔助駕駛高度自動化系統(tǒng)的快速演進。在這一進程中,技術(shù)架構(gòu)的選擇始終是決定行業(yè)走向的核心命題。傳統(tǒng)的
    的頭像 發(fā)表于 03-08 09:44 ?1825次閱讀
    為什么一段式<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>很難落地?

    自動駕駛為什么會出現(xiàn)黑盒現(xiàn)象?

    自動駕駛領(lǐng)域,(End-to-End)是指從感知環(huán)境的原始數(shù)據(jù)車輛實際控制指令,全部交給一個統(tǒng)一的深度學(xué)習(xí)模型來完成。這和傳統(tǒng)的模
    的頭像 發(fā)表于 02-20 09:25 ?9589次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>為什么會出現(xiàn)黑盒現(xiàn)象?

    Transformer如何讓自動駕駛大模型獲得思考能力?

    在談及自動駕駛時,Transformer一直是非常關(guān)鍵的技術(shù),為何Transformer自動駕駛行業(yè)一直被提及?
    的頭像 發(fā)表于 02-01 09:15 ?4422次閱讀

    與模塊化自動駕駛的數(shù)據(jù)標(biāo)注要求有何不同?

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛技術(shù)路徑的每一次技術(shù)轉(zhuǎn)向,都伴隨著底層數(shù)據(jù)處理邏輯的徹底重構(gòu)。過去,智駕系統(tǒng)普遍依賴模塊化設(shè)計,將駕駛任務(wù)拆解為感知、預(yù)測、規(guī)控等獨立環(huán)節(jié);而今,以
    的頭像 發(fā)表于 01-27 09:48 ?1128次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>與模塊化<b class='flag-5'>自動駕駛</b>的數(shù)據(jù)標(biāo)注要求有何不同?

    如何訓(xùn)練好自動駕駛模型?

    [首發(fā)于智駕最前沿微信公眾號]最近有位小伙伴在后臺留言提問:算法是怎樣訓(xùn)練的?是模仿學(xué)習(xí)、強化學(xué)習(xí)和離線強化學(xué)習(xí)這三類嗎?其實
    的頭像 發(fā)表于 12-08 16:31 ?1626次閱讀
    如何訓(xùn)練好<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>模型?

    自動駕駛仿真與基于規(guī)則的仿真有什么區(qū)別?

    自動駕駛領(lǐng)域,“仿真”指的是將感知控制的整個決策鏈條視為一個整體,從而進行訓(xùn)練和驗證的思路。
    的頭像 發(fā)表于 11-02 11:33 ?1878次閱讀

    自動駕駛中常提的一段式(單段)是個啥?

    自動駕駛技術(shù)的發(fā)展,催生出技術(shù)的應(yīng)用,一段式
    的頭像 發(fā)表于 10-18 10:16 ?1894次閱讀

    西井科技自動駕駛模型獲得國際認可

    近日,西井科技AI創(chuàng)研團隊在國際權(quán)威自動駕駛算法榜單NAVSIM v2中脫穎而出,憑借創(chuàng)新的自動駕駛模型,以綜合得分48.759的成績
    的頭像 發(fā)表于 10-15 17:20 ?1469次閱讀

    一文讀懂特斯拉自動駕駛FSD從輔助的演進

    [首發(fā)于智駕最前沿微信公眾號]自動駕駛行業(yè)發(fā)展至今,特斯拉一直被很多企業(yè)對標(biāo),其FSD系統(tǒng)的每一次更新,都會獲得非常多人的關(guān)注。早期自動駕駛是一個分層的、由多模塊組成的系統(tǒng),感知、定位、預(yù)測、規(guī)劃
    的頭像 發(fā)表于 10-11 09:13 ?1168次閱讀
    一文讀懂特斯拉<b class='flag-5'>自動駕駛</b>FSD從輔助<b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>的演進

    自動駕駛大模型為什么會有不確定性?

    。為了能讓自動駕駛汽車做出正確、安全且符合邏輯的行駛動作,大模型被提了出來。
    的頭像 發(fā)表于 09-28 09:20 ?1046次閱讀
    <b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型為什么會有不確定性?

    自動駕駛相較傳統(tǒng)自動駕駛到底有何提升?

    各自專業(yè)模塊獨立承擔(dān),再通過預(yù)定的接口協(xié)議將信息有序傳遞。與之相對照,“”(end-to-end)自動駕駛以統(tǒng)一的大規(guī)模神經(jīng)網(wǎng)絡(luò)為核心,將從攝像頭、雷達、激光雷達等傳感器采集
    的頭像 發(fā)表于 09-02 09:09 ?1029次閱讀
    <b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>相較傳統(tǒng)<b class='flag-5'>自動駕駛</b>到底有何提升?

    Nullmax自動駕駛最新研究成果入選ICCV 2025

    近日,國際計算機視覺大會 ICCV 2025 正式公布論文錄用結(jié)果,Nullmax 感知團隊在自動駕駛方向的最新研究成果《HiP-AD: Hierarchical
    的頭像 發(fā)表于 07-05 15:40 ?2006次閱讀
    Nullmax<b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b><b class='flag-5'>自動駕駛</b>最新研究成果入選ICCV 2025

    為什么自動駕駛大模型有黑盒特性?

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)落地,(End-to-End)大模型也成為行業(yè)研究與應(yīng)用的熱門方向。相較于傳統(tǒng)自動駕駛
    的頭像 發(fā)表于 07-04 16:50 ?1050次閱讀
    為什么<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>大模型有黑盒特性?

    數(shù)據(jù)標(biāo)注方案在自動駕駛領(lǐng)域的應(yīng)用優(yōu)勢

    10-20TB,其中需要標(biāo)注的數(shù)據(jù)占比超過60%。在這樣的背景下,數(shù)據(jù)標(biāo)注方案應(yīng)運而生,正在重塑自動駕駛的數(shù)據(jù)生產(chǎn)范式。
    的頭像 發(fā)表于 06-23 17:27 ?1212次閱讀

    一文帶你厘清自動駕駛架構(gòu)差異

    [首發(fā)于智駕最前沿微信公眾號]隨著自動駕駛技術(shù)飛速發(fā)展,智能駕駛系統(tǒng)的設(shè)計思路也經(jīng)歷了從傳統(tǒng)模塊化架構(gòu)
    的頭像 發(fā)表于 05-08 09:07 ?1215次閱讀
    一文帶你厘清<b class='flag-5'>自動駕駛</b><b class='flag-5'>端</b><b class='flag-5'>到</b><b class='flag-5'>端</b>架構(gòu)差異
    郁南县| 石阡县| 佛冈县| 永修县| 望奎县| 长治市| 湘乡市| 遵义市| 长宁区| 鹤峰县| 屯留县| 海阳市| 灵璧县| 南开区| 靖江市| 新泰市| 和龙市| 右玉县| 获嘉县| 宝应县| 宜兰县| 霍林郭勒市| 凤山市| 兴宁市| 封丘县| 绥德县| 沛县| 资溪县| 芦溪县| 安徽省| 舒城县| 唐山市| 雅安市| 留坝县| 资兴市| 枣阳市| 教育| 商洛市| 长汀县| 曲阳县| 封丘县|