日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

第33屆AAAI 2019在美國夏威夷召開,百度共有15篇論文被收錄

電子工程師 ? 來源:lq ? 2019-02-11 10:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1月27日,第33屆 AAAI(AAAI 2019)在美國夏威夷召開,其中百度共有15篇論文被收錄。

AAAI于1979年成立,是國際人工智能領(lǐng)域的頂級(jí)國際會(huì)議。這一協(xié)會(huì)如今在全球已有超過6000名的會(huì)員,匯集了全球最頂尖的人工智能領(lǐng)域?qū)<覍W(xué)者,一直是人工智能界的研究風(fēng)向標(biāo),在學(xué)術(shù)界久負(fù)盛名。

本屆大會(huì)共收到7700余篇有效投稿,其中7095篇論文進(jìn)入評審環(huán)節(jié),最終有1150篇論文被錄用,錄取率為近年最低僅為16.2%。百度共獲得15篇論文被收錄的成績。其中有5位作者受邀在主會(huì)做 Oral 形式報(bào)告,另有10位作者將攜論文在主會(huì)以 Spotlight Poster 形式做報(bào)告。

在百度此次收錄的15篇論文中,內(nèi)容涉及智能出行、機(jī)器學(xué)習(xí)、視頻建模、無人駕駛、自然語言處理、智能醫(yī)療等多個(gè)領(lǐng)域。

自然語言處理領(lǐng)域

百度這次被AAAI收錄的論文《Modeling Coherence for Discourse Neural Machine Translation》,提出了一種篇章級(jí)別的翻譯模型,能夠使得篇章內(nèi)的句子之間保持良好的連貫性和一致性。這是由于翻譯一些文檔、演講之類的文本時(shí),通常需要慮句子之間的銜接性和連貫性。而傳統(tǒng)的翻譯模型通常都是將一個(gè)句子當(dāng)做單獨(dú)的翻譯單元,忽視了句子之間的關(guān)聯(lián)性。

具體來說,該論文提出了一種多輪解碼方案,在第一輪解碼中單獨(dú)生成每個(gè)句子的初步翻譯結(jié)果,在第二輪解碼中利用第一輪翻譯的結(jié)果進(jìn)行翻譯內(nèi)容潤色,并且提出使用增強(qiáng)式學(xué)習(xí)模型來獎(jiǎng)勵(lì)模型產(chǎn)生篇幅更一致的譯文。最終在演講文本的測試集合上,論文提出的模型不僅能夠提升句子級(jí)別1.23 BLEU,同時(shí)能夠提升篇章級(jí)別2.2 BLEU。通過實(shí)驗(yàn)分析,本文提出的翻譯模型確實(shí)能產(chǎn)生篇章更加連貫和一致的句子。

此模型是基于 Transformer 模型設(shè)計(jì)的。首先,訓(xùn)練流程中的一個(gè) batch 為一篇文章中的所有句子,在第一輪解碼中,采用標(biāo)準(zhǔn)的 Transformer 模型生成單個(gè)句子的初步翻譯結(jié)果。在第二輪解碼中,將第一輪產(chǎn)生的譯文合并成一個(gè)句子,構(gòu)成此篇章翻譯的參考譯文。同時(shí)將初步翻譯結(jié)果作為一個(gè)額外的 Multi-Head Attention 機(jī)制,加入到 Decoder 的解碼流程中。通過這個(gè)步驟,在第二輪解碼的過程中,在翻譯單個(gè)句子時(shí),能夠考察其他句子可能產(chǎn)生的翻譯結(jié)果,進(jìn)而調(diào)整當(dāng)前句子的文本輸出概率,盡量使得翻譯結(jié)果更一致。最終利用 Self-critical 的學(xué)習(xí)機(jī)制,鼓勵(lì)模型生成篇章一致性的譯文。值得一提的是,不僅僅是第二輪解碼中可以使用增強(qiáng)式學(xué)習(xí)機(jī)制,在第一輪解碼中也可以鼓勵(lì)模型產(chǎn)生更一致的譯文。

本文首次在學(xué)術(shù)和工業(yè)界提出解決神經(jīng)網(wǎng)絡(luò)翻譯中的篇章一致性和連貫性問題,并且提出了一種通用的解碼框架,通過多輪解碼和增強(qiáng)式學(xué)習(xí)策略,使得模型能產(chǎn)生良好的篇章連貫和一致性的譯文。同時(shí),本文還提出了若干評估篇章連貫和一致性的評價(jià)方法,有利于促進(jìn)相關(guān)的研究工作發(fā)展。

目前的在線翻譯引擎基本都是針對單個(gè)句子進(jìn)行解碼翻譯,并不能保證一篇文章翻譯出來后句子之間有很好的連貫性,采用本文提出的方法,能夠使得篇章級(jí)別的翻譯文本閱讀起來更流暢,句子之間的連貫性更好。

無人車駕駛領(lǐng)域

為了能在復(fù)雜的城市交通中安全有效地行駛,無人車必須對周圍交通體(機(jī)動(dòng)車,自行車,行人等等)的行為軌跡做出可靠的預(yù)測。一個(gè)十分重要又具有挑戰(zhàn)性的任務(wù)就是探索各種各樣的交通體的不同的行為特征并能對它們做出及時(shí)準(zhǔn)確的預(yù)測,進(jìn)而幫助無人車做出合理的行駛決策。

為了解決這個(gè)問題,《TrafficPredict: Trajectory Prediction for Heterogeneous Traffic-Agents》的作者提出了基于 LSTM 的路徑預(yù)測算法 TrafficPredict。他們的方法是用實(shí)例層來學(xué)習(xí)個(gè)體的運(yùn)動(dòng)規(guī)律和它們之間的交互,用類別層來學(xué)習(xí)同一類別的個(gè)體的運(yùn)動(dòng)的相似性,從而進(jìn)一步優(yōu)化對個(gè)體的預(yù)測結(jié)果。

他們采集了一個(gè)復(fù)雜路況下的交通數(shù)據(jù)集,正常行駛的汽車通過 Lidar 采集的連續(xù)幀數(shù)據(jù)經(jīng)過標(biāo)注得到。問題設(shè)定為觀察交通體[0 : Tobs]時(shí)間段內(nèi)的運(yùn)動(dòng)軌跡,預(yù)測 [Tobs + 1 : Tpred]的運(yùn)動(dòng)軌跡。對于一個(gè)時(shí)間段的數(shù)據(jù),首先把數(shù)據(jù)組織成一個(gè)4D Graph。

這個(gè) Graph 包含兩個(gè)層,一個(gè)是實(shí)例層,一個(gè)是類別層。在實(shí)例層中,每一個(gè)個(gè)體看成一個(gè)節(jié)點(diǎn),每一幀中個(gè)體之間通過邊連接,相鄰幀的同一個(gè)體也通過邊連接。在類別層中,同一幀中相同類別的個(gè)體把信息匯總到一個(gè)超節(jié)點(diǎn)中,超節(jié)點(diǎn)會(huì)總結(jié)經(jīng)驗(yàn),進(jìn)而反向改善每一個(gè)個(gè)體的預(yù)測結(jié)果,相鄰幀的同一個(gè)超節(jié)點(diǎn)也通過邊連接。4D Graph 通過邊捕捉個(gè)體在空間上的交互信息,在時(shí)間上的連續(xù)信息,和在類別上的相似信息,通過節(jié)點(diǎn)和超節(jié)點(diǎn)匯總和分析這些信息。

本文提出的方法把多類別交通體的路線預(yù)測統(tǒng)一到一個(gè)框架之下,通過構(gòu)建空間和時(shí)間維度上的4D Graph,充分利用交通體自身的運(yùn)動(dòng)模式和與周圍交通體交互的信息,并通過超節(jié)點(diǎn)總結(jié)概括同類別運(yùn)動(dòng)相似性來改善個(gè)體的結(jié)果,從而對每個(gè)交通體的軌跡預(yù)測精度有了較大提高。另外,本文還發(fā)布了多類別體的復(fù)雜城市交通的路線數(shù)據(jù)集。

目前自動(dòng)駕駛的測試場景都是比較規(guī)則和簡單的交通場景:有清晰的車道線,紅綠燈,交通參與體比較單一。但是,很多城市交通,比如中國或印度的城市交通,具有很高的復(fù)雜度。尤其在一些十字路口,自行車、三輪車、汽車、公交車交互前進(jìn)。本文針對多類別體城市交通提出的的路徑預(yù)測算法,為無人車在復(fù)雜交通場景下的導(dǎo)航提供了更為精確的指導(dǎo),進(jìn)而可以提升自動(dòng)駕駛系統(tǒng)的安全性。

視頻建模

深度學(xué)習(xí)在靜態(tài)圖像理解上取得了巨大成功,然而高效的視頻時(shí)序及空域建模的網(wǎng)絡(luò)模型尚無定論。不同于已有的基于 CNN+RNN 或者 3D 卷積網(wǎng)絡(luò)的方法,《StNet: Local and Global Spatial-Temporal Modeling for Action Recognition》 一文提出了兼顧局部時(shí)空聯(lián)系以及全局時(shí)空聯(lián)系的視頻時(shí)空聯(lián)合建模網(wǎng)絡(luò)框架 StNet。

具體而言,StNet 將視頻中連續(xù) N 幀圖像級(jí)聯(lián)成一個(gè) 3N 通道的“超圖”,然后用 2D 卷積對超圖進(jìn)行局部時(shí)空聯(lián)系的建模。為了建立全局時(shí)空關(guān)聯(lián),StNet 中引入了對多個(gè)局部時(shí)空特征圖進(jìn)行時(shí)域卷積的模塊。特別地,我們提出了時(shí)序 Xception 模塊對視頻特征序列進(jìn)一步建模時(shí)序依賴。在 Kinetics 動(dòng)作識(shí)別數(shù)據(jù)集的大量實(shí)驗(yàn)結(jié)果表明,StNet 能夠取得 State-of-the-art 的識(shí)別性能,同時(shí) StNet 在計(jì)算量與準(zhǔn)確率的折衷方面表現(xiàn)優(yōu)異。此外實(shí)驗(yàn)結(jié)果驗(yàn)證了 StNet 學(xué)習(xí)到的視頻表征能夠在 UCF101 上有很好的遷移泛化能力。

StNet 提出了局部和全局時(shí)空聯(lián)系聯(lián)合建模的概念,能得到更具判別力的視頻表征,有效的提高視頻動(dòng)作識(shí)別的性能。同時(shí),StNet 的設(shè)計(jì)兼顧了計(jì)算量與識(shí)別準(zhǔn)確率的折衷,具有很好的實(shí)用價(jià)值。StNet 作為一個(gè) backbone 網(wǎng)絡(luò)結(jié)構(gòu),可以應(yīng)用在用 video2vector、視頻識(shí)別等方面。

附:被 AAAI 2019收錄的百度15篇論文題目

lModeling Coherence for Discourse Neural Machine Translation

lJoint Representation Learning for Multi-Modal Transportation Recommendation

lSpHMC: Spectral Hamiltonian Monte Carlo

lStNet: Local and Global Spatial-Temporal Modeling for Action Recognition

lTrafficPredict: Trajectory Prediction for Heterogeneous Traffic-Agents

lRead, Watch, and Move: Reinforcement Learning for Temporally Grounding Natural Language Descriptions in Videos

lAddressing the Under-translation Problem from the Entropy Perspective

lUnderstanding Story Characters, Movie Actors and Their Versatility with Gaussian Representations

lJoint Extraction of Entities and Overlapping Relations using Position-Attentive Sequence Labeling

lOversampling for Imbalanced Data via Optimal Transport

lMulti-agent Discussion Mechanism for Natural Language Generation

lSign-Full Random Projections

lInteractive Attention Transfer Network for Cross-domain Sentiment Classification

lExploiting the Contagious Effect for Employee Turnover Prediction

lDistant Supervision for Relation Extraction with Linear Attenuation Simulation and Non-IID Relevance Embedding

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 百度
    +關(guān)注

    關(guān)注

    9

    文章

    2392

    瀏覽量

    95300
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8569

    瀏覽量

    137330
  • 論文
    +關(guān)注

    關(guān)注

    1

    文章

    103

    瀏覽量

    15438

原文標(biāo)題:百度15篇論文被AAAI 2019收錄

文章出處:【微信號(hào):rgznai100,微信公眾號(hào):rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    百度地圖與NIMO眼鏡達(dá)成深度合作

    近日,百度地圖與NIMO眼鏡達(dá)成深度合作,將百度地圖全棧導(dǎo)航能力以輕量化、低功耗、極簡交互的方式落地智能眼鏡場景,為騎行、步行、日常通勤用戶提供抬頭即見、安全隨行的新一代導(dǎo)航體驗(yàn)。
    的頭像 發(fā)表于 04-09 10:00 ?383次閱讀

    百度文心大模型5.0正式版上線

    今天,百度文心Moment大會(huì)現(xiàn)場,文心大模型5.0正式版上線。
    的頭像 發(fā)表于 01-23 16:48 ?1567次閱讀

    百度地圖開放平臺(tái)與400萬開發(fā)者共赴智能時(shí)空新未來

    二十年星辰大海,十五載開放引航。2025年,百度地圖迎來服務(wù)用戶的二十周年,其開放平臺(tái)亦走過了與開發(fā)者并肩同行的十五個(gè)春秋。近期舉行的“2025百度地圖開發(fā)者盛典”上,百度地圖開放平
    的頭像 發(fā)表于 01-23 09:03 ?988次閱讀
    <b class='flag-5'>百度</b>地圖開放平臺(tái)與400萬開發(fā)者共赴智能時(shí)空新未來

    Nullmax DiffRefiner軌跡預(yù)測框架入選AAAI 2026

    1月20日至27日,40 (AAAI 2026) 于新加坡召開,匯聚世界頂尖學(xué)者與先鋒研究者,以智慧碰撞共繪人工智能的未來圖景。
    的頭像 發(fā)表于 01-22 16:16 ?595次閱讀
    Nullmax DiffRefiner軌跡預(yù)測框架入選<b class='flag-5'>AAAI</b> 2026

    小鵬汽車與北京大學(xué)研究論文成功入選AAAI 2026

    近日,AAAI 2026公布了論文錄用結(jié)果,該會(huì)議是人工智能領(lǐng)域的國際頂級(jí)會(huì)議之一。據(jù)悉,AAAI 2026共收到23,680份論文投稿,其中4,167
    的頭像 發(fā)表于 01-04 11:22 ?831次閱讀
    小鵬汽車與北京大學(xué)研究<b class='flag-5'>論文</b>成功入選<b class='flag-5'>AAAI</b> 2026

    地平線五論文入選NeurIPS 2025與AAAI 2026

    近日,兩大頂級(jí)學(xué)術(shù)會(huì)議錄用結(jié)果相繼揭曉,地平線憑借機(jī)器人算法領(lǐng)域的深度鉆研,共有5論文從全球數(shù)萬份投稿中脫穎而出,分別入選NeurIPS 2025與
    的頭像 發(fā)表于 11-27 11:39 ?1423次閱讀
    地平線五<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選NeurIPS 2025與<b class='flag-5'>AAAI</b> 2026

    理想汽車12論文入選全球五大AI頂會(huì)

    2025年三季度以來,理想汽車基座模型團(tuán)隊(duì)國際頂級(jí)AI學(xué)術(shù)會(huì)議上取得重大突破,共有12高質(zhì)量研究論文入選AAAI、NeurIPS、EMN
    的頭像 發(fā)表于 11-21 14:44 ?1060次閱讀
    理想汽車12<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選全球五大AI頂會(huì)

    百度世界大會(huì)亮點(diǎn) 五年五芯 百度宣布打造最硬AI云

    自2006年以來,百度世界大會(huì)已連續(xù)舉辦近20,百度世界大會(huì)是百度每年面向行業(yè)、媒體、合作伙伴和廣大用戶的最高級(jí)別盛事,作為百度年度最重要
    的頭像 發(fā)表于 11-13 15:47 ?1998次閱讀

    百度世界2025進(jìn)行中 百度昆侖芯超節(jié)點(diǎn)亮相 性能巨幅提升

    思維、洞察未來趨勢的重要平臺(tái)。 今日(11月13日)Baidu World 2025北京舉辦。在這里,可以體驗(yàn)AI應(yīng)用的價(jià)值涌現(xiàn),見證AI能力的創(chuàng)新爆發(fā)。 今年的百度世界2025以“效果涌現(xiàn)|AI in Action”為主題,設(shè)置有1+ 6場頂尖論壇。
    的頭像 發(fā)表于 11-13 11:51 ?1519次閱讀

    Nullmax端到端軌跡規(guī)劃論文入選AAAI 2026

    11月8日,全球人工智能頂會(huì) AAAI 2026 公布論文錄用結(jié)果,Nullmax 研發(fā)團(tuán)隊(duì)的端到端軌跡規(guī)劃論文成功入選。該論文創(chuàng)新提出一種由粗到精的軌跡預(yù)測框架——DiffRefin
    的頭像 發(fā)表于 11-12 10:53 ?1146次閱讀

    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五論文入選NeurIPS 2025

    近日,機(jī)器學(xué)習(xí)與計(jì)算神經(jīng)科學(xué)領(lǐng)域全球頂級(jí)學(xué)術(shù)頂級(jí)會(huì)議NeurIPS 2025公布論文錄用結(jié)果,思必馳-上海交大聯(lián)合實(shí)驗(yàn)室共有5論文
    的頭像 發(fā)表于 10-23 15:24 ?1149次閱讀
    思必馳與上海交大聯(lián)合實(shí)驗(yàn)室五<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選NeurIPS 2025

    2025百度Apollo星火自動(dòng)駕駛大賽成功舉辦

    近日, 27 中國機(jī)器人及人工智能大賽 - 百度 Apollo 星火自動(dòng)駕駛大賽總決賽蘇州圓滿落幕。作為國內(nèi)自動(dòng)駕駛領(lǐng)域最具影響力的高校賽事之一,本屆星火大賽共設(shè)置仿真賽、實(shí)車賽
    的頭像 發(fā)表于 08-08 10:46 ?2064次閱讀

    后摩智能四論文入選三大國際頂會(huì)

    2025 年上半年,繼年初 AAAI、ICLR、DAC 三大國際頂會(huì)收錄 5 論文后,后摩智能近期又有 4
    的頭像 發(fā)表于 05-29 15:37 ?1522次閱讀

    云知聲四論文入選自然語言處理頂會(huì)ACL 2025

    結(jié)果正式公布。云知聲在此次國際學(xué)術(shù)盛會(huì)中表現(xiàn)卓越,共有4論文接收,其中包括2主會(huì)論文(Ma
    的頭像 發(fā)表于 05-26 14:15 ?1501次閱讀
    云知聲四<b class='flag-5'>篇</b><b class='flag-5'>論文</b>入選自然語言處理頂會(huì)ACL 2025

    百度地圖重磅發(fā)布地圖AI開放平臺(tái)

    近日,WGDC25全球時(shí)空智能大會(huì)上,百度地圖重磅發(fā)布地圖AI開放平臺(tái)。百度地圖深耕20年的數(shù)據(jù)能力、引擎能力與AI技術(shù)全面開放,向開發(fā)者深度開放四大核心能力和五大場景解決方案。
    的頭像 發(fā)表于 05-26 11:26 ?2102次閱讀
    巴林左旗| 林口县| 澄城县| 象山县| 东城区| 塔河县| 高雄县| 阿鲁科尔沁旗| 平和县| 乌拉特前旗| 高碑店市| 昌都县| 中江县| 宜君县| 江源县| 获嘉县| 攀枝花市| 黎川县| 桂东县| 高唐县| 霸州市| 朔州市| 苍山县| 宁武县| 星子县| 广南县| 宁晋县| 夏津县| 合山市| 武功县| 丹巴县| 武威市| 阿瓦提县| 子长县| 青州市| 威宁| 呈贡县| 大埔县| 运城市| 梨树县| 金门县|