日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

首個語法生成網(wǎng)絡(luò) 視覺識別優(yōu)于當(dāng)前最先進(jìn)框架

DPVg_AI_era ? 來源:fqj ? 2019-06-05 11:19 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是提高深度神經(jīng)網(wǎng)絡(luò)性能的基礎(chǔ)。研究人員開發(fā)出了首個通過語法引導(dǎo)的神經(jīng)網(wǎng)絡(luò)生成器AOGNets,它能更有效地在原始數(shù)據(jù)中提取信息,在圖像分類、目標(biāo)檢測和分割方面的表現(xiàn)優(yōu)于包括ResNets、DenseNets、ResNeXts和DualPathNets在內(nèi)最先進(jìn)的神經(jīng)網(wǎng)絡(luò)。

北卡羅萊納州立大學(xué)的研究人員開發(fā)了一個通過語法指導(dǎo)的網(wǎng)絡(luò)生成器來打造深度神經(jīng)網(wǎng)絡(luò)的新框架。在實驗測試中,被稱為AOGNets的新網(wǎng)絡(luò)在視覺識別任務(wù)方面優(yōu)于現(xiàn)有的最先進(jìn)的框架,包括廣泛使用的ResNet和DenseNet系統(tǒng)。

作為這項研究中一篇論文的作者,北卡羅萊納州立大學(xué)電子與計算機(jī)工程副教授吳田富博士說:“與我們對比過的任何一個網(wǎng)絡(luò)相比,AOGNets都具有更好的預(yù)測精度?!?AOGNets也更容易解釋,這意味著用戶可以看到系統(tǒng)是如何得出結(jié)論的。”

新框架對系統(tǒng)架構(gòu)使用了一個組合語法方法,該方法可以從以前的網(wǎng)絡(luò)系統(tǒng)上獲取最佳實踐,從而更有效地從原始數(shù)據(jù)中提取有用的信息。

吳教授說:“我們發(fā)現(xiàn),層次和組合語法為我們提供了一種簡單、優(yōu)雅的方法來統(tǒng)一以前系統(tǒng)架構(gòu)所采用的方法,據(jù)我們所知,這是第一個將語法用于網(wǎng)絡(luò)生成的成果?!?/p>

為了測試他們的新框架,研究人員開發(fā)了AOGNets,并將其用三個圖像分類基準(zhǔn)(CIFAR-10、CIFAR-100和ImageNet-1K)進(jìn)行了測試。

“在公平比較下,AOGNets的表現(xiàn)明顯優(yōu)于其他所有最先進(jìn)的網(wǎng)絡(luò),包括ResNets, DenseNets, ResNeXts和DualPathNets?!?吳田富說:”利用圖像網(wǎng)絡(luò)中的網(wǎng)絡(luò)剖分度量,AOGNets獲得了最高的模型可解釋性分。AOGNets在對抗性防御和平臺不可知( platform-agnostic)部署(移動vs云)方面進(jìn)一步顯示出巨大的潛力。”

研究人員還使用vanilla Mask R-CNN系統(tǒng)在微軟Coco基準(zhǔn)測試中測試了AOGNets在目標(biāo)檢測和實例語義分割方面的表現(xiàn)。

“在模型尺寸更小、推理時間相似或更短的情況下,AOGNets比ResNet和ResNeXt獲得了更好的結(jié)果。” 吳教授表示:“結(jié)果表明,在目標(biāo)檢測和分割任務(wù)中,AOGNets具有較好的學(xué)習(xí)效果?!?/p>

這些測試是相關(guān)的,因為圖像分類是視覺識別的核心基礎(chǔ)任務(wù)之一,而ImageNet是標(biāo)準(zhǔn)的大規(guī)模分類基準(zhǔn)。同樣,目標(biāo)檢測和分割是兩個核心的高級視覺任務(wù),而MS-COCO是最廣泛使用的基準(zhǔn)之一。

“為了評估用于視覺識別中進(jìn)行深度學(xué)習(xí)的新網(wǎng)絡(luò)體系結(jié)構(gòu),它們是黃金試驗臺?!?吳田富說道:“AOGNets是在一個有原則的語法框架下開發(fā)的,并在ImageNet和MS-COCO下都得到了顯著的改進(jìn),從而對許多實際應(yīng)用中的表示學(xué)習(xí)顯示出潛在的廣泛和深刻的影響。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:AOGNets:首個語法生成網(wǎng)絡(luò),視覺識別優(yōu)于當(dāng)前最先進(jìn)框架

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    商湯科技NEO-unify如何打造原生視覺語言理解與生成

    當(dāng)前,多模態(tài)模型普遍采用“視覺編碼器(VE)用于理解,變分自編碼器(VAE)用于生成”的組合式設(shè)計。這套范式雖行之有效,卻也內(nèi)在割裂了感知與創(chuàng)造,常面臨模塊協(xié)同與效率權(quán)衡的挑戰(zhàn)。
    的頭像 發(fā)表于 03-10 14:37 ?440次閱讀
    商湯科技NEO-unify如何打造原生<b class='flag-5'>視覺</b>語言理解與<b class='flag-5'>生成</b>

    愛立信攜手DNB斬獲全球首個自智網(wǎng)絡(luò)L4級認(rèn)證

    馬來西亞的DNB 5G網(wǎng)絡(luò)已獲得全球認(rèn)可,被視為最先進(jìn)網(wǎng)絡(luò)之一,并榮獲TM Forum頒發(fā)的全球首個服務(wù)保障L4自智認(rèn)證。該認(rèn)證基于愛立信的基于AI的意圖驅(qū)動運營解決方案(IBO),
    的頭像 發(fā)表于 11-18 09:06 ?7137次閱讀

    語法糾錯和testbench的自動生成

    檢查語法錯誤,并將結(jié)果列在問題中: 比如我在81行少打了一個分號,錯誤會自動報出。 4.testbench自動生成 需要在拓展中輸入Verilog_testbench,找到如下拓展: 安裝成功后
    發(fā)表于 10-27 07:07

    nuclei studio生成的c語言文件是不支持c的語法嗎?

    nuclei studio 生成的c語言文件感覺不支持c的語法,因為剛使用這個軟件,還請各位大佬幫忙看看
    發(fā)表于 10-20 11:02

    目前最先進(jìn)的半導(dǎo)體工藝水平介紹

    當(dāng)前全球半導(dǎo)體工藝水平已進(jìn)入納米級突破階段,各大廠商在制程節(jié)點、材料創(chuàng)新、封裝技術(shù)和能效優(yōu)化等方面展開激烈競爭。以下是目前最先進(jìn)的半導(dǎo)體工藝水平的詳細(xì)介紹: 一、制程工藝突破 英特爾18A(約
    的頭像 發(fā)表于 10-15 13:58 ?2568次閱讀

    無人機(jī)AI視覺行為識別系統(tǒng)

    無人機(jī)AI視覺行為識別系統(tǒng) 隨著無人機(jī)技術(shù)的快速發(fā)展和計算機(jī)視覺領(lǐng)域的突破性進(jìn)展,無人機(jī)AI視覺行為識別系統(tǒng)應(yīng)運而生。傳統(tǒng)監(jiān)控系統(tǒng)受限于固定
    的頭像 發(fā)表于 07-04 16:53 ?1228次閱讀

    基于LockAI視覺識別模塊:C++人臉識別

    本文基于RV1106做成的LockAI視覺識別模塊,采用 LZ-Picodet 模型訓(xùn)練的人臉檢測模型 LZ-Face,以及ArcFace人臉識別模型,實現(xiàn)人臉識別系統(tǒng)。 源代碼:ht
    發(fā)表于 07-01 12:01

    基于LockAI視覺識別模塊:C++人臉識別

    本文基于RV1106做成的LockAI視覺識別模塊,采用LZ-Picodet模型訓(xùn)練的人臉檢測模型LZ-Face,以及ArcFace人臉識別模型,實現(xiàn)人臉識別系統(tǒng)。
    的頭像 發(fā)表于 07-01 10:09 ?1108次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++人臉<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    手寫數(shù)字識別是一種經(jīng)典的模式識別和圖像處理問題,旨在通過計算機(jī)自動識別用戶手寫的數(shù)字。 本文將教會你如何使用基于RV1106的 LockAI視覺識別
    發(fā)表于 06-30 16:45

    基于LockAI視覺識別模塊:手寫數(shù)字識別

    手寫數(shù)字識別是一種經(jīng)典的模式識別和圖像處理問題,旨在通過計算機(jī)自動識別用戶手寫的數(shù)字。本文將教會你如何使用基于RV1106的LockAI視覺識別
    的頭像 發(fā)表于 06-30 15:44 ?1299次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:手寫數(shù)字<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++條碼識別

    條碼識別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺識別進(jìn)行條碼
    發(fā)表于 05-27 10:26

    基于LockAI視覺識別模塊:C++條碼識別

    條碼識別視覺模塊經(jīng)常使用到的功能之一,經(jīng)常用于識別超市的貨物信息。本文我們將演示如何基于瑞芯微RV1106的LockAI視覺識別進(jìn)行條碼
    的頭像 發(fā)表于 05-27 09:32 ?1005次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++條碼<b class='flag-5'>識別</b>

    基于LockAI視覺識別模塊:C++二維碼識別

    二維碼識別視覺模塊經(jīng)常使用到的功能之一。我們將演示如何使用基于瑞芯微RV1106的LockAI視覺識別模塊進(jìn)行二維碼識別。 源代碼網(wǎng)址:h
    發(fā)表于 05-26 09:57

    基于LockAI視覺識別模塊:C++二維碼識別

    二維碼識別視覺模塊經(jīng)常使用到的功能之一。我們將演示如何使用基于瑞芯微RV1106的LockAI視覺識別模塊進(jìn)行二維碼識別。
    的頭像 發(fā)表于 05-26 09:42 ?1189次閱讀
    基于LockAI<b class='flag-5'>視覺</b><b class='flag-5'>識別</b>模塊:C++二維碼<b class='flag-5'>識別</b>

    Gemini API集成Google圖像生成模型Imagen 3

    開發(fā)者現(xiàn)在可以通過 Gemini API 訪問 Google 最先進(jìn)的圖像生成模型 Imagen 3。該模型最初僅對付費用戶開放,不久后也將面向免費用戶推出。
    的頭像 發(fā)表于 05-14 16:53 ?1489次閱讀
    潞西市| 宁都县| 会东县| 达日县| 关岭| 蕉岭县| 灵璧县| 柞水县| 通州区| 宝鸡市| 宜州市| 买车| 安远县| 舒城县| 盐池县| 天峨县| 杭锦后旗| 衡东县| 阿勒泰市| 奉新县| 安康市| 铜山县| 大冶市| 罗源县| 井陉县| 宜丰县| 吉首市| 泊头市| 出国| 肇州县| 东宁县| 普兰店市| 潜山县| 鞍山市| 乌鲁木齐县| 汶川县| 龙江县| 郧西县| 宣武区| 厦门市| 万源市|