日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

模型的閉集準確率與開集識別能力正相關的觀點

倩倩 ? 來源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-09-09 09:28 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

參考一篇綜述,首先介紹兩個概念:

Close Set Recognition,閉集識別:指 訓練集中的類別和測試集中的類別是一致的,例如最常用最經(jīng)典的ImageNet-1k。所有在測試集中的圖像的類別都在訓練集中出現(xiàn)過,沒有未知種類的圖像。從AlexNet到VGG,再到ResNet,以及最近大火的Visual Transformer,都能夠比較好的處理這一類別的任務。

Open Set Recognition,開集識別:指對一個在訓練集上訓練好的模型,當利用一個測試集(該測試集的中包含訓練集中沒有的類別)進行測試時,如果輸入已知類別數(shù)據(jù),輸出具體的類別,如果輸入的是未知類別的數(shù)據(jù),則進行合適的處理(識別為unknown或者out-of-distribution)。例如在利用一個數(shù)據(jù)集訓練好了一個模型可以對狗和人進行分類,而輸入一張狗的圖像,由于softmax這種方式的設定,模型可能會告訴你80%的概率為人,但顯然這是不合理的,限制了模型泛化性能提升。而我們想要的結果,是當輸入不為貓和人的圖像(比如狗)時,模型輸出為未知類別,輸入人或貓圖像,模型輸出對應具體的類別。

3ab9d0de-2fde-11ed-ba43-dac502259ad0.png

由于現(xiàn)實場景中更多的是開放和非靜態(tài)的環(huán)境,所以在模型部署中,經(jīng)常會出現(xiàn)一些沒有見過的情況,所以這種考慮開集檢測的因素,對模型的部署十分有必要。那么模型在Close set和在Open set的表現(xiàn)是否存在一定的相關性呢?下面我們來了解一份ICLR 2021的工作來嘗試理解和探索兩者之間的關系。

在本文中,作者重新評估一些open set識別的方法,通過探索是否訓練良好的閉集的分類器通過分析baseline的數(shù)據(jù)集,可以像最近的算法一樣執(zhí)行。要做到這一點,我們首先研究了分類器的閉集和開集性能之間的關系。

雖然人們可能期望更強的close set分類器過度擬合到train set出現(xiàn)的類別,因此在OSR中表現(xiàn)較差。其實最簡單的方法也非常直觀,就是‘maximum softmax probability (MSP) baseline,即經(jīng)過softmax輸出的最大的概率值。而該論文展示了在close set和open set上開放集的表現(xiàn)是高度相關的,這一點是非常關鍵的。而且展這種趨勢在不同的數(shù)據(jù)集、目標以及模型架構中都是成立的。并在ImageNet-1k這個量級上的數(shù)據(jù)集進行評估,更能說明該方法的有效性。

但僅僅觀察到這種現(xiàn)象,這種contribution雖然有意義,但可能也不足以支撐一篇頂會oral,所以自然要基于這一現(xiàn)象展開一些方法上的設計,來提升開集檢測的表現(xiàn)。根據(jù)這一觀察,論文提出一種通過改善close set性能的方式來進一步提升open set上的表現(xiàn)。

具體來說,我們引入了更多的增強、更好的學習率調度和標簽平滑等策略,這些策略顯著提高了MSP基線的close set和open set性能。我們還建議使用maximum logit score(MLS),而不是MSP來作為開放集指標。通過這些調整,可以在不改變模型結構的情況下,非常有效的提升模型open set狀態(tài)下的識別性能。

3. 方法

3c2742e4-2fde-11ed-ba43-dac502259ad0.png

首先就是一張非常直觀的圖,在不用的數(shù)據(jù)集上,對OSR和CSR兩個任務的表現(xiàn)進行比較。論文首先利用標準基準數(shù)據(jù)集上,選取三種有代表性的開放集識別方法,包括MSP,ARPL以及ARPL+CS。然后利用一個類似于VGG形態(tài)的的輕量級模型,在不同的分類數(shù)據(jù)集上進行檢測??梢钥吹絆SR和CSR兩個任務的表現(xiàn)是呈現(xiàn)出高度的正相關的。

對于理論上的證明,論文選取了模型校準的角度來解讀。直觀地說,模型校準的目的是量化模型是否具有感知對象類別的能力,即是否可以把低置信度的預測與高錯誤率相關聯(lián)。也就是說如果給了很低的置信度,而錯誤率又是很高的,那么就可以定義為模型沒有被很好地校準。反之,則說明模型被很好地校準了。

3c5c5092-2fde-11ed-ba43-dac502259ad0.png

3c811c10-2fde-11ed-ba43-dac502259ad0.png

到目前為止,論文已經(jīng)證明了在單一、輕量級架構和小規(guī)模數(shù)據(jù)集上封閉集和開放集性能之間的相關性——盡管我們強調它們是OSR文獻中現(xiàn)有的標準基準。如上圖,論文又在在大規(guī)模數(shù)據(jù)集(ImageNet-1k)上試驗了一系列架構。和在CIFAR-10等小數(shù)據(jù)集一致,該數(shù)據(jù)集也存在上述的現(xiàn)象。

至于,獲得更好的open set recognition上的表現(xiàn),也就非常直接了。就是通過各種優(yōu)化方式、訓練策略的設計,讓模型可以能夠在close set上具有更好的性能。完整的細節(jié)和用于提高封閉集性能的方法的表格明細可以在論文,以及附錄中更好地了解。

論文還提出一種新的評估close set性能的方式。以前的工作指出,開放集的例子往往比封閉集的例子具有更低的norm。因此,我們建議在開放集評分規(guī)則中使用最大對數(shù),而不是softmax概率。Logits是深度分類器中最后一個線性層的原始輸出,而softmax操作涉及到一個歸一化,從而使輸出可以被解釋為一個概率向量的和為1。由于softmax操作將logits中存在的大部分特征幅度信息歸一化,作者發(fā)現(xiàn)logits能帶來更好的開放集檢測結果。

3cae29b2-2fde-11ed-ba43-dac502259ad0.png

這種新的方式,改善了在所有數(shù)據(jù)集上的性能,并大大縮小了與最先進方法的差距,各數(shù)據(jù)集的AUROC平均絕對值增加了13.9%。如果以報告的baseline和當前最先進的方法之間的差異比例來計算,這意味著平均差異減少了87.2%。MLS方法還在TinyImageNet上取得了新的領先優(yōu)勢,比OpenHybrid高出3.3%。

另外,作者指出,目前的標準OSRbaseline評價方式有兩個缺點:

它們都只涉及小規(guī)模的數(shù)據(jù)集;

它們缺乏對構成 "語義類 "的明確定義。

后者對于將開放集領域與其他研究問題,如out-of-distribution以及outlier的檢測,進行區(qū)分非常重要。OSR旨在識別測試圖像是否與訓練類有語義上的不同,而不是諸如模型對其預測不確定或是否出現(xiàn)了低層次的distribution shift。所以作者基于這兩個缺點,提出來了新的baseline用于評估open set的性能。具體關于數(shù)據(jù)集的細節(jié),可以參考原文

4. 結論

在這篇文章中,作者給出了模型的閉集準確率與開集識別能力正相關的觀點,同時通過實驗驗證了加強模型的閉集性能能夠幫助我們獲得更強的開集能力。對于 Open-Set Recognition 具有啟發(fā)意義。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)

    關注

    8

    文章

    7352

    瀏覽量

    95082
  • 模型
    +關注

    關注

    1

    文章

    3847

    瀏覽量

    52300
  • 分類器
    +關注

    關注

    0

    文章

    153

    瀏覽量

    13851

原文標題:開集識別: A Good Closed-Set Classifier is All You Need

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    人工智能多模態(tài)與視覺大模型開發(fā)實戰(zhàn) - 2026必會

    提高數(shù)據(jù)的質量和一致性,為后續(xù)的模型訓練做好準備。 模型訓練是核心環(huán)節(jié),學員們將使用預訓練模型進行微調,以適應特定的應用場景。通過調整模型的參數(shù)和超參數(shù),不斷優(yōu)化
    發(fā)表于 04-15 16:06

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識別模型在RA8P1 Titan Board上的部署

    (my_model, \"./mnist_model/my_model.pth\") 訓練完成后,在測試上的準確率可達98%以上,滿足手寫數(shù)字識別的實際需求。 訓練過程: 將訓練好的模型
    發(fā)表于 03-15 20:42

    靠聽診器查故障?這套系統(tǒng)靠 “聽聲紋”,準確率 96%

    老技工的聽診器承載經(jīng)驗傳承,但工業(yè)智能化時代,更需精準前置的科技手段。聲振溫協(xié)同監(jiān)測系統(tǒng)的價值,不僅是96%的診斷準確率,更在于將故障預警從“事后”推向“事前”,實現(xiàn)運維模式從被動搶修到主動預防的轉變。
    的頭像 發(fā)表于 01-21 16:38 ?802次閱讀
    靠聽診器查故障?這套系統(tǒng)靠 “聽聲紋”,<b class='flag-5'>準確率</b> 96%

    自動駕駛大模型中常提的泛化能力是指啥?

    [首發(fā)于智駕最前沿微信公眾號]在討論自動駕駛大模型時,常會有幾個評價維度,如感知是否準確、決策是否穩(wěn)定、系統(tǒng)是否足夠魯棒,以及模型有沒有“泛化能力”。相比
    的頭像 發(fā)表于 12-10 09:15 ?965次閱讀
    自動駕駛大<b class='flag-5'>模型</b>中常提的泛化<b class='flag-5'>能力</b>是指啥?

    SimData:基于aiSim的高保真虛擬數(shù)據(jù)生成方案

    01前言在自動駕駛感知系統(tǒng)的研發(fā)過程中,模型的性能高度依賴于大規(guī)模、高質量的感知數(shù)據(jù)。目前業(yè)界常用的數(shù)據(jù)包括KITTI、nuScenes、WaymoOpenDataset等,它們?yōu)樽詣玉{駛算法的發(fā)展奠定了重要基礎。然而,構建
    的頭像 發(fā)表于 11-07 17:35 ?5532次閱讀
    SimData:基于aiSim的高保真虛擬數(shù)據(jù)<b class='flag-5'>集</b>生成方案

    構建CNN網(wǎng)絡模型并優(yōu)化的一般化建議

    ,從而得到對我們有價值的識別信息。但這種迭代性并不是十分必要的,因為從實踐來看,即使只有單層網(wǎng)絡的模型,只要擁有充分數(shù)量的神經(jīng)元,也可以獲得較高的準確率。不過該種方式的一個重要缺點就是參數(shù)重多,導致
    發(fā)表于 10-28 08:02

    除了準確率,電能質量在線監(jiān)測裝置在諧波源識別方面還有哪些重要指標?

    除了識別準確率,電能質量在線監(jiān)測裝置在諧波源識別方面的核心價值還依賴于 識別效率、定位精度、抗干擾能力、場景適配性 等關鍵指標,這些指標直接
    的頭像 發(fā)表于 10-22 16:22 ?1114次閱讀

    電能質量在線監(jiān)測裝置識別諧波源的準確率有多高?

    電能質量在線監(jiān)測裝置識別諧波源的準確率受電網(wǎng)結構、監(jiān)測方案、設備性能等多重因素影響,呈現(xiàn)顯著的 場景化差異 。根據(jù)行業(yè)研究與工程實踐,其準確率通常在 **65%~95%** 之間波動,具體可分為以下
    的頭像 發(fā)表于 10-22 16:18 ?1018次閱讀

    NVIDIA推出多語種語音AI開放數(shù)據(jù)模型

    新發(fā)布的 Granary 數(shù)據(jù)包含約 100 萬小時音頻,可用于訓練高精度、高吞吐量的 AI 音頻轉錄與翻譯模型
    的頭像 發(fā)表于 09-23 15:34 ?1217次閱讀

    模型時代,如何推進高質量數(shù)據(jù)建設?

    高質量數(shù)據(jù),即具備高價值、高密度、標準化特征的數(shù)據(jù)集合。 在AI領域,高質量數(shù)據(jù)地位舉足輕重,如同原油經(jīng)煉化成為汽油驅動汽車,海量原始數(shù)據(jù)需轉化為高質量數(shù)據(jù),才能助力大模型精準掌
    的頭像 發(fā)表于 08-21 13:58 ?1033次閱讀

    Text2SQL準確率暴漲22.6%!3大維度全拆

    基于 BIRD 數(shù)據(jù)展開。 方法:提出 J-Schema 呈現(xiàn)數(shù)據(jù)庫結構并合理提供示例值,結合思維鏈引導模型推理。采用 Iterative DPO 迭代訓練,多輪迭代提升性能。用自洽性方法,通過硬 / 軟投票從多個候選答案中選最優(yōu),軟投票更優(yōu)。 結果:解決 Text2S
    的頭像 發(fā)表于 08-14 11:17 ?853次閱讀
    Text2SQL<b class='flag-5'>準確率</b>暴漲22.6%!3大維度全拆

    AIcube1.4目標檢測模型導入yolotxt格式數(shù)據(jù)后一直顯示數(shù)據(jù)正在解析,為什么?

    AIcube1.4目標檢測模型導入yolotxt格式數(shù)據(jù)后一直顯示數(shù)據(jù)正在解析 數(shù)據(jù)有問題,把數(shù)據(jù)情況說的詳細點
    發(fā)表于 08-13 07:16

    ocr識別時數(shù)據(jù)上傳壓縮包,上傳成功,但不顯示圖片,圖片數(shù)量仍顯示0,為什么?

    ocr識別時數(shù)據(jù)上傳壓縮包,上傳成功,但不顯示圖片,圖片數(shù)量仍顯示0
    發(fā)表于 07-23 08:11

    【Sipeed MaixCAM Pro開發(fā)板試用體驗】+ 02 + 基礎功能測試

    、基礎功能測試 1.人臉表情情緒檢測 通過開發(fā)板自帶的應用程序實測發(fā)現(xiàn)識別準確率非常的高(但需在離人臉較近的地方進行識別,如果識別距離過遠會導致
    發(fā)表于 07-19 22:50

    數(shù)據(jù)下載失敗的原因?

    數(shù)據(jù)下載失敗什么原因太大了嗎,小的可以下載,想把大的下載去本地訓練報錯網(wǎng)絡錯誤 大的數(shù)據(jù)多大?數(shù)據(jù)量有多少?
    發(fā)表于 06-18 07:04
    荥经县| 昌宁县| 乌鲁木齐市| 盐池县| 宜州市| 汉川市| 湾仔区| 德庆县| 礼泉县| 象州县| 武强县| 昌黎县| 桃源县| 惠州市| 永清县| 图木舒克市| 盐津县| 嵊泗县| 仁寿县| 伊金霍洛旗| 栾城县| 邯郸市| 辛集市| 张家港市| 宁陵县| 杨浦区| 札达县| 兴业县| 车致| 东莞市| 龙川县| 郑州市| 望城县| 浦城县| 永新县| 琼中| 仪陇县| 锡林郭勒盟| 太白县| 芜湖县| 芦山县|