日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

使用強化學(xué)習(xí)從數(shù)據(jù)本身中找出最佳圖像轉(zhuǎn)換策略

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-06-06 17:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

谷歌研究人員最新提出了一種自動數(shù)據(jù)增強方法,受AutoML的啟發(fā),他們嘗試將數(shù)據(jù)增強的過程也實現(xiàn)自動化,使用強化學(xué)習(xí)從數(shù)據(jù)本身中找出最佳圖像轉(zhuǎn)換策略,在不依賴于生成新的和不斷擴展的數(shù)據(jù)集的情況下,提高了計算機視覺模型的性能。

計算機視覺深度學(xué)習(xí)的成功,可部分歸因于擁有大量帶標(biāo)記的訓(xùn)練數(shù)據(jù)——數(shù)據(jù)的質(zhì)、量和多樣性提高,模型的性能也通常會增強。但是,要收集足夠多的高質(zhì)量數(shù)據(jù)訓(xùn)練模型來實現(xiàn)良好的性能,通常非常困難。

解決這個問題的一種方法,是將圖像對稱(image symmetries)硬編碼為神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),或者,讓專家手動設(shè)計數(shù)據(jù)增強方法,比如旋轉(zhuǎn)和翻轉(zhuǎn)圖像,這些都是訓(xùn)練性能良好的視覺模型常會用到的方法。

但是,直到最近,人們很少關(guān)注如何利用機器學(xué)習(xí)來自動增強現(xiàn)有數(shù)據(jù)。谷歌此前推出了AutoML,代替人為設(shè)計的系統(tǒng)組件,讓神經(jīng)網(wǎng)絡(luò)自動設(shè)計神經(jīng)網(wǎng)絡(luò)和優(yōu)化器,得到了良好的結(jié)果。受此啟發(fā),谷歌研究人員不禁問自己:是否也可以讓數(shù)據(jù)增強過程自動完成?

在最新公布的論文《AutoAugment:從數(shù)據(jù)學(xué)習(xí)增強策略》(AutoAugment: Learning Augmentation Policies from Data)中,谷歌的研究人員探索了一種強化學(xué)習(xí)算法,增加了現(xiàn)有訓(xùn)練數(shù)據(jù)集中數(shù)據(jù)的數(shù)量和多樣性。直觀地說,數(shù)據(jù)增強用于教會模型有關(guān)數(shù)據(jù)域中的圖像不變性(image invariances),讓神經(jīng)網(wǎng)絡(luò)對這些重要的對稱性保持不變(invariant),從而改善其性能。

研究人員表示,與以前使用手工設(shè)計數(shù)據(jù)增強策略的先進深度學(xué)習(xí)模型不同,他們使用強化學(xué)習(xí)從數(shù)據(jù)本身中找出最佳圖像轉(zhuǎn)換策略。結(jié)果在不依賴于生成新的和不斷擴展的數(shù)據(jù)集的情況下,提高了計算機視覺模型的性能。

訓(xùn)練數(shù)據(jù)的增強

數(shù)據(jù)增強的思路很簡單:圖像具有許多對稱性,這些對稱性不會改變圖像中存在的信息。例如,狗的鏡面反射仍然是狗。這些“不變性”中的一些對人類來說顯而易見,但有很多人類很難注意到。例如,mixup方法,通過在訓(xùn)練期間將圖像置于彼此之上來增強數(shù)據(jù),從而產(chǎn)生改善神經(jīng)網(wǎng)絡(luò)性能的數(shù)據(jù)。

左圖:來自ImageNet數(shù)據(jù)集的原始圖像。 右圖:通過常用數(shù)據(jù)增強方法,水平翻轉(zhuǎn)后的相同的圖像。

AutoAugment是為計算機視覺數(shù)據(jù)集設(shè)計自定義數(shù)據(jù)增強策略的自動方式,例如,AutoAugment能指導(dǎo)基本圖像轉(zhuǎn)換操作的選擇,例如水平/垂直翻轉(zhuǎn)圖像,旋轉(zhuǎn)圖像,更改圖像顏色等。AutoAugment不僅可以預(yù)測要合并的圖像轉(zhuǎn)換,還可以預(yù)測所使用轉(zhuǎn)換的每個圖像的概率和大小,從而不總是以相同的方式操作圖像。AutoAugment能夠從2.9 x 10^32大的搜索空間中,選擇出圖像轉(zhuǎn)換的最佳策略。

AutoAugment 根據(jù)所運行的數(shù)據(jù)集學(xué)習(xí)不同的轉(zhuǎn)換。例如,對于包含數(shù)字自然場景的街景(SVHN)圖像,AutoAugment 的重點是像剪切和平移這樣的幾何變換,它們代表了數(shù)據(jù)集中常見的失真現(xiàn)象。此外,由于世界上不同的建筑和房屋編號材料的多樣性,AutoAugment機構(gòu)已經(jīng)學(xué)會了完全反轉(zhuǎn)原始SVHN數(shù)據(jù)集中自然出現(xiàn)的顏色。

左:來自SVHN數(shù)據(jù)集的原始圖像。右:相同的圖像AutoAugment。在這種情況下,最優(yōu)轉(zhuǎn)換是剪切圖像并反轉(zhuǎn)像素顏色的結(jié)果。

在CIFAR-10和ImageNet上,AutoAugment 不使用剪切,因為這些數(shù)據(jù)集通常不包含剪切對象的圖像,也不完全反轉(zhuǎn)顏色,因為這些轉(zhuǎn)換將導(dǎo)致不真實的圖像。相反,AutoAugment r的重點是稍微調(diào)整顏色和色調(diào)分布,同時保持一般的色彩屬性。這說明在CIFAR-10和ImageNet中對象的實際顏色是重要的,而在SVHN中只有相對的顏色是重要的。

結(jié)果

我們的AutoAugment 算法發(fā)現(xiàn)了一些最著名的計算機視覺數(shù)據(jù)集的增強策略,這些數(shù)據(jù)集被納入到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練中,會產(chǎn)生最先進的精確性。通過增強ImageNet數(shù)據(jù),我們獲得了83.54% top1精度的新的最新精度,在CIFAR10上我們獲得了1.48%的錯誤率,這比科學(xué)家設(shè)計的默認(rèn)數(shù)據(jù)增強提高了0.83%。在SVHN上,我們將最先進的誤差從1.30%提高到1.02%。重要的是,AutoAugment策略被發(fā)現(xiàn)是可轉(zhuǎn)移的——為ImageNet數(shù)據(jù)集找到的策略也可以應(yīng)用于其他視覺數(shù)據(jù)集(斯坦福汽車、FGVC-Aircraft等),從而改善神經(jīng)網(wǎng)絡(luò)的性能。

我們很高興地看到,我們的AutoAugment算法在許多不同的競爭性計算機視覺數(shù)據(jù)集上都達(dá)到了這樣的性能水平,并期待著未來在更多的計算機視覺任務(wù)中,甚至在音頻處理或語言模型等其他領(lǐng)域,都能應(yīng)用這種技術(shù)。在本文的附錄中包含了性能最好的策略,以便研究人員可以使用它們來改進他們在相關(guān)視覺任務(wù)上的模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:谷歌放大招!數(shù)據(jù)增強實現(xiàn)自動化

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    反向強化學(xué)習(xí)的思路

    強化學(xué)習(xí)的另一種策略(二)
    發(fā)表于 04-03 12:10

    深度強化學(xué)習(xí)實戰(zhàn)

    內(nèi)容2:課程一: TensoRFlow入門到熟練:課程二:圖像分類:課程三:物體檢測:課程四:人臉識別:課程五:算法實現(xiàn):1、卷積神經(jīng)網(wǎng)絡(luò)CNN2、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN3、強化學(xué)習(xí)DRL4、對抗性生成
    發(fā)表于 01-10 13:42

    將深度學(xué)習(xí)強化學(xué)習(xí)相結(jié)合的深度強化學(xué)習(xí)DRL

    深度強化學(xué)習(xí)DRL自提出以來, 已在理論和應(yīng)用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學(xué)習(xí)DRL研發(fā)的AlphaGo,將深度強化學(xué)習(xí)DRL成推上新的熱點和高度,成為人工智能歷史上一個新的里程碑。因此,深
    發(fā)表于 06-29 18:36 ?2.9w次閱讀

    基于強化學(xué)習(xí)的IEEE 802.15.4網(wǎng)絡(luò)區(qū)分服務(wù)策略

    為了彌補IEEE 802.15.4協(xié)議原有區(qū)分服務(wù)機制的不足,提出了一種基于BCS(backoff counter scheme)與強化學(xué)習(xí)的區(qū)分服務(wù)策略終端節(jié)點出發(fā),在原優(yōu)先級區(qū)分服務(wù)
    發(fā)表于 03-09 16:02 ?0次下載
    基于<b class='flag-5'>強化學(xué)習(xí)</b>的IEEE 802.15.4網(wǎng)絡(luò)區(qū)分服務(wù)<b class='flag-5'>策略</b>

    人工智能機器學(xué)習(xí)強化學(xué)習(xí)

    強化學(xué)習(xí)是智能系統(tǒng)環(huán)境到行為映射的學(xué)習(xí),以使獎勵信號(強化信號)函數(shù)值最大,強化學(xué)習(xí)不同于連接主義學(xué)習(xí)
    發(fā)表于 05-30 06:53 ?1832次閱讀

    什么是強化學(xué)習(xí)?純強化學(xué)習(xí)有意義嗎?強化學(xué)習(xí)有什么的致命缺陷?

    強化學(xué)習(xí)是人工智能基本的子領(lǐng)域之一,在強化學(xué)習(xí)的框架,智能體通過與環(huán)境互動,來學(xué)習(xí)采取何種動作能使其在給定環(huán)境的長期獎勵最大化,就像在上
    的頭像 發(fā)表于 07-15 10:56 ?1.9w次閱讀
    什么是<b class='flag-5'>強化學(xué)習(xí)</b>?純<b class='flag-5'>強化學(xué)習(xí)</b>有意義嗎?<b class='flag-5'>強化學(xué)習(xí)</b>有什么的致命缺陷?

    如何使用深度強化學(xué)習(xí)進行機械臂視覺抓取控制的優(yōu)化方法概述

    針對提高視覺圖像特征與優(yōu)化控制之間契合度的問題,本文提出一種基于深度強化學(xué)習(xí)的機械臂視覺抓取控制優(yōu)化方法,可以自主地與環(huán)境交互產(chǎn)生的視覺圖像
    發(fā)表于 12-19 15:23 ?22次下載
    如何使用深度<b class='flag-5'>強化學(xué)習(xí)</b>進行機械臂視覺抓取控制的優(yōu)化方法概述

    對NAS任務(wù)強化學(xué)習(xí)的效率進行深入思考

    在一些情況下,我們會用策略函數(shù)(policy, 總得分,也就是搭建的網(wǎng)絡(luò)在測試集上的精度(accuracy),通過強化學(xué)習(xí)(Reinforcement Learning)這種通用黑盒算法來優(yōu)化。然而,因為強化學(xué)習(xí)
    的頭像 發(fā)表于 01-28 09:54 ?6067次閱讀

    強化學(xué)習(xí)在智能對話上的應(yīng)用介紹

    本文主要介紹深度強化學(xué)習(xí)在任務(wù)型對話上的應(yīng)用,兩者的結(jié)合點主要是將深度強化學(xué)習(xí)應(yīng)用于任務(wù)型對話的策略學(xué)習(xí)上來源:騰訊技術(shù)工程微信號
    的頭像 發(fā)表于 12-10 19:02 ?1733次閱讀

    機器學(xué)習(xí)的無模型強化學(xué)習(xí)算法及研究綜述

    根據(jù)真實環(huán)境的狀態(tài)轉(zhuǎn)移數(shù)據(jù)來預(yù)定義環(huán)境動態(tài)模型,隨后在通過環(huán)境動態(tài)模型進行策略學(xué)習(xí)的過程無須再與環(huán)境進行交互。在無模型強化學(xué)習(xí)
    發(fā)表于 04-08 11:41 ?11次下載
    機器<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>中</b>的無模型<b class='flag-5'>強化學(xué)習(xí)</b>算法及研究綜述

    《自動化學(xué)報》—多Agent深度強化學(xué)習(xí)綜述

    突破.由于融合了深度學(xué)習(xí)強大的表征能力和強化學(xué)習(xí)有效的策略搜索能力,深度強化學(xué)習(xí)已經(jīng)成為實現(xiàn)人工智能頗有前景的學(xué)習(xí)范式.然而,深度
    發(fā)表于 01-18 10:08 ?2441次閱讀
    《自動<b class='flag-5'>化學(xué)</b>報》—多Agent深度<b class='flag-5'>強化學(xué)習(xí)</b>綜述

    模擬矩陣在深度強化學(xué)習(xí)智能控制系統(tǒng)的應(yīng)用

    訊維模擬矩陣在深度強化學(xué)習(xí)智能控制系統(tǒng)的應(yīng)用主要是通過構(gòu)建一個包含多種環(huán)境信息和動作空間的模擬矩陣,來模擬和預(yù)測深度強化學(xué)習(xí)智能控制系統(tǒng)在不同環(huán)境下的表現(xiàn)和效果,從而優(yōu)化控制策略和提
    的頭像 發(fā)表于 09-04 14:26 ?1408次閱讀
    模擬矩陣在深度<b class='flag-5'>強化學(xué)習(xí)</b>智能控制系統(tǒng)<b class='flag-5'>中</b>的應(yīng)用

    通過強化學(xué)習(xí)策略進行特征選擇

    更快更好地學(xué)習(xí)。我們的想法是找到最優(yōu)數(shù)量的特征和最有意義的特征。在本文中,我們將介紹并實現(xiàn)一種新的通過強化學(xué)習(xí)策略的特征選擇。我們先討論強化學(xué)習(xí),尤其是馬爾可夫決策
    的頭像 發(fā)表于 06-05 08:27 ?1197次閱讀
    通過<b class='flag-5'>強化學(xué)習(xí)</b><b class='flag-5'>策略</b>進行特征選擇

    如何使用 PyTorch 進行強化學(xué)習(xí)

    的計算圖和自動微分功能,非常適合實現(xiàn)復(fù)雜的強化學(xué)習(xí)算法。 1. 環(huán)境(Environment) 在強化學(xué)習(xí),環(huán)境是一個抽象的概念,它定義了智能體(agent)可以執(zhí)行的動作(actions)、觀察到
    的頭像 發(fā)表于 11-05 17:34 ?1820次閱讀

    自動駕駛中常提的離線強化學(xué)習(xí)是什么?

    ,圖片源自:網(wǎng)絡(luò) 但強化學(xué)習(xí)本身是需要不斷試錯的,如果采用這種學(xué)習(xí)方式在真實道路不斷嘗試,一定會導(dǎo)致不可控的事故。于是就有人提出一種猜測,能不能利用已經(jīng)存在的大量行駛?cè)罩?、仿真記錄?/div>
    的頭像 發(fā)表于 02-07 09:21 ?380次閱讀
    自動駕駛中常提的離線<b class='flag-5'>強化學(xué)習(xí)</b>是什么?
    鄂托克前旗| 平江县| 静安区| 迁安市| 丽江市| 鹤庆县| 陕西省| 郧西县| 泰宁县| 揭阳市| 宜黄县| 济南市| 安达市| 色达县| 迭部县| 临洮县| 宁阳县| 甘泉县| 秦皇岛市| 察隅县| 江达县| 桐梓县| 红原县| 泰安市| 淄博市| 宝坻区| 准格尔旗| 崇明县| 商水县| 宝应县| 新建县| 偃师市| 田东县| 开化县| 宜昌市| 清远市| 洛南县| 西和县| 巴南区| 安溪县| 太仆寺旗|