日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Github上放出了只需4-8塊GPU就能訓(xùn)練的“改進(jìn)版”BigGAN模型代碼

DPVg_AI_era ? 來源:lp ? 2019-03-29 11:23 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

機(jī)器學(xué)習(xí)模型訓(xùn)練成本往往令普通人倍感頭疼,動輒幾十上百塊泰坦,別說買,就是租都肉疼。近日,BigGAN作者之一在Github上放出了只需4-8塊GPU就能訓(xùn)練的“改進(jìn)版”BigGAN模型代碼,可以說是窮人的福音。新模型使用PyTorch實(shí)現(xiàn)。

機(jī)器學(xué)習(xí)模型訓(xùn)練是一個耗時費(fèi)力的過程,而且隨著人們對模型性能要求的提升,訓(xùn)練模型需要的計算力正以驚人的速度增長,堆疊高性能GPU進(jìn)行數(shù)據(jù)訓(xùn)練幾乎是唯一選擇,動輒幾十塊上百塊的泰坦,搞的地主家也沒有余糧。

BigGAN效果拔群,但訓(xùn)練成本同樣讓人望而卻步,想自己搞?先摸摸錢包再說。

現(xiàn)在,BigGAN原作者之一Andrew Brock在Github上放出了只需4-8塊GPU就能訓(xùn)練的新版BigGAN,想窮人之所想,急窮人之所急,可以說是非常親民了。新模型使用的是PyTorch,而不是TF。

下面一起看看這個新模型的具體介紹,以下內(nèi)容來自Github上的簡介。

本資源包含由Andrew Brock,JeffDonahue和Karen Simonyan進(jìn)行的大規(guī)模GAN高保真自然圖像合成訓(xùn)練的BigGAN,只需4-8塊 GPU的訓(xùn)練代碼。

本段代碼由Andy Brock和Alex Andonian編寫。

運(yùn)行環(huán)境和條件

PyTorch 1.0.1

tqdm,numpy,scipy和h5py

ImageNet訓(xùn)練集

首先,可以選擇準(zhǔn)備目標(biāo)數(shù)據(jù)集的預(yù)處理HDF5版本,以實(shí)現(xiàn)更快的輸入輸出。之后需要計算FID所需的Inception時刻。這些都可以通過修改和運(yùn)行以下代碼來完成

shscripts / utils / prepare_data.sh

默認(rèn)情況下,ImageNet訓(xùn)練集被下載到此目錄中的根文件夾中,并將以128x128像素分辨率準(zhǔn)備緩存的HDF5。

在scripts文件夾中,有多個bash腳本可以訓(xùn)練具有不同批量大小的BigGAN。假設(shè)您無法訪問完整的TPU pod,因此通過梯度累積(在多個小批量下進(jìn)行梯度平均,并且僅在N次累積后執(zhí)行優(yōu)化程序步驟),以此形式表示大批量。

默認(rèn)情況下,可以使用launch_BigGAN_bs256x8.sh腳本訓(xùn)練一個全尺寸的BigGAN模型,批大小為256和8個梯度累積,總批量為2048。在8張V100上進(jìn)行全精度訓(xùn)練(無張量),訓(xùn)練需要15天,期間共進(jìn)行約150k次迭代。

首先需要確定設(shè)置可以支持的最大批量大小。這里提供的預(yù)訓(xùn)練模型是在8個V100上(每個顯存16GB )上訓(xùn)練的,這個配置可以支持比默認(rèn)使用的B1S256稍多一些的載荷。一旦確定了這一點(diǎn),就應(yīng)該修改腳本,使批大小乘以梯度累積的數(shù)量等于所需的總批量大?。˙igGAN默認(rèn)為2048)。

另外,此腳本使用--load_in_memarg,將整個(最大支持64GB)的I128.hdf5文件加載到RAM中,以加快數(shù)據(jù)的加載速度。如果沒有足夠的RAM做硬件支持(可能需要96GB以上的RAM),請刪除此參數(shù)。

度量標(biāo)準(zhǔn)和抽樣

在訓(xùn)練期間,腳本將輸出帶有訓(xùn)練指標(biāo)和測試指標(biāo)的日志,同時保存模型權(quán)重和優(yōu)化程序參數(shù)的多個副本(前者保存最近的2個,后者保存5個最高得分),并且每次保存權(quán)重時將生成樣本和插值。 logs文件夾包含處理這些日志的腳本,并使用MATLAB繪制結(jié)果。

訓(xùn)練之后,可以使用sample.py生成其他樣本和插值,使用不同的截斷值,批量大小,站立統(tǒng)計累積次數(shù)等進(jìn)行測試。有關(guān)示例,請參閱sample_BigGAN_bs256x8.sh腳本。

默認(rèn)情況下,所有內(nèi)容都保存在weights/samples/logs/data文件夾中,這些文件夾設(shè)置與此repo位于同一文件夾中??梢允褂?-base_root參數(shù)將所有這些指向不同的基本文件夾,或者使用各自的參數(shù)(例如--logs_root)選擇每個基礎(chǔ)文件夾的特定位置。

此代碼中包含了運(yùn)行BigGAN-deep的腳本,但還沒有完全訓(xùn)練使用它們的模型,因此用戶可以視作這些模型尚未測試過。此外,我代碼中還包括在CIFAR上運(yùn)行模型的腳本,以及在ImageNet上運(yùn)行SA-GAN(包括EMA)和SN-GAN的腳本。

SA-GAN代碼假設(shè)用戶配置在4張TitanX(或等同于該配置的GPU RAM),并且將以批量大小為128以及2個梯度累積運(yùn)行。

關(guān)于初始度量標(biāo)準(zhǔn)的重要說明

本資源使用PyTorch內(nèi)置的初始網(wǎng)絡(luò)來計算IS和FID分?jǐn)?shù)。這些分?jǐn)?shù)與使用Tensorflow官方初始代碼獲得的分?jǐn)?shù)不同,僅用于監(jiān)控目的。使用--sample_npz參數(shù)在模型上運(yùn)行sample.py,然后運(yùn)行inception_tf13來計算實(shí)際的TensorFlow IS。請注意,需要安裝TensorFlow 1.3或更早版本,因?yàn)?.4或更高版本會破壞原始的IS代碼。

預(yù)訓(xùn)練模型

PyTorch初始分?jǐn)?shù)和FID分?jǐn)?shù)

我們引入了兩個預(yù)訓(xùn)練模型檢查點(diǎn)(使用G,D,G的EMA副本,優(yōu)化器和狀態(tài)dict):

主要檢查點(diǎn)是在 128x128 ImageNet 圖像上訓(xùn)練的 BigGAN,該模型使用 BS256 和 8 梯度累積,并在崩潰前實(shí)現(xiàn),其 TF Inception Score 為 97.35 +/- 1.79,

詳見:

https://drive.google.com/open?id=1nAle7FCVFZdix2—ks0r5JBkFnKw8ctW

第一個模型(100k G iters)的早期檢查點(diǎn),性能更高,在崩潰之前實(shí)現(xiàn),可能更容易微調(diào)。

詳見:

https://drive.google.com/open?id=1dmZrcVJUAWkPBGza_XgswSuT-UODXZcO。

另外,使用Places-365數(shù)據(jù)集的預(yù)訓(xùn)練模型即將推出。

此repo還包含用于將原始TF HubBigGAN 生成器權(quán)重的PyTorch的移植腳本。有關(guān)更多詳細(xì)信息,請參閱TFHub文件夾中的腳本。

使用自己的數(shù)據(jù)集或創(chuàng)建新的訓(xùn)練函數(shù)微調(diào)模型

如果想恢復(fù)中斷訓(xùn)練或微調(diào)預(yù)訓(xùn)練模型,請在運(yùn)行相同的啟動腳本,添加--resume參數(shù)。實(shí)驗(yàn)名稱是由訓(xùn)練配置自動生成的,但如果希望使用修改后的優(yōu)化器設(shè)置微調(diào)模型,可以使用--experiment_namearg進(jìn)行文件名的覆蓋。

要準(zhǔn)備自己的數(shù)據(jù)集,需要將其添加到datasets.py并修改utils.py中的convenience dicts,以獲得數(shù)據(jù)集的相應(yīng)元數(shù)據(jù)。在prepare_data.sh中重復(fù)此過程(也可以選擇生成HDF5預(yù)處理副本,并計算FID的Inception Moments)。

默認(rèn)情況下,訓(xùn)練腳本將保存初始分?jǐn)?shù)最高的前5個檢查點(diǎn)。對于ImageNet以外的數(shù)據(jù)集,初始分?jǐn)?shù)可能是一種非常差的質(zhì)量標(biāo)準(zhǔn),可以使用--which_bestFID來代替。

要使用自己的訓(xùn)練函數(shù)(如訓(xùn)練BigVAE):修改train_fns.GAN_training_function或在if config['which_train_fn'] =='GAN'之后添加新的訓(xùn)練函數(shù)。

本模型的主要亮點(diǎn)

本資源庫提供完整的訓(xùn)練和指標(biāo)日志以供參考。重現(xiàn)論文過程中最困難的事情之一就是檢查訓(xùn)練早期的記錄日志是否規(guī)整,特別是在訓(xùn)練時間長達(dá)數(shù)周的情況下。希望這將有助于未來的工作。

本資源庫包括一個加速的FID計算 - 原始的scipy版本可能需要超過10分鐘來計算矩陣sqrt,此版本使用加速的PyTorch版本,計算時間不到1秒。

本資源用了一種加速、低內(nèi)存消耗的正交寄存器實(shí)現(xiàn)。默認(rèn)情況下,只計算最大奇異值(譜范數(shù)),但本段代碼通過 —num_G_SVs 參數(shù)支持了更多 SV 的計算。

本模型與原始BigGAN之間的主要區(qū)別

我們使用來自SA-GAN的優(yōu)化器設(shè)置(G_lr= 1e-4,D_lr = 4e-4,num_D_steps= 1,與BigGAN的設(shè)置不同(G_lr = 5e-5,D_lr = 2e-5,num_D_steps = 2)。雖然這樣犧牲了些許性能,但這是削減訓(xùn)練時間的第一步。

默認(rèn)情況下,本資源不使用Cross-Replica BatchNorm(又名Synced BatchNorm)。本資源嘗試的兩種變體與內(nèi)置的BatchNorm具有略微不同的梯度(盡管是相同的前向傳遞),可以滿足訓(xùn)練要求。

梯度累積意味著需要更頻繁地更新SV估計值和BN統(tǒng)計量(頻度增加了8倍)。這意味著BN統(tǒng)計數(shù)據(jù)更接近于常設(shè)統(tǒng)計數(shù)據(jù),而且奇異值估計往往更準(zhǔn)確。因此,在測試模式下默認(rèn)使用G來衡量指標(biāo)(使用BatchNorm運(yùn)行統(tǒng)計估算,而不是像文件中那樣計算常設(shè)統(tǒng)計數(shù)據(jù))。

我們?nèi)匀恢С殖TO(shè)統(tǒng)計信息(具體見sample.sh腳本)。這也可能導(dǎo)致早期累積的梯度變得過時,但在實(shí)踐中這已經(jīng)不再是個問題。

目前給出的預(yù)訓(xùn)練模型未經(jīng)過正交正則化訓(xùn)練。似乎增加了模型由于截斷變得不可修復(fù)的可能性,但本資源庫中給出特定模型似乎格外好運(yùn),沒有碰到這種情況。不過,我們還是提供兩個經(jīng)過高度優(yōu)化(快速和最小內(nèi)存消耗)的正交寄存器實(shí)現(xiàn),直接計算正交寄存器梯度。

Github資源地址:

https://github.com/ajbrock/BigGAN-PyTorch

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5283

    瀏覽量

    136103
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    67

    文章

    8567

    瀏覽量

    137260
  • GitHub
    +關(guān)注

    關(guān)注

    3

    文章

    489

    瀏覽量

    18770

原文標(biāo)題:學(xué)生黨福音!僅4個GPU打造自己的BigGAN,PyTorch代碼已開源

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI Ceph 分布式存儲教程資料大模型學(xué)習(xí)資料2026

    瓶頸:從傳統(tǒng)存儲向 AI 專用架構(gòu)演進(jìn) 在大模型訓(xùn)練場景下,計算節(jié)點(diǎn)(GPU)的運(yùn)算速度極快,往往在毫秒級就能完成一輪數(shù)據(jù)的處理。如果后端存儲無法跟上這一速度,
    發(fā)表于 05-01 17:35

    HM博學(xué)谷狂野AI大模型第四期

    。例如,數(shù)據(jù)并行(DDP)與模型并行是如何在多 GPU 集群中協(xié)同工作,梯度累積與混合精度訓(xùn)練又是如何在節(jié)省顯存的同時保證計算精度。更重要的是,課程將深入剖析 PEFT(參數(shù)高效微調(diào))技術(shù),如 LoRA
    發(fā)表于 05-01 17:30

    百度文心衍生模型PaddleOCR登頂GitHub Star OCR全球第一

    3月30日,百度文心衍生模型PaddleOCR在GitHub的Star數(shù)突破73.3K,超越谷歌Tesseract OCR,成為全球Star數(shù)最高的OCR項(xiàng)目。
    的頭像 發(fā)表于 03-31 11:40 ?487次閱讀

    后量化模型在 iMX93 NPU 運(yùn)行,但輸出不正確怎么解決

    良好的精度,但 int8 輸出似乎完全隨機(jī)。在對一些訓(xùn)練數(shù)據(jù)進(jìn)行測試后,應(yīng)該為正的幀的范圍是 -128 到 127,應(yīng)該為負(fù)的幀也是如此。我是否誤解了輸出,或者在轉(zhuǎn)換或量化模型出了
    發(fā)表于 03-18 07:53

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識別模型在RA8P1 Titan Board的部署

    ;--------onnx模型已保存--------\") 四、模型的轉(zhuǎn)換、量化與編譯 訓(xùn)練好的深度學(xué)習(xí)模型無法直接在RA8P1開發(fā)板
    發(fā)表于 03-15 20:42

    訓(xùn)練到推理:大模型算力需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。一個萬億參數(shù)大模型訓(xùn)練可能需要數(shù)千張
    的頭像 發(fā)表于 02-05 16:07 ?1057次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到推理:大<b class='flag-5'>模型</b>算力需求的新拐點(diǎn)已至

    RA8P1部署ai模型指南:從訓(xùn)練模型到部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺,跑通從數(shù)據(jù)準(zhǔn)備、模型
    的頭像 發(fā)表于 11-20 18:06 ?2449次閱讀
    RA<b class='flag-5'>8</b>P1部署ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到部署?|?本周六

    在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)

    本帖欲分享在Ubuntu20.04系統(tǒng)中訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型的一些經(jīng)驗(yàn)。我們采用jupyter notebook作為開發(fā)IDE,以TensorFlow2為訓(xùn)練框架,目標(biāo)是訓(xùn)練一個手寫數(shù)字識
    發(fā)表于 10-22 07:03

    AI智能大模型,你身邊的最好用的辦公提效小能手

    幾十億到數(shù)萬億; 任務(wù)廣:一次訓(xùn)練可以支持多個任務(wù),具備通用能力; 適應(yīng)快:只需少量樣例,就能遷移到新任務(wù)中(Few-shot、Zero-shot)。 訊維AI智能大模型
    的頭像 發(fā)表于 09-30 10:59 ?400次閱讀

    使用ROCm?優(yōu)化并部署YOLOv8模型

    ://github.com/ultralytics/ultralytics/tree/main YOLOv8模型的卓越性能使其在多個領(lǐng)域具有廣泛的應(yīng)用前景,如自動駕
    的頭像 發(fā)表于 09-24 18:32 ?1026次閱讀
    使用ROCm?優(yōu)化并部署YOLOv<b class='flag-5'>8</b><b class='flag-5'>模型</b>

    Arm神經(jīng)技術(shù)是業(yè)界首創(chuàng)在 Arm GPU 增添專用神經(jīng)加速器的技術(shù),移動設(shè)備實(shí)現(xiàn)PC級別的AI圖形性能

    應(yīng)用,該 AI 圖形優(yōu)化升級技術(shù)能夠以每幀四毫秒的速度實(shí)現(xiàn)兩倍的分辨率提升 開發(fā)者即刻就能通過業(yè)界首個神經(jīng)圖形的開放開發(fā)套件進(jìn)行構(gòu)建,其中包含虛幻引擎插件、模擬器,以及 GitHub 和 Hugging Face 的開放
    的頭像 發(fā)表于 08-14 17:59 ?2949次閱讀

    aicube的n卡gpu索引該如何添加?

    請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了gpu1
    發(fā)表于 07-25 08:18

    make sence成的XML文件能上傳到自助訓(xùn)練模型嗎?

    make sence成的XML文件能上傳到自助訓(xùn)練模型
    發(fā)表于 06-23 07:38

    為什么無法在GPU使用INT8 和 INT4量化模型獲得輸出?

    安裝OpenVINO? 2024.0 版本。 使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU
    發(fā)表于 06-23 07:11

    代碼革命的先鋒:aiXcoder-7B模型介紹

    ? ? 國內(nèi)開源代碼模型 4月9日aiXcoder宣布正式開源其7B模型Base版,僅僅過去一個禮拜,aiXcoder-7B在軟件源代碼
    的頭像 發(fā)表于 05-20 14:41 ?964次閱讀
    <b class='flag-5'>代碼</b>革命的先鋒:aiXcoder-7B<b class='flag-5'>模型</b>介紹
    修文县| 安塞县| 济源市| 兴宁市| 佛教| 房山区| 雅安市| 河北区| 宁陵县| 富顺县| 海宁市| 汶川县| 海阳市| 永福县| 西乌珠穆沁旗| 泗阳县| 海盐县| 克拉玛依市| 遵义县| 白银市| 龙井市| 保亭| 德江县| 金沙县| 樟树市| 古蔺县| 潮安县| 昭苏县| 白玉县| 东海县| 紫阳县| 五莲县| 咸阳市| 广饶县| 温宿县| 新建县| 嘉祥县| 宣恩县| 隆子县| 灵台县| 陆良县|