日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用NVIDIA TAO快速準確地訓(xùn)練AI模型

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:Konstantin Rygol ? 2022-04-20 17:45 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

越來越多的要求制造商在其生產(chǎn)過程中達到高質(zhì)量控制標準。傳統(tǒng)上,制造商依靠人工檢查來保證產(chǎn)品質(zhì)量。然而,手動檢查成本高昂,通常只覆蓋一小部分生產(chǎn)樣本,最終導(dǎo)致生產(chǎn)瓶頸、生產(chǎn)率降低和效率降低。

通過人工智能計算機視覺實現(xiàn)缺陷檢測自動化,制造商可以徹底改變其質(zhì)量控制流程。然而,制造商和全自動化之間存在一個主要障礙。構(gòu)建一個 AI 系統(tǒng)和生產(chǎn)就緒的應(yīng)用程序是困難的,通常需要一個熟練的 AI 團隊來訓(xùn)練和微調(diào)模型。一般制造商不采用這種專業(yè)技術(shù),而是采用手動檢查。

本項目的目標是展示如何使用NVIDIA轉(zhuǎn)移學(xué)習(xí)工具包( TLT )和預(yù)訓(xùn)練模型快速建立制造過程中更精確的質(zhì)量控制。這個項目是在沒有人工智能專家或數(shù)據(jù)科學(xué)家的情況下完成的。為了了解 NVIDIA TLT 在為商業(yè)質(zhì)量控制目的培訓(xùn)人工智能系統(tǒng)方面的有效性,使用公開的 dataset 鋼焊接工藝,從 NGC 目錄(一個 GPU 優(yōu)化的人工智能和 HPC 軟件中心)重新培訓(xùn)預(yù)培訓(xùn)的 ResNet-18 模型,使用 TLT 。我們比較了人工智能研究團隊先前發(fā)表的一項工作中,在數(shù)據(jù)集上從頭開始構(gòu)建的模型和由此產(chǎn)生的模型的準確性。

NVIDIA TLT 操作簡便、速度快,不具備人工智能專業(yè)知識的工程師可以輕松使用。我們觀察到 NVIDIA TLT 的設(shè)置速度更快,結(jié)果更準確,宏觀平均 F1 成績 為 97% ,而之前發(fā)布的數(shù)據(jù)集“從頭開始構(gòu)建”的結(jié)果為 78% 。

這篇文章探討了 NVIDIA TLT 如何快速準確地訓(xùn)練 AI 模型,展示了 AI 和轉(zhuǎn)移學(xué)習(xí)如何改變圖像和視頻分析以及工業(yè)流程的部署方式。

具有 NVIDIA TLT 的工作流

NVIDIA TLT 是 NVIDIA 訓(xùn)練、調(diào)整和優(yōu)化( TAO )平臺 的核心組件,遵循零編碼范式快速跟蹤 AI 開發(fā)。 TLT 附帶了一套隨時可用的 Jupyter 筆記本、 Python 腳本和配置規(guī)范以及默認參數(shù)值,使您能夠快速輕松地開始培訓(xùn)和微調(diào)數(shù)據(jù)集。

為了開始使用 NVIDIA TLT ,我們遵循了以下 快速入門指南說明 。

我們下載了 Docker 容器和 TLT Jupyter 筆記本。

我們將數(shù)據(jù)集映射到 Docker 容器上。

我們開始了第一次培訓(xùn),調(diào)整了默認的培訓(xùn)參數(shù),如網(wǎng)絡(luò)結(jié)構(gòu)、網(wǎng)絡(luò)大小、優(yōu)化器等,直到我們對結(jié)果感到滿意。

數(shù)據(jù)集

這個項目中使用的數(shù)據(jù)集是由伯明翰大學(xué)的研究人員為他們的論文 基于可見 spectrum 攝像機和機器學(xué)習(xí)的 SS304 TIG 焊接過程缺陷自動分類 創(chuàng)建的。

該數(shù)據(jù)集由超過 45K 的灰度焊接圖像組成,可通過 Kaggle 獲得。數(shù)據(jù)集描述了一類正確執(zhí)行: good_weld 。鎢極惰性氣體( TIG )焊接過程中可能出現(xiàn)五類缺陷: 燒穿、污染、未熔合、未保護氣體、, 和 high_travel_speed 。

poYBAGJf1kWAN832AAHm8x-m3jg486.png

圖 1 來自培訓(xùn)數(shù)據(jù)集的焊接圖像示例

pYYBAGJf1mGAVHqaAAAwkhZuUwg683.png

表 1 列車、驗證和測試數(shù)據(jù)集的圖像分布

與許多工業(yè)數(shù)據(jù)集一樣,該數(shù)據(jù)集是相當(dāng)不平衡的,因為很難收集低可能性出現(xiàn)的缺陷的數(shù)據(jù)。表 1 顯示了列車、驗證和測試數(shù)據(jù)集的類別分布。

圖 2 顯示了測試數(shù)據(jù)集中的不平衡。測試數(shù)據(jù)集包含的 good_weld 圖像比 lack_of_shielding 多 75 倍。

pYYBAGJf1kaAOPETAABYSD8CO0U897.png

圖 2 TIG 鋼焊接試驗數(shù)據(jù)集的類別分布 。

使用 NVIDIA TLT

所采用的方法側(cè)重于最小化開發(fā)時間和調(diào)優(yōu)時間,同時確保精度適用于生產(chǎn)環(huán)境。 TLT 與示例筆記本附帶的標準配置文件結(jié)合使用。設(shè)置、培訓(xùn)和調(diào)整在 8 小時內(nèi)完成。

我們進行了有關(guān)網(wǎng)絡(luò)深度和訓(xùn)練次數(shù)的參數(shù)掃描。我們觀察到,改變默認的學(xué)習(xí)率并不能改善結(jié)果,因此我們沒有進一步研究這一點,而是將其保留在默認值。經(jīng)過 30 個階段的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,從 NGC 目錄中獲得的預(yù)訓(xùn)練 ResNet-18 模型獲得了最佳結(jié)果。

查看 krygol/304SteelWeldingClassification GitHub repo 中的逐步方法。

poYBAGJf1nCAFS_NAAAm3dHbnR4392.png

表 2 經(jīng)過 30 個時期的訓(xùn)練,學(xué)習(xí)率為 0 。 006 ,預(yù)訓(xùn)練的 ResNet-18 獲得的結(jié)果

獲得的結(jié)果在所有班級中都相當(dāng)好。一些 lack_of_fusion 氣體圖像被錯誤分類為 burn_through 和 污染 圖像。在訓(xùn)練更深層次的 ResNet50 時也觀察到了這種效果,這更容易將 lack_of_fusion 誤分類為另一個缺陷類。

與原始方法的比較

伯明翰大學(xué)的研究人員選擇了不同的人工智能工作流。他們手動準備數(shù)據(jù)集,通過欠采樣來減少不平衡。他們還將圖像重新縮放到不同的大小,并選擇自定義網(wǎng)絡(luò)結(jié)構(gòu)。

他們使用了一個完全連接的神經(jīng)網(wǎng)絡(luò)( Full-con6 ),即具有兩個隱藏層的神經(jīng)網(wǎng)絡(luò)。他們還實現(xiàn)了一個卷積神經(jīng)網(wǎng)絡(luò)( Conv6 ),其中有三個卷積層,每個卷積層后跟一個最大池層和一個完全連接層作為最終隱藏層。他們沒有像 ResNet 那樣使用跳過連接。

TLT 獲得的結(jié)果與伯明翰大學(xué)研究人員定制實施的結(jié)果相比更令人印象深刻。

pYYBAGJf1nuAPKE8AAAo2EGtn3k313.png

表 3 定制網(wǎng)絡(luò)與 TLT ResNet-18 的比較

Conv6 的平均表現(xiàn)較好,宏觀平均 F1 為 0 。 78 ,但在識別 lack_of_shielding 氣體缺陷方面完全失敗 。 con6 的平均表現(xiàn)較差,宏觀平均 F1 為 0 。 56 。 FULL-con6 可以對一些 lack_of_shielding 氣體圖像進行分類,但是 burn_through 和 高速行駛 圖像存在問題。 FULL-con6 和 Conv6 都有明顯的弱點,這將使它們無法獲得生產(chǎn)準備就緒的資格。

每個班級的最佳 F1 成績在表中以綠色標出。如您所見, TLT 訓(xùn)練的 ResNet-18 模型提供了更好的結(jié)果,宏觀平均值為 0 。 97 。

結(jié)論

我們在 TLT 方面有著豐富的經(jīng)驗,總體而言, TLT 是用戶友好且有效的。它設(shè)置速度快,易于使用,并且在較短的計算時間內(nèi)產(chǎn)生可接受的結(jié)果。根據(jù)我們的經(jīng)驗,我們相信 TLT 為不是 AI 專家但希望在生產(chǎn)環(huán)境中使用 AI 的工程師提供了巨大的優(yōu)勢。在制造環(huán)境中使用 TLT 自動化質(zhì)量控制不會帶來性能成本,應(yīng)用程序通常可以與默認設(shè)置一起使用,并進行一些小的調(diào)整,以超越自定義體系結(jié)構(gòu)。

利用 NVIDIA TLT 快速準確地訓(xùn)練人工智能模型的探索表明,人工智能在工業(yè)過程中具有巨大的潛力。

關(guān)于作者

Konstantin Rygol 是 AI 和 HPC 在波士頓存儲和服務(wù)器解決方案有限公司的首席工程師。他擁有挪威卑爾根大學(xué)的物理碩士學(xué)位。在研究原子物理學(xué)期間,他對 HPC 和 AI 產(chǎn)生了濃厚的熱情。他現(xiàn)在是 NVIDIA 深度學(xué)習(xí)培訓(xùn)中心的講師,致力于將人工智能引入德國市場。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5696

    瀏覽量

    110142
  • 服務(wù)器
    +關(guān)注

    關(guān)注

    14

    文章

    10371

    瀏覽量

    91774
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41326

    瀏覽量

    302705
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI Ceph 分布式存儲教程資料大模型學(xué)習(xí)資料2026

    。如何構(gòu)建高性能、高吞吐、高可擴展的 AI 分布式存儲系統(tǒng),已成為解鎖大模型基建能力的核心科技命題。這不僅關(guān)乎數(shù)據(jù)存得下、讀得快,更直接決定了 GPU 集群的利用率與模型訓(xùn)練的最終效率
    發(fā)表于 05-01 17:35

    HM博學(xué)谷狂野AI模型第四期

    ,雖然能快速構(gòu)建原型,卻難以觸及智能的邊界。面對模型的幻覺、推理能力的瓶頸以及定制化需求的落空,單純的應(yīng)用層知識顯得蒼白無力。博學(xué)谷“狂野 AI模型第四期”正是為了打破這一層技術(shù)天
    發(fā)表于 05-01 17:30

    AI模型微調(diào)企業(yè)項目實戰(zhàn)課

    業(yè)、守規(guī)矩、可完全掌控的專屬 AI 底座,已經(jīng)成為頭部企業(yè)的隱性共識。 二、 核心破局:微調(diào)——用極低成本撬動專業(yè)能力 很多企業(yè)對“自主訓(xùn)練模型”存在誤解,認為這需要像頂級科技巨頭那樣,耗費千萬算力
    發(fā)表于 04-16 18:48

    AI模型訓(xùn)練與部署實戰(zhàn) | 線下免費培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少一個完整的實戰(zhàn)項目練手?模型部署環(huán)節(jié)繁多,缺乏一套清晰的實戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦“AI
    的頭像 發(fā)表于 04-07 13:08 ?696次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與部署實戰(zhàn) | 線下免費培訓(xùn)

    NVIDIA 成立由全球領(lǐng)先 AI 實驗室組成的 Nemotron Coalition,推動開放前沿模型發(fā)展

    在內(nèi)的領(lǐng)先創(chuàng)新者皆是創(chuàng)始成員,助力塑造新一代 AI 系統(tǒng)。 ● 聯(lián)盟成員將協(xié)作開發(fā)一款基于 NVIDIA DGX? Cloud 訓(xùn)練的開放模型,并將生成的
    的頭像 發(fā)表于 03-17 11:14 ?341次閱讀
    <b class='flag-5'>NVIDIA</b> 成立由全球領(lǐng)先 <b class='flag-5'>AI</b> 實驗室組成的 Nemotron Coalition,推動開放前沿<b class='flag-5'>模型</b>發(fā)展

    NVIDIA Jetson模型賦能AI在邊緣端落地

    開源生成式 AI 模型不再局限于數(shù)據(jù)中心,而是開始深入到現(xiàn)實世界的各種機器中。從 Orin 到 Thor,NVIDIA Jetson 系列正在成為運行 NVIDIA Nemotron、
    的頭像 發(fā)表于 03-16 16:27 ?681次閱讀
    <b class='flag-5'>NVIDIA</b> Jetson<b class='flag-5'>模型</b>賦能<b class='flag-5'>AI</b>在邊緣端落地

    NVIDIA推出代理式AI藍圖與電信推理模型

    借助全新開源大型電信模型NVIDIA Blueprint,電信運營商能夠利用自有數(shù)據(jù)訓(xùn)練 AI 智能體,構(gòu)建自主網(wǎng)絡(luò)。
    的頭像 發(fā)表于 03-06 17:37 ?3113次閱讀

    NVIDIA 推出 Nemotron 3 系列開放模型

    token 數(shù)。 ● Nemotron 通過先進的強化學(xué)習(xí)技術(shù)以及大規(guī)模并行多環(huán)境后訓(xùn)練,實現(xiàn)了卓越的準確率。 ● NVIDIA 率先推出整套前沿的開放模型
    的頭像 發(fā)表于 12-16 09:27 ?867次閱讀
    <b class='flag-5'>NVIDIA</b> 推出 Nemotron 3 系列開放<b class='flag-5'>模型</b>

    NVIDIA推動面向數(shù)字與物理AI的開源模型發(fā)展

    NVIDIA 發(fā)布一系列涵蓋語音、安全與輔助駕駛領(lǐng)域的全新 AI 工具,其中包括面向移動出行領(lǐng)域的行業(yè)級開源視覺-語言-動作推理模型(Reasoning VLA) NVIDIA DRI
    的頭像 發(fā)表于 12-13 09:50 ?1579次閱讀

    利用NVIDIA Cosmos開放世界基礎(chǔ)模型加速物理AI開發(fā)

    NVIDIA 最近發(fā)布了 NVIDIA Cosmos 開放世界基礎(chǔ)模型(WFM)的更新,旨在加速物理 AI 模型的測試與驗證數(shù)據(jù)生成。借助
    的頭像 發(fā)表于 12-01 09:25 ?1486次閱讀

    借助NVIDIA Megatron-Core大模型訓(xùn)練框架提高顯存使用效率

    隨著模型規(guī)模邁入百億、千億甚至萬億參數(shù)級別,如何在有限顯存中“塞下”訓(xùn)練任務(wù),對研發(fā)和運維團隊都是巨大挑戰(zhàn)。NVIDIA Megatron-Core 作為流行的大模型
    的頭像 發(fā)表于 10-21 10:55 ?1431次閱讀
    借助<b class='flag-5'>NVIDIA</b> Megatron-Core大<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>框架提高顯存使用效率

    NVIDIA Nemotron Nano 2推理模型發(fā)布

    NVIDIA 正式推出準確、高效的混合 Mamba-Transformer 推理模型系列 NVIDIA Nemotron Nano 2。
    的頭像 發(fā)表于 08-27 12:45 ?2045次閱讀
    <b class='flag-5'>NVIDIA</b> Nemotron Nano 2推理<b class='flag-5'>模型</b>發(fā)布

    利用NVIDIA Cosmos模型訓(xùn)練通用機器人

    機器人領(lǐng)域的一大核心挑戰(zhàn)在于如何讓機器人掌握新任務(wù),而無需針對每個新任務(wù)和環(huán)境耗費大量精力收集和標注數(shù)據(jù)集。NVIDIA 的最新研究方案通過生成式 AI、世界基礎(chǔ)模型(如 NVIDIA
    的頭像 發(fā)表于 08-05 16:22 ?2271次閱讀
    利用<b class='flag-5'>NVIDIA</b> Cosmos<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>通用機器人

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報什么錯?
    發(fā)表于 07-30 08:15

    在阿里云PAI上快速部署NVIDIA Cosmos Reason-1模型

    NVIDIA 近期發(fā)布了 Cosmos Reason-1 的 7B 和 56B 兩款多模態(tài)大語言模型 (MLLM),它們經(jīng)過了“物理 AI 監(jiān)督微調(diào)”和“物理 AI 強化學(xué)習(xí)”兩個階段
    的頭像 發(fā)表于 06-04 13:43 ?1216次閱讀
    白银市| 桐梓县| 玉门市| 东丽区| 和林格尔县| 盘山县| 滁州市| 禹州市| 什邡市| 教育| 巩留县| 铜鼓县| 云梦县| 开平市| 吴旗县| 宜川县| 文山县| 泸水县| 堆龙德庆县| 海林市| 呼和浩特市| 双桥区| 通州区| 东方市| 岢岚县| 临泽县| 承德市| 昌图县| 射阳县| 万安县| 嘉定区| 大厂| 静宁县| 贺州市| 永修县| 祁连县| 铜川市| 乌拉特后旗| 安塞县| 二手房| 满城县|