日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能中訓(xùn)練和推理的區(qū)別是什么,需要關(guān)注哪些要點(diǎn)

wFVr_Hardware_1 ? 來源:硬件十萬個(gè)為什么 ? 作者:硬件十萬個(gè)為什么 ? 2022-12-16 09:41 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

我們?cè)趯W(xué)習(xí)人工智能時(shí)常會(huì)遇到訓(xùn)練(Training)和推理(Inference)兩個(gè)概念,這是人工智能實(shí)現(xiàn)的兩個(gè)環(huán)節(jié)。今天我們一起討論一下以下兩個(gè)問題。

訓(xùn)練和推理的區(qū)別是什么?

區(qū)分人工智能訓(xùn)練和推理芯片/產(chǎn)品需要關(guān)注哪些要點(diǎn)?

1、訓(xùn)練和推理的區(qū)別是什么?

訓(xùn)練過程:又稱學(xué)習(xí)過程,是指通過大數(shù)據(jù)訓(xùn)練出一個(gè)復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,通過大量數(shù)據(jù)的訓(xùn)練確定網(wǎng)絡(luò)中權(quán)重和偏置的值,使其能夠適應(yīng)特定的功能。在訓(xùn)練中需要調(diào)整神經(jīng)網(wǎng)絡(luò)權(quán)重以使損失函數(shù)最小,通過反向傳播來執(zhí)行訓(xùn)練以更新每層中的權(quán)重。訓(xùn)練過程需要較高的計(jì)算性能、需要海量的數(shù)據(jù)、訓(xùn)練出的網(wǎng)絡(luò)具有一定通用性。

推理過程:又稱判斷過程,是指利用訓(xùn)練好的模型,使用新數(shù)據(jù)推理出各種結(jié)論。推理是預(yù)測(cè)或推斷的過程,借助在訓(xùn)練中已確定參數(shù)的神經(jīng)網(wǎng)絡(luò)模型進(jìn)行運(yùn)算,利用輸入的新數(shù)據(jù)來一次性進(jìn)行分類或輸出預(yù)測(cè)結(jié)果。

我們可以類比我們自己進(jìn)行學(xué)習(xí),并用自己學(xué)到的知識(shí)進(jìn)行判斷的過程。學(xué)習(xí)的過程(訓(xùn)練)是這樣的,當(dāng)我們?cè)趯W(xué)校開始學(xué)習(xí)一門新學(xué)科,為了掌握大量的知識(shí),我們必須讀大量的書、專心聽老師講解,課后我們還要做大量的習(xí)題鞏固自己對(duì)知識(shí)的理解,并通過考試來驗(yàn)證學(xué)習(xí)的結(jié)果,當(dāng)我們考試通過后我們才算是完成了整個(gè)學(xué)習(xí)過程。每次考試,有的同學(xué)考分高,有的同學(xué)考分低,這個(gè)就是學(xué)習(xí)效果的差別了。當(dāng)然,如果你不幸考試沒有通過,還要繼續(xù)重新學(xué)習(xí),不斷提升你對(duì)知識(shí)的掌握程度,直到最終通過考試為止。而判斷的過程(推理)如下,我們應(yīng)用所學(xué)的知識(shí)進(jìn)行判斷,比如你從醫(yī)學(xué)專業(yè)畢業(yè),開始了你治病救人的工作,這時(shí)候你對(duì)病人病因的判斷就是你在做“推理”的工作,你診斷100個(gè)病人,其中99個(gè)你都能準(zhǔn)確的判斷出病因,大家都夸你是一個(gè)好醫(yī)生,學(xué)有所成、判斷準(zhǔn)確。

綜上,人工智能的這種訓(xùn)練過程和推理過程,和人類大腦學(xué)習(xí)過程和判斷的過程非常相似。通常需要花很長時(shí)間來學(xué)習(xí)(即訓(xùn)練),而學(xué)會(huì)之后進(jìn)行判斷(即推理)的時(shí)間只需要一剎那就行了。

2、區(qū)分人工智能訓(xùn)練和推理芯片/產(chǎn)品需要關(guān)注哪些要點(diǎn)? 根據(jù)承擔(dān)任務(wù)的不同,AI芯片/產(chǎn)品可以分為兩類,分別是訓(xùn)練AI芯片和推理AI芯片,他們的主要區(qū)別是以下幾點(diǎn)。

(1)部署的位置不一樣

大量的訓(xùn)練芯片都在云端,即部署于數(shù)據(jù)中心內(nèi),利用海量的數(shù)據(jù)和龐大而復(fù)雜的神經(jīng)網(wǎng)絡(luò)進(jìn)行模型訓(xùn)練,這類芯片都很復(fù)雜。目前,除了英偉達(dá)、超威、英特爾等芯片公司,谷歌等這些互聯(lián)網(wǎng)公司都有云端訓(xùn)練芯片,國內(nèi)華為、寒武紀(jì)還有好多初創(chuàng)公司也在做云端訓(xùn)練芯片。

很多的推理芯片也會(huì)放置在云端,數(shù)據(jù)中心中很多服務(wù)器都會(huì)配置推理用的PCIE插卡,還有大量的推理芯片用在邊緣側(cè)(各種數(shù)據(jù)中心外的設(shè)備),如自動(dòng)駕駛汽車、機(jī)器人、智能手機(jī)、無人機(jī)物聯(lián)網(wǎng)設(shè)備,它們都是用訓(xùn)練好的模型進(jìn)行推理。布局云端推理芯片和邊緣側(cè)推理芯片的公司更多,產(chǎn)品種類豐富,定制化程度也會(huì)高很多。

(2)性能要求不一樣

準(zhǔn)確度/精度要求不一樣

我們從性能角度評(píng)價(jià)一個(gè)人工智能系統(tǒng)的效果,可以通過準(zhǔn)確度/精度這樣的指標(biāo),比如在100個(gè)樣本中,能預(yù)測(cè)了 85 個(gè)樣本,準(zhǔn)確率為 85%,人工智能 算法是基于概率論和統(tǒng)計(jì)學(xué)的,不可能達(dá)到 100% 的預(yù)測(cè)準(zhǔn)確率,并且實(shí)現(xiàn)越高的準(zhǔn)確度需要付出越大的努力和代價(jià)越大。我們經(jīng)常提到的數(shù)據(jù)精度,也會(huì)直接影響系統(tǒng)準(zhǔn)確性,我們可以把數(shù)據(jù)的精度類比為照片中的像素?cái)?shù),像素越多則分辨率越高,同樣,精度越高,表征事物越準(zhǔn)確。提高精度也是有代價(jià)的,它需要系統(tǒng)提供更多的內(nèi)存,并要耗費(fèi)更長的處理時(shí)間,比如有數(shù)據(jù)證明采用int4精度與int8相比具有59%的加速。

實(shí)際應(yīng)用中,并不是準(zhǔn)確度越高越好或支持的數(shù)據(jù)精度越高越好,不同的應(yīng)用場(chǎng)景對(duì)于性能指標(biāo)的要求也是不一樣的。以圖像識(shí)別應(yīng)用為例,在零售店人員跟蹤中,識(shí)別經(jīng)過某個(gè)過道的顧客,這種應(yīng)用5% ~10%的誤差是可以接受的;但是在醫(yī)療診斷或汽車視覺的等應(yīng)用中,準(zhǔn)確度的要求就要高很多,準(zhǔn)確度低了就無法應(yīng)用。總之,不同應(yīng)用對(duì)于準(zhǔn)確度和精度的容忍度是不一樣的,需要我們進(jìn)行權(quán)衡。

回到推理和訓(xùn)練產(chǎn)品,選擇時(shí)就有很大區(qū)別,比如在邊緣側(cè)的推理產(chǎn)品中,由于它對(duì)準(zhǔn)確度的要求不高,我們可能只要支持int8甚至更低的精度就可以了。但是訓(xùn)練產(chǎn)品,比如用于高性能計(jì)算(HPC)場(chǎng)景中,必須有能力實(shí)現(xiàn)高的準(zhǔn)確度,支持的數(shù)據(jù)精度范圍也需要更加豐富,比如需要支持FP32、FP64這樣精度的數(shù)據(jù)。10月7日美國對(duì)我國新一期的芯片限制法案中,就有一條是對(duì)我們支持FP64計(jì)算類芯片的研發(fā)和生產(chǎn)進(jìn)行限制。

計(jì)算量要求不一樣

訓(xùn)練需要密集的計(jì)算,通過神經(jīng)網(wǎng)絡(luò)算出結(jié)果后,如果發(fā)現(xiàn)錯(cuò)誤或未達(dá)到預(yù)期,這時(shí)這個(gè)錯(cuò)誤會(huì)通過網(wǎng)絡(luò)層反向傳播回來(參考 機(jī)器學(xué)習(xí)中的函數(shù)(3) - “梯度下降”走捷徑,“BP算法”提效率 ),該網(wǎng)絡(luò)需要嘗試做出新的推測(cè),在每一次嘗試中,它都要調(diào)整大量的參數(shù),還必須兼顧其它屬性。再次做出推測(cè)后再次校驗(yàn),通過一次又一次循環(huán)往返,直到其得到“最優(yōu)”的權(quán)重配置,達(dá)成預(yù)期的正確答案。如今,神經(jīng)網(wǎng)絡(luò)復(fù)雜度越來越高,一個(gè)網(wǎng)絡(luò)的參數(shù)可以達(dá)到百萬級(jí)以上,因此每一次調(diào)整都需要進(jìn)行大量的計(jì)算。曾在斯坦福大學(xué)做過研究,在谷歌和百度都任職過的吳恩達(dá)這樣舉例“訓(xùn)練一個(gè)百度的漢語語音識(shí)別模型不僅需要4TB的訓(xùn)練數(shù)據(jù),而且在整個(gè)訓(xùn)練周期中還需要20 exaflops(百億億次浮點(diǎn)運(yùn)算)的算力”,訓(xùn)練是一個(gè)消耗巨量算力的怪獸。 推理是利用訓(xùn)練好的模型,使用新數(shù)據(jù)推理出各種結(jié)論,它是借助神經(jīng)網(wǎng)絡(luò)模型進(jìn)行運(yùn)算,利用輸入的新數(shù)據(jù)“一次性”獲得正確結(jié)論的過程,他不需要和訓(xùn)練一樣需要循環(huán)往復(fù)的調(diào)整參數(shù),因此對(duì)算力的需求也會(huì)低很多。

存儲(chǔ)要求不一樣

訓(xùn)練的時(shí)候反向調(diào)整會(huì)應(yīng)用到前饋網(wǎng)絡(luò)計(jì)算的中間結(jié)果,所以需要很大的顯存,訓(xùn)練的芯片存儲(chǔ)的設(shè)計(jì)和使用的方案是復(fù)雜的。訓(xùn)練好的模型,需要使用大量數(shù)據(jù),大量數(shù)據(jù)要讀入顯存,顯存帶寬要足夠大、時(shí)延要足夠低。同時(shí),我們?cè)谏窠?jīng)網(wǎng)絡(luò)的訓(xùn)練中使用梯度下降算法,顯存中除了加載模型參數(shù),還需要保存梯度信息的中間狀態(tài),因此訓(xùn)練相比于推理,顯存需求大大增加,顯存足夠大才能運(yùn)轉(zhuǎn)起來。

綜上,訓(xùn)練和推理的芯片/產(chǎn)品部署的位置不一樣,對(duì)于性能準(zhǔn)確度和精度的要求不一樣,對(duì)于算力能力和存儲(chǔ)大小的要求也不一樣,除了這些關(guān)鍵指標(biāo)差異外。用于訓(xùn)練場(chǎng)景的芯片高精度、高吞吐量,因此單芯片功耗大(甚至可以達(dá)到300W),這種芯片成本也很高;用于云端推理的芯片,更加關(guān)注算力、時(shí)延等的平衡,對(duì)功耗成本也非常敏感。參考英偉達(dá)的產(chǎn)品,它每一代產(chǎn)品并沒有開發(fā)專門的推理卡,其使用的是訓(xùn)練卡的低配版本來做推理的。但邊緣測(cè)應(yīng)用推理芯片,就一定要結(jié)合應(yīng)用場(chǎng)景,做到低功耗、低成本。

3、我們?nèi)绾稳W(xué)習(xí)理解人工智能里的訓(xùn)練和推理?

要學(xué)習(xí)理解人工智能,訓(xùn)練和推理相關(guān)的知識(shí)是必須都要掌握的,如果你只學(xué)習(xí)了“訓(xùn)練”中如何搭建網(wǎng)絡(luò),參數(shù)調(diào)整等,那么你就無法了解結(jié)合實(shí)際應(yīng)用“推理”是如何發(fā)揮作用的,接不了地氣;同樣,如果你只做過“推理”的操作,那么你也不能理解在實(shí)現(xiàn)推理判斷之前,需要做哪些準(zhǔn)備工作,進(jìn)行大量的計(jì)算,才能訓(xùn)練出一個(gè)可用的、好的神經(jīng)網(wǎng)絡(luò)。 審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:人工智能中訓(xùn)練和推理的區(qū)別是什么?

文章出處:【微信號(hào):Hardware_10W,微信公眾號(hào):硬件十萬個(gè)為什么】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    嵌入式人工智能課程(華清遠(yuǎn)見)

    嵌入式 AI 編譯器優(yōu)化:華清遠(yuǎn)見課程,解鎖極致端側(cè)性能 隨著人工智能從云端全面向邊緣側(cè)和終端側(cè)下沉,“萬物智聯(lián)”的時(shí)代已經(jīng)悄然到來。然而,在這股浪潮背后,隱藏著一個(gè)巨大的技術(shù)鴻溝:在算力受限
    發(fā)表于 04-16 18:47

    人工智能多模態(tài)與視覺大模型開發(fā)實(shí)戰(zhàn) - 2026必會(huì)

    視覺大模型特訓(xùn):從原理到部署一站式學(xué)會(huì) 在科技飛速發(fā)展的當(dāng)下,視覺大模型已成為人工智能領(lǐng)域的一顆璀璨明星,廣泛應(yīng)用于安防監(jiān)控、自動(dòng)駕駛、醫(yī)療影像分析等眾多領(lǐng)域,深刻改變著我們的生活與工作方式。如今
    發(fā)表于 04-15 16:06

    人工智能測(cè)試開發(fā)訓(xùn)練營2期

    霍格沃茲干貨:AI 測(cè)試常見誤區(qū)與避坑指南 在2026年的技術(shù)版圖中,人工智能已不再是錦上添花的點(diǎn)綴,而是軟件質(zhì)量的基石。然而,隨著大模型(LLM)和生成式AI的深度應(yīng)用,傳統(tǒng)的測(cè)試方法論
    發(fā)表于 04-11 16:42

    淺談人工智能(2)

    接前文《淺談人工智能(1)》。 (5)什么是弱人工智能、強(qiáng)人工智能以及超人工智能? 弱人工智能(Weak AI),也稱限制領(lǐng)域
    的頭像 發(fā)表于 02-22 08:24 ?420次閱讀
    淺談<b class='flag-5'>人工智能</b>(2)

    開發(fā)智能體配置-內(nèi)容合規(guī)

    智能體上架前,需完成“人工智能生成合成內(nèi)容標(biāo)識(shí)”和“大模型備案信息”填寫 ,以供平臺(tái)審核;可在智能體【配置】-【內(nèi)容合規(guī)】填寫。 人工智能
    發(fā)表于 02-07 11:44

    訓(xùn)練推理:大模型算力需求的新拐點(diǎn)已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點(diǎn)主要集中在大模型訓(xùn)練所需的算力投入。一個(gè)萬億參數(shù)大模型的訓(xùn)練可能需要數(shù)千張GPU芯片連續(xù)運(yùn)行數(shù)月,成本高達(dá)數(shù)千萬甚至上億元。但隨著大模型技術(shù)的成熟和應(yīng)用落地,
    的頭像 發(fā)表于 02-05 16:07 ?1100次閱讀
    從<b class='flag-5'>訓(xùn)練</b>到<b class='flag-5'>推理</b>:大模型算力需求的新拐點(diǎn)已至

    AI推理芯片需求爆發(fā),OpenAI欲尋求新合作伙伴

    電子發(fā)燒友網(wǎng)綜合報(bào)道,在人工智能迅猛發(fā)展的當(dāng)下,AI推理芯片需求正呈爆發(fā)式增長。 ? AI推理,即支撐如ChatGPT這類AI模型響應(yīng)用戶問題和請(qǐng)求的計(jì)算過程。過去,英偉達(dá)在訓(xùn)練大型A
    的頭像 發(fā)表于 02-03 17:15 ?3378次閱讀

    思必馳場(chǎng)景化推理AI重塑智能交互

    在AI技術(shù)從“感知”走向“認(rèn)知”的今天,推理能力正成為推動(dòng)人工智能向更高階躍遷的核心引擎。
    的頭像 發(fā)表于 12-12 11:31 ?909次閱讀

    利用超微型 Neuton ML 模型解鎖 SoC 邊緣人工智能

    應(yīng)用。 為什么選擇 Neuton 作為開發(fā)人員,在產(chǎn)品中使用邊緣人工智能的兩個(gè)最大障礙是: ML 模型對(duì)于您所選微控制器的內(nèi)存來說太大。 創(chuàng)建自定義 ML 模型本質(zhì)上是一個(gè)手動(dòng)過程,需要高度的數(shù)據(jù)科學(xué)知識(shí)
    發(fā)表于 08-31 20:54

    挖到寶了!人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器

    應(yīng)用場(chǎng)景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實(shí)訓(xùn),讓你深度體驗(yàn)AI技術(shù)的魅力 。 四、九門課程全覆蓋,滿足多元學(xué)習(xí)需求 對(duì)于高校教學(xué)或者技術(shù)學(xué)習(xí)來說,課程覆蓋的廣度
    發(fā)表于 08-07 14:30

    挖到寶了!比鄰星人工智能綜合實(shí)驗(yàn)箱,高校新工科的寶藏神器!

    應(yīng)用場(chǎng)景。從數(shù)據(jù)采集,到模型推理,都能完整且自如地參與,輕松解鎖人工智能全流程實(shí)訓(xùn),讓你深度體驗(yàn)AI技術(shù)的魅力 。 四、九門課程全覆蓋,滿足多元學(xué)習(xí)需求 對(duì)于高校教學(xué)或者技術(shù)學(xué)習(xí)來說,課程覆蓋的廣度
    發(fā)表于 08-07 14:23

    超小型Neuton機(jī)器學(xué)習(xí)模型, 在任何系統(tǒng)級(jí)芯片(SoC)上解鎖邊緣人工智能應(yīng)用.

    可以在廣泛的傳感器網(wǎng)絡(luò)的每個(gè)節(jié)點(diǎn)上進(jìn)行人工智能處理,而在這種網(wǎng)絡(luò),傳感器的尺寸和成本是關(guān)鍵,空間也非常寶貴。
    發(fā)表于 07-31 11:38

    信而泰×DeepSeek:AI推理引擎驅(qū)動(dòng)網(wǎng)絡(luò)智能診斷邁向 “自愈”時(shí)代

    DeepSeek-R1:強(qiáng)大的AI推理引擎底座DeepSeek是由杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司開發(fā)的新一代AI大模型。其核心優(yōu)勢(shì)在于強(qiáng)大的推理引擎能力,融合了自然語言處理(NLP)、深度
    發(fā)表于 07-16 15:29

    最新人工智能硬件培訓(xùn)AI 基礎(chǔ)入門學(xué)習(xí)課程參考2025版(大模型篇)

    人工智能大模型重塑教育與社會(huì)發(fā)展的當(dāng)下,無論是探索未來職業(yè)方向,還是更新技術(shù)儲(chǔ)備,掌握大模型知識(shí)都已成為新時(shí)代的必修課。從職場(chǎng)上輔助工作的智能助手,到課堂用于學(xué)術(shù)研究的智能工具,大模型正在工作生活
    發(fā)表于 07-04 11:10

    【書籍評(píng)測(cè)活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    2025年年初,DeepSeek 成為全球人工智能(AI)領(lǐng)域的焦點(diǎn),其DeepSeek-V3 和DeepSeek-R1 版本在行業(yè)內(nèi)引發(fā)了結(jié)構(gòu)性震動(dòng)。 DeepSeek-V3 是一個(gè)擁有 6710
    發(fā)表于 06-09 14:38
    夏邑县| 泽普县| 临邑县| 五峰| 兴文县| 邯郸市| 新密市| 宁蒗| 天峻县| 攀枝花市| 铜梁县| 徐水县| 铜鼓县| 八宿县| 巴彦县| 孝义市| 合水县| 垣曲县| 长岛县| 淳化县| 深泽县| 香格里拉县| 威远县| 辛集市| 府谷县| 泰和县| 敦化市| 白水县| 南京市| 钦州市| 临澧县| 荆州市| 隆尧县| 鄂托克前旗| 德州市| 沧源| 梅河口市| 岳西县| 南川市| 东平县| 宁强县|