日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

大模型訓(xùn)練和部署的關(guān)鍵技術(shù)

Carol Li ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2023-05-30 13:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道(文/李彎彎)ChatGPT的出現(xiàn)讓大模型迅速出圈,事實(shí)上,在過(guò)去這些年中,模型規(guī)模在快速提升。數(shù)據(jù)顯示,自2016年至今,模型大小每18個(gè)月增長(zhǎng)40倍,自2019年到現(xiàn)在,更是每18個(gè)月增長(zhǎng)340倍。

然而相比之下,硬件增長(zhǎng)速度較慢,自2016年至今,GPU的性能增長(zhǎng)每18個(gè)月1.7倍,模型大小和硬件增長(zhǎng)的差距逐漸擴(kuò)大。顯存占用大、算力消費(fèi)大、成本高昂等瓶頸嚴(yán)重阻礙AIGC行業(yè)的快速發(fā)展。在此背景下,潞晨科技創(chuàng)始人尤洋認(rèn)為,分布式訓(xùn)練勢(shì)在必行。

圖:潞晨科技創(chuàng)始人尤洋演講


基礎(chǔ)大模型結(jié)構(gòu)為模型訓(xùn)練提供了基礎(chǔ)架構(gòu)

其一、Google首創(chuàng)的Transformer大模型,是現(xiàn)在所有大模型最基礎(chǔ)的架構(gòu)。現(xiàn)在Transformer已經(jīng)成為除了MLP、CNN、RNN以外第四種最重要的深度學(xué)習(xí)算法架構(gòu)。

其二、Google發(fā)布的首個(gè)預(yù)大模型BERT,從而引爆了預(yù)練大橫型的潮流和的勢(shì),BERT強(qiáng)調(diào)了不再像以往一樣采用傳統(tǒng)的單向語(yǔ)言模型或者把兩個(gè)單向語(yǔ)言橫型進(jìn)行淺層拼接的方法進(jìn)行預(yù)認(rèn)訓(xùn)練,而是采用新的masked language model(MLM),以致能生成深度的雙向語(yǔ)言表征。

其三、ViT Google提出的首個(gè)使用Transformert的視覺大模型,ViT作為視覺轉(zhuǎn)換器的使用,而不是CNN威混合方法來(lái)執(zhí)行圖像任務(wù),作者假設(shè)進(jìn)一步的預(yù)認(rèn)訓(xùn)練可以提高性能,因?yàn)榕c其他現(xiàn)有技術(shù)模型相比,ViT具有相對(duì)可擴(kuò)展性。

其四、Google將Transformer中的Feedforward Network(FFN)層替換成了MoE層,并且將MoE層和數(shù)據(jù)并行巧妙地結(jié)合起來(lái),在數(shù)據(jù)并行訓(xùn)練時(shí),模型在訓(xùn)練集群中已經(jīng)被復(fù)制了若干份,通過(guò)在多路數(shù)據(jù)并行中引入Al-to-Al通信來(lái)實(shí)現(xiàn)MoE的功能。

在這些基礎(chǔ)大模型結(jié)構(gòu)之上,過(guò)去這些年,在大模型的發(fā)展歷程中,出現(xiàn)了幾個(gè)具有里程碑意義性的大模型包括GPT-3、T5、Swin Transformer、Switch Transformer。

GPT-3:OpenAI發(fā)布的首個(gè)百億規(guī)模的大模型,應(yīng)該非常具有開創(chuàng)性意義,現(xiàn)在的大模型都是對(duì)標(biāo)GPT-3,GPT-3依舊延續(xù)自己的單向語(yǔ)言模型認(rèn)訓(xùn)練方式,只不過(guò)這次把模型尺寸增大到了1750億,并且使用45TB數(shù)據(jù)進(jìn)行訓(xùn)練。

T5(Text-To-Text Transfer Transformer):Google T5將所有NLP任務(wù)都轉(zhuǎn)化成Text-to-Text(文本到文本)任務(wù)。它最重要作用給整個(gè)NLP預(yù)訓(xùn)型領(lǐng)城提供了一個(gè)通用框架,把所有任務(wù)都轉(zhuǎn)化成一種形式。

Swin Transformer:微軟亞研提出的Swin Transformer的新型視覺Transformer,它可以用作計(jì)算機(jī)視的通用backbone。在個(gè)領(lǐng)域之同的差異,例如視覺實(shí)體尺度的巨大差異以及與文字中的單詞相比,圖像中像素的高分率,帶來(lái)了使Transformer從語(yǔ)言適應(yīng)視覺方面的挑戰(zhàn)。

超過(guò)萬(wàn)億規(guī)模的稀疏大模型Switch Transformer:能夠訓(xùn)練包含超過(guò)一萬(wàn)億個(gè)參數(shù)的語(yǔ)言模型的技術(shù),直接將參數(shù)量從GPT-3的1750億拉高到1.6萬(wàn)億,其速度是Google以前開發(fā)的語(yǔ)言模型T5-XXL的4倍。

另外,更具里程碑意義的大模型,在Pathways上實(shí)現(xiàn)的大預(yù)言模型PaLM。

分布式框架Pathways:Pathways的很多重要思想來(lái)源于現(xiàn)有系統(tǒng),包括用于表達(dá)和執(zhí)行TPU計(jì)算的XLA、用于表征和執(zhí)行分布式CPU計(jì)算的TensorFlow圖和執(zhí)行器、基于Python編程框架的JAX以及TensorFlowAPL,通過(guò)有效地使用這些模塊,Pathways不需要對(duì)現(xiàn)有橫型進(jìn)行很多改動(dòng)就能運(yùn)行。

PaLM模型:PaLM吸引人眼球的是該模型具有5400億參數(shù)以及果用新一代AI框架Pathways訓(xùn)練。模型結(jié)構(gòu)也給出了很多方面優(yōu)化,這些技術(shù)優(yōu)化工作汲取了現(xiàn)有突出的研究成果,具體包括SwiGLU激活函數(shù)代替ReLU、層并行技術(shù)(Parallel Layers)、多查詢注意力(Multi-Query Attention),旋轉(zhuǎn)位置編碼(RoPE)、共享輸入和輸出詞嵌入、去掉偏置參數(shù)(No Biases)等。


PaLM模型也是通過(guò)堆疊Transformer中的Decoder部分而成,該模型具有5400億參數(shù)以及采用新一代AI框架Pathways訓(xùn)練。

大規(guī)模分布式訓(xùn)練當(dāng)前主要技術(shù)路線

大規(guī)模分布式訓(xùn)練當(dāng)前主要技術(shù)路線——并行訓(xùn)練技術(shù)。分布式訓(xùn)練并行技術(shù)即通過(guò)在訓(xùn)練過(guò)程中使用GPU集群(多機(jī)多卡)來(lái)提高神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度。

數(shù)據(jù)并行:相同的設(shè)置和模型被復(fù)制多份,每份每次都被饋送不同的一份數(shù)據(jù),處理是并行完成的,所有份在每個(gè)訓(xùn)練步結(jié)束時(shí)同步。

張量并行:每個(gè)張量都被分成多個(gè)塊,因此張量的每個(gè)分片都位于其指定的GPU上,在處理過(guò)程中,每個(gè)分片在不同的GPU上分別并行處理,結(jié)果在步驟結(jié)束時(shí)同步。

流水線并行:模型在多個(gè)GPU上垂直(即按量)拆分,因此只有一個(gè)或多個(gè)模型層放置在單個(gè)GPU上,每個(gè)GPU并行處理流水線的不同階段,并處理batch的一部分?jǐn)?shù)據(jù)。


潞晨科技成立于2021年,是一家致力于“解放AI生產(chǎn)力”的全球性公司。主要業(yè)務(wù)是通過(guò)打造分布式AI開發(fā)和部署平臺(tái),幫助企業(yè)降低大模型的落地成本,提升訓(xùn)練、推理效率。

潞晨開源的智能系統(tǒng)架構(gòu)Colossal-AI技術(shù),有兩大特性:一是最小化部署成本,Colossal-AI 可以顯著提高大規(guī)模AI模型訓(xùn)練和部署的效率。僅需在筆記本電腦上寫一個(gè)簡(jiǎn)單的源代碼,Colossal-AI 便可自動(dòng)部署到云端和超級(jí)計(jì)算機(jī)上。

通常訓(xùn)練大模型 (如GPT-3) 需要 100 多個(gè)GPU,而使用Colossal-AI僅需一半的計(jì)算資源。即使在低端硬件條件下,Colossal-AI也可以訓(xùn)練2-3倍的大模型。

二是最大化計(jì)算效率,在并行計(jì)算技術(shù)支持下,Colossal-AI在硬件上訓(xùn)練AI模型,性能顯著提高。潞晨開源的目標(biāo)是提升訓(xùn)練AI大模型速度10倍以上。

小結(jié)

如今,全球眾多科技企業(yè)都在研究大模型,然而大模型的訓(xùn)練和部署對(duì)硬件也有極高的要求,高昂的硬件需求和訓(xùn)練成本是當(dāng)前亟待解決的問題??梢?,除了OpenAI、谷歌、百度、阿里等致力于大模型研究企業(yè),以及英偉達(dá)等提供硬件的企業(yè)之外,潞晨科技這類提供微調(diào),致力于提升大模型訓(xùn)練和部署效率、降低成本的企業(yè),也值得關(guān)注。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3807

    瀏覽量

    5282
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI Ceph 分布式存儲(chǔ)教程資料大模型學(xué)習(xí)資料2026

    的實(shí)戰(zhàn)應(yīng)用中,優(yōu)化數(shù)據(jù)加載路徑是提升訓(xùn)練效率的關(guān)鍵技術(shù)手段。科技視角下的解決方案,引入了多級(jí)緩存與智能預(yù)取機(jī)制。 針對(duì)訓(xùn)練數(shù)據(jù)集中頻繁訪問的熱點(diǎn)數(shù)據(jù),高性能的分布式存儲(chǔ)會(huì)利用 NVMe SSD 甚至
    發(fā)表于 05-01 17:35

    Edge Impulse 喚醒詞模型訓(xùn)練 | 技術(shù)集結(jié)

    今天,將手把手帶領(lǐng)學(xué)習(xí)如何訓(xùn)練一個(gè)語(yǔ)音關(guān)鍵模型部署到嵌入式硬件上,采用Edgi-Talk平臺(tái)適配EdgeImpulse,當(dāng)然原理在其他的ARM嵌入式平臺(tái)也是通用的。讓我們看看如何讓
    的頭像 發(fā)表于 04-20 10:05 ?1389次閱讀
    Edge Impulse 喚醒詞<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b> | <b class='flag-5'>技術(shù)</b>集結(jié)

    人工智能多模態(tài)與視覺大模型開發(fā)實(shí)戰(zhàn) - 2026必會(huì)

    準(zhǔn)確的視覺特征;而高性能 GPU 和分布式計(jì)算技術(shù)的應(yīng)用,則大大縮短了模型訓(xùn)練時(shí)間,提高了訓(xùn)練效率。 實(shí)戰(zhàn)演練:掌握核心技能的關(guān)鍵環(huán)節(jié) 特
    發(fā)表于 04-15 16:06

    AI模型訓(xùn)練部署實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    你是否想系統(tǒng)了解AI落地全鏈路,但缺少一個(gè)完整的實(shí)戰(zhàn)項(xiàng)目練手?模型部署環(huán)節(jié)繁多,缺乏一套清晰的實(shí)戰(zhàn)路徑?4月18日、4月25日、5月16日RT-Thread將分別在蘇州、成都、南京舉辦“AI模型
    的頭像 發(fā)表于 04-07 13:08 ?702次閱讀
    AI<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>與<b class='flag-5'>部署</b>實(shí)戰(zhàn) | 線下免費(fèi)培訓(xùn)

    【瑞薩AI挑戰(zhàn)賽】手寫數(shù)字識(shí)別模型在RA8P1 Titan Board上的部署

    輕量級(jí)深度學(xué)習(xí)模型端側(cè)部署的優(yōu)質(zhì)硬件平臺(tái)。本文將基于RA8P1 Titan Board開發(fā)板,結(jié)合ruhmi、RT-Thread Studio等工具,從開發(fā)環(huán)境搭建、手寫數(shù)字識(shí)別模型訓(xùn)練
    發(fā)表于 03-15 20:42

    如何訓(xùn)練自己的AI模型——RT-Thread×富瀚微FH8626V300L模型訓(xùn)練部署教程 | 技術(shù)集結(jié)

    面對(duì)消費(fèi)電子中紛繁的智能檢測(cè)需求,如何讓算法持續(xù)進(jìn)化?富瀚微最新發(fā)布的FH86X6V300芯片AI訓(xùn)練教程,以FH8626V300L為硬件核心,手把手帶您走通從模型訓(xùn)練到端側(cè)部署的完整
    的頭像 發(fā)表于 02-09 11:51 ?661次閱讀
    如何<b class='flag-5'>訓(xùn)練</b>自己的AI<b class='flag-5'>模型</b>——RT-Thread×富瀚微FH8626V300L<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b>教程 | <b class='flag-5'>技術(shù)</b>集結(jié)

    低耗能藍(lán)牙信標(biāo):關(guān)鍵技術(shù)演變和部署深度選型指南詳解

    藍(lán)牙信標(biāo)技術(shù)從BLE誕生到5.1厘米級(jí)定位,歷經(jīng)低功耗、抗干擾、Mesh組網(wǎng)至高精度演進(jìn)。本文梳理其關(guān)鍵技術(shù)發(fā)展,并針對(duì)不同場(chǎng)景提供部署選型指南,助力工業(yè)安全、智慧城市等領(lǐng)域的精準(zhǔn)定位應(yīng)用。
    的頭像 發(fā)表于 01-07 16:44 ?1122次閱讀

    RA8P1部署ai模型指南:從訓(xùn)練模型部署?|?本周六

    在嵌入式邊緣AI中,如何把“訓(xùn)練好的模型”穩(wěn)定地“跑在板子上”,決定了項(xiàng)目能否落地。我們帶你基于RA8P1平臺(tái),跑通從數(shù)據(jù)準(zhǔn)備、模型訓(xùn)練、量化轉(zhuǎn)換,到工程
    的頭像 發(fā)表于 11-20 18:06 ?2461次閱讀
    RA8P1<b class='flag-5'>部署</b>ai<b class='flag-5'>模型</b>指南:從<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>到<b class='flag-5'>部署</b>?|?本周六

    噪聲測(cè)量的關(guān)鍵技術(shù)方法與精度控制策略

    本文闡述了高速電路與低功耗系統(tǒng)中噪聲測(cè)量的關(guān)鍵技術(shù),包括設(shè)備選型、環(huán)境優(yōu)化及參數(shù)設(shè)置,強(qiáng)調(diào)精度控制與干擾抑制。
    的頭像 發(fā)表于 10-30 14:10 ?706次閱讀

    如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥e203開發(fā)板上

    本帖欲分享如何將訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型部署到蜂鳥e203開發(fā)板上。 1. 加載TFLite模型 std::unique_ptr interpreter(new tflite::Inte
    發(fā)表于 10-22 08:04

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?

    ai_cube訓(xùn)練模型最后部署失敗是什么原因?文件保存路徑里也沒有中文 查看AICube/AI_Cube.log,看看報(bào)什么錯(cuò)?
    發(fā)表于 07-30 08:15

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書概覽

    講解Deepseek的使用方法 第三章 深入剖析Deepseek-V3的模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù) 第四章關(guān)于DeepSeek-R1的
    發(fā)表于 07-21 00:04

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書籍介紹+第一章讀后心得

    剖析 DeepSeek-V3 的模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù)。從混合專家模型(MoE)的起源與發(fā)展,到 DeepS
    發(fā)表于 07-17 11:59

    【書籍評(píng)測(cè)活動(dòng)NO.62】一本書讀懂 DeepSeek 全家桶核心技術(shù):DeepSeek 核心技術(shù)揭秘

    章深入剖析 DeepSeek-V3 的模型架構(gòu)、訓(xùn)練框架、推理階段優(yōu)化、后訓(xùn)練優(yōu)化等關(guān)鍵技術(shù)。從混合專家模型(MoE)的起源與發(fā)展,到 De
    發(fā)表于 06-09 14:38

    如何使用Docker部署模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境
    的頭像 發(fā)表于 05-24 16:39 ?1385次閱讀
    遂昌县| 藁城市| 乐昌市| 富锦市| 酒泉市| 大厂| 瑞安市| 聊城市| 仪陇县| 乌苏市| 九龙县| 三门峡市| 福安市| 江源县| 台湾省| 化州市| 大安市| 萨嘎县| 三明市| 汝城县| 宣汉县| 丰镇市| 靖西县| 刚察县| 湘乡市| 门源| 湟源县| 教育| 万盛区| 颍上县| 嵩明县| 金平| 永登县| 松桃| 栾城县| 普定县| 阿荣旗| 屏山县| 曲沃县| 曲松县| 贡嘎县|