日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI訓練算力需求昂貴,機器學習成本成問題

如意 ? 來源:澎湃新聞 ? 作者:澎湃新聞 ? 2020-07-03 12:54 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

對于計算工業(yè),其最基本的一個假設(shè)是:數(shù)字處理會變得越來越便宜。并且根據(jù)著名的摩爾定律,可以預(yù)測在給定尺寸的芯片其上面能集成的電路個數(shù)(差不多相當于算力)通常每兩年會翻一番。

斯坦福人工智能研究所副所長克里斯托弗·曼寧表示,對于許多相對簡單的AI應(yīng)用來言,上述假設(shè)意味著訓練成本的降低。但對于有些應(yīng)用現(xiàn)在卻不是這樣的,特別是因為不斷增加的研究復(fù)雜性和競爭性,使得最前沿模型的訓練成本還在不斷上升。

曼寧用BERT模型來舉例,BERT是谷歌在18年提出的AI語言模型,已被用在谷歌搜索中。該模型有超過3.5億個內(nèi)部參數(shù),而且要大量數(shù)據(jù)來進行訓練,大概用了33億個大部分來自維基百科的單詞來訓練。接著曼寧說,現(xiàn)在看來維基百科都不是個多大的數(shù)據(jù)集了?!叭绻苡?00億個單詞訓練一個系統(tǒng),那它的性能肯定比用30億個單詞訓練的系統(tǒng)要好?!钡嗟臄?shù)據(jù)也意味著要用更多算力進行支持。

總部位于加州的OpenAI表示,隨著對機器學習興趣的不斷增加,對算力的需求從12年開始也急劇增加了。到18年,用于訓練大型模型的計算機算力相比之前已增長了30萬倍,并且還每三個半月翻一番(見圖)。比如,為訓練能在DOTA 2中擊敗人類的“OpenAI Five”系統(tǒng),就幾乎將機器學習訓練擴展到了“前所未有的水平”,差不多用數(shù)千塊芯片訓練了十多個月。

關(guān)于所有這些訓練成本的確切數(shù)字,馬薩諸塞州阿默斯特大學的研究人員在19年發(fā)表的一篇論文中進行了估計,例如訓練某個版本的Transformer模型可能就要花費300萬美金。同時Facebook的AI負責人杰羅姆·佩森蒂表示,針對當前最大的模型進行一輪訓練光是電費可能就好幾百萬美金。

云計算輔助

然而,對于Facebook這樣19年利潤就達185億美元的公司,這點錢不算什么。但對于那些現(xiàn)金并不充足的公司就有點壓力山大了。著名風險投資公司Andreessen Horowitz (a16z)指出,許多AI初創(chuàng)公司都是從云計算公司(如亞馬遜和微軟)來租用訓練所需的算力。而因此帶來的費用(有時占收入的25%或更多)也是AI初創(chuàng)公司投資吸引力低于老式軟件公司的原因之一。3月,曼寧博士在斯坦福大學的同事們,包括著名的李飛飛,一起呼吁創(chuàng)建美國國家研究云計算計劃,旨在幫助美國AI研究人員應(yīng)對不斷增長的訓練費用。

對算力日益增長的需求同時也推動了芯片設(shè)計和AI專用計算設(shè)備的蓬勃發(fā)展。專用芯片的第一波浪潮是GPU的出現(xiàn),其在90年代設(shè)計出來就是為了用于增強視頻游戲圖形處理。而非常巧的是,GPU也非常適合現(xiàn)在AI應(yīng)用中的數(shù)學計算。

相比起GPU現(xiàn)在還有更專業(yè)的芯片,各個公司也正在致力于研究這些芯片。去年12月,英特爾就以20億美元的價格收購了以色列公司Habana Labs;而成立于16年的英國公司Graphcore在2019年的估值為20億美元;最大的GPU制造商Nvidia等公司已對其芯片進行了重新設(shè)計來適應(yīng)AI的計算需求;Google內(nèi)部設(shè)計了自己的“張量處理單元”(TPU)芯片;而中國科技巨頭百度也已用上了自己的“昆侖”芯片。畢馬威的阿方索·馬龍認為,專用AI芯片的市場價值已達約100億美元的規(guī)模,而到2025年預(yù)估能達到800億美元。

Graphcore的創(chuàng)始人之一奈杰爾·圖恩表示:“計算機體系結(jié)構(gòu)需要適應(yīng)現(xiàn)在訓練處理數(shù)據(jù)的方式?!?對于AI運算其最基礎(chǔ)的特征可以說就是“并行”,即將運算切分為很多小塊同時進行運算。例如,Graphcore的芯片有1,200多個單獨的數(shù)字運算核,能連接在一起提供更多的算力。而加州的創(chuàng)業(yè)公司Cerebras采取了更極端的方法,每個芯片占用了整張硅片,每張硅片上能放置40萬左右個核。

除了并行,其他優(yōu)化也很重要。Cerebras的創(chuàng)始人之一安德魯·費爾德曼指出,AI模型花費了大量時間來進行乘零操作。而因為這些計算結(jié)果總時零,所以其實很多都是不必要的,所以Cerebras的芯片就盡量避免執(zhí)行這些運算。同時,Graphcore的Toon先生說,與許多任務(wù)不同,現(xiàn)在AI并不需要超精確的計算。這也意味著芯片設(shè)計人員能通過減少運算所需的精度來節(jié)省能耗。(而計算精度到底能降到什么程度仍是個開放性問題。)

之后所有這些因素都能綜合起來獲得更大提升。Toon就認為Graphcore當前的芯片效率是GPU的10到50倍。

現(xiàn)在類似的創(chuàng)新變得越來越重要,因為對算力需求激增正趕上摩爾定律逐漸失效的時候?,F(xiàn)在縮小芯片變得越來越困難,而且?guī)淼氖找嬉苍絹碓叫?。去年,Nvidia的創(chuàng)始人黃仁勛直言不諱地說:“摩爾定律失效了”。

量子解決方案和神經(jīng)形態(tài)方案

因此,現(xiàn)在研究人員還在尋找更多的解決方法。其中一種是量子計算,利用量子力學的反直覺特性為某些類型的計算進行大幅提速。關(guān)于機器學習的一種思考角度是將它看作是一個優(yōu)化問題,而計算機試圖在數(shù)百萬個變量中進行權(quán)衡從而求出盡可能最小值。微軟量子系統(tǒng)部門負責人Krysta Svore說,一種稱為格羅弗算法的量子計算技術(shù)具有巨大的提速潛力。

另一種想法是從生物學中獲得啟發(fā),認為當前的蠻力方法并不是唯一的方法。當Cerebras的芯片運行起來,功耗大約為15kw,足以為數(shù)十座房屋供電(相同數(shù)量GPU能耗更多)。而相比起來,人腦消耗能量就只有大概20w,只有前者的千分之一,而人腦在許多方面都比硅芯片更聰明。因此,英特爾和IBM等公司正在研究“神經(jīng)形態(tài)”芯片,希望設(shè)計出更能模仿生物大腦神經(jīng)元電行為的組件。

但到目前為止,這兩條路都還很遙遠。量子計算機在理論上相對容易理解些,但盡管有谷歌,微軟和IBM等技術(shù)巨頭投入數(shù)十億美元,實際搭建卻仍是個巨大挑戰(zhàn)。而神經(jīng)形態(tài)芯片雖然是用現(xiàn)有技術(shù)構(gòu)建的,但讓設(shè)計人員很氣餒的是,就連神經(jīng)科學家都還不怎么了解大腦究竟在做什么以及怎么做到的。

這意味著,在可預(yù)見的未來,AI研究人員將不得不繼續(xù)盡可能地壓榨現(xiàn)有計算技術(shù)性能。而Toon先生對此還是很樂觀的,他認為通過更專業(yè)硬件以及調(diào)整現(xiàn)有軟件讓訓練更快,也還是能帶來很大收益。為了說明這個新領(lǐng)域的發(fā)展,他用電子游戲打了個比方:“現(xiàn)在我們已超越了乓(Pong),可能到了吃豆人。”

沒有錢來進行訓練的窮煉丹師們理所當然地希望他說的是對的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41523

    瀏覽量

    302857
  • 機器學習
    +關(guān)注

    關(guān)注

    67

    文章

    8569

    瀏覽量

    137312
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1711

    瀏覽量

    16846
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI Ceph 分布式存儲教程資料大模型學習資料2026

    在人工智能的浪潮中,、算法與數(shù)據(jù)被譽為三駕馬車。然而,隨著大模型(LLM)參數(shù)量突破萬億級別,數(shù)據(jù)集規(guī)模膨脹至 PB 乃至 EB 級別,傳統(tǒng)的存儲架構(gòu)已難以支撐這場競賽的“糧草
    發(fā)表于 05-01 17:35

    邊緣AI臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    ,開發(fā)者利用AI Station的176TOPS,在機器人平臺上運行模仿學習策略,控制機械臂完成精細操作[](https://hwcom
    發(fā)表于 03-10 14:19

    訓練到推理:大模型需求的新拐點已至

    在大模型產(chǎn)業(yè)發(fā)展的早期階段,行業(yè)焦點主要集中在大模型訓練所需的投入。一個萬億參數(shù)大模型的訓練可能需要數(shù)千張GPU芯片連續(xù)運行數(shù)月,成本
    的頭像 發(fā)表于 02-05 16:07 ?1080次閱讀
    從<b class='flag-5'>訓練</b>到推理:大模型<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>需求</b>的新拐點已至

    AI送上太空,是終極方案還是瘋狂幻想?評論區(qū)說出你的陣營!

    AI
    江蘇易安聯(lián)
    發(fā)布于 :2026年01月06日 09:43:34

    湘軍,讓變成生產(chǎn)?

    腦極體
    發(fā)布于 :2025年11月25日 22:56:58

    國產(chǎn)AI芯片真能扛住“內(nèi)卷”?海思昇騰的這波操作藏了多少細節(jié)?

    最近行業(yè)都在說“AI的命門”,但國產(chǎn)芯片真的能接住這波需求嗎? 前陣子接觸到海思昇騰910B,實測下來有點超出預(yù)期——7nm工藝下
    發(fā)表于 10-27 13:12

    需求狂飆下的“效率競賽”,國產(chǎn)AI芯片有何破局之道?

    %,同比上升12.8個百分點。 10月15日,在2025灣芯展上,云天勵飛副總裁羅憶給現(xiàn)場聽眾帶來《打造智時代的新質(zhì)生產(chǎn)》演講,他現(xiàn)場提出的兩大觀點引發(fā)大家的共鳴。他表示,目前國內(nèi)AI產(chǎn)業(yè)面臨兩大拐點:一是
    的頭像 發(fā)表于 10-19 01:11 ?1w次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>需求</b>狂飆下的“效率競賽”,國產(chǎn)<b class='flag-5'>AI</b>芯片有何破局之道?

    與電力的終極博弈,填上了AIDC的“電力黑洞”

    ),專注于提供人工智能訓練與推理所需的服務(wù)、數(shù)據(jù)服務(wù)和算法服務(wù)。AIDC采用異構(gòu)計算架構(gòu),結(jié)合GPU、FPGA、ASIC等多種AI加速芯片,形成高并發(fā)分布式系統(tǒng),以滿足大模型
    的頭像 發(fā)表于 09-22 02:43 ?9111次閱讀

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進和物聯(lián)網(wǎng)應(yīng)用的持續(xù)拓展,騰視科技的
    的頭像 發(fā)表于 09-19 15:26 ?2174次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷演進和物聯(lián)網(wǎng)應(yīng)用的持續(xù)拓展,騰視科技的
    的頭像 發(fā)表于 09-19 15:25 ?1095次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    、分布式群體智能 1)物聯(lián)網(wǎng)AGI系統(tǒng) 優(yōu)勢: 組成部分: 2)分布式AI訓練 7、發(fā)展重點:基于強化學習的后訓練與推理 8、超越大模型:神經(jīng)符號計算 三、AGI芯片的實現(xiàn) 1、技術(shù)
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升還是智力

    持續(xù)發(fā)展體現(xiàn)在: 1、收益遞減 大模型的基礎(chǔ)的需要極大的,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環(huán)境相關(guān)的資源。 收益遞減體現(xiàn)在: ①模型大小 ②
    發(fā)表于 09-14 14:04

    一文看懂AI集群

    最近這幾年,AI浪潮席卷全球,成為整個社會的關(guān)注焦點。大家在討論AI的時候,經(jīng)常會提到AI集群。AI
    的頭像 發(fā)表于 07-23 12:18 ?2008次閱讀
    一文看懂<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>集群

    網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓練范式

    ? 電子發(fā)燒友網(wǎng)綜合報道 隨著AI技術(shù)迅猛發(fā)展,尤其是大型語言模型的興起,對于需求呈現(xiàn)出爆炸性增長。這不僅推動了智中心的建設(shè),還對網(wǎng)
    的頭像 發(fā)表于 06-08 08:11 ?7817次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網(wǎng)絡(luò)的“神經(jīng)突觸”:<b class='flag-5'>AI</b>互聯(lián)技術(shù)如何重構(gòu)分布式<b class='flag-5'>訓練</b>范式

    即國力,比克電池如何為AI時代“蓄能

    引擎》中明確提出,“是數(shù)字經(jīng)濟時代的新質(zhì)生產(chǎn),更是國家競爭的重要指標?!彪S著AI大模型訓練
    的頭像 發(fā)表于 06-04 14:22 ?1288次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>即國力,比克電池如何為<b class='flag-5'>AI</b>時代“蓄能
    长兴县| 聊城市| 七台河市| 铜陵市| 视频| 聊城市| 格尔木市| 临夏县| 章丘市| 厦门市| 丹阳市| 铜陵市| 盖州市| 聂拉木县| 同江市| 商河县| 昌黎县| 奉贤区| 安达市| 公主岭市| 华安县| 晋中市| 天门市| 和田市| 葫芦岛市| 当阳市| 贞丰县| 宝清县| 三亚市| 丰原市| 九江县| 泰兴市| 察哈| 张北县| 乃东县| 三穗县| 忻州市| 中方县| 攀枝花市| 海阳市| 方正县|