日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新火種AI|算力不足,小模型成AI模型發(fā)展下個方向?

新火種 ? 來源:新火種 ? 作者:新火種 ? 2024-04-23 21:20 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

作者:一號

編輯:美美

大模型不是AI的唯一出路,把模型做小也是本事。

這段時間,AI模型界是真的熱鬧,新的模型不斷涌現(xiàn),不管是開源還是閉源,都在刷新成績。就在前幾天,Meta就上演了一出“重奪開源鐵王座”的好戲。發(fā)布了Llama 3 8B和70B兩個版本,在多項指標上都超越了此前開源的Grok-1和DBRX,成為了新的開源大模型王者。

wKgaomYntYWALO4kAAF9o0JhNoc638.jpg

并且Meta還透露,之后還將推出400B版本的Llama 3,它的測試成績可是在很多方面上都追上了OpenAI閉源的GPT-4,讓很多人都直呼,開源版的GPT-4就要來了。盡管在參數(shù)量上來看,相比Llama 2,Llama 3并沒有特別大的提升,但是在某些表現(xiàn)上,Llama 3最小的8B版本都比Llama 2 70B要好??梢姡P托阅艿奶嵘?,并非只有堆參數(shù)這一種做法。

Llama 3重回開源之王

當?shù)貢r間4月18日,“真·OpenAI”——Meta跑出了目前最強的開源大模型Llama 3。本次Meta共發(fā)布了兩款開源的Llama 3 8B和Llama 3 70B模型。根據(jù)Meta的說法,這兩個版本的Llama 3是目前同體量下,性能最好的開源模型。并且在某些數(shù)據(jù)集上,Llama 3 8B的性能比Llama 2 70B還要強,要知道,這兩者的參數(shù)可是相差了一個數(shù)量級。

wKgZomYntYWAVtnWAAB9WAUVD7g495.jpg

能夠做到這點,可能是因為Llama 3的訓練效率要高3倍,它基于超過15T token訓練,這比Llama 2數(shù)據(jù)集的7倍還多。在MMLU、ARC、DROP等基準測試中,Llama 3 8B在九項測試中領(lǐng)先于同行,Llama 3 70B也同樣擊敗了Gemini 1.5 Pro和Claude 3 Sonnet。

wKgaomYntYaAMuX1AABjhtgBFLk869.jpg

盡管在參數(shù)量上并沒有特別大的提升,但毫無疑問,Llama 3的性能已經(jīng)得到了很大的進步,可以說是用相近的參數(shù)量獲得了更好的性能,這可能是在算力資源短期內(nèi)無法滿足更大規(guī)模運算的情況下所作出的選擇,但這體現(xiàn)了AI模型的研發(fā)并非只有堆砌參數(shù)這一條“大力出奇跡”的道路。

把大模型做小正成業(yè)內(nèi)共識

實際上,在Llama 3之間的兩位開源王者,Grok-1和DBRX也致力于把模型做小。和以往的大模型,使用一個模型解決一切問題的方式不同,Grok-1和DBRX都采用了MoE架構(gòu)(專家模型架構(gòu)),在面對不同問題的時候,調(diào)用不同的小模型來解決,實現(xiàn)在節(jié)省算力的情況下,保證回答的質(zhì)量。

而微軟也在Llama 3發(fā)布后沒幾天,就出手截胡,展示了Phi-3系列小模型的技術(shù)報告。在這份報告中,僅3.8B參數(shù)的Phi-3-mini在多項基準測試中都超過了Llama 3 8B,并且為了方便開源社區(qū)使用,還特意把它設計成了與Llama系列兼容的結(jié)構(gòu)。更夸張的是,微軟的這個模型,在手機上也能直接跑,經(jīng)4bit量化后的phi-3-mini在iPhone 14 pro和iPhone 15使用的蘋果A16芯片上能夠跑到每秒12 token,這也就意味著,現(xiàn)在手機上能本地運行的最佳開源模型,已經(jīng)做到了ChatGPT水平。

wKgaomYntYeAedOdAAH625X7FZ0117.jpg

而除了mini杯外,微軟也一并發(fā)布了小杯和中杯,7B參數(shù)的Phi-3-small和14B參數(shù)的Phi-3-medium。在技術(shù)報告中,微軟也說了,去年研究團隊就發(fā)現(xiàn),單純堆砌參數(shù)量并非提升模型性能的唯一路徑,反而是精心設計訓練的數(shù)據(jù),尤其是利用大模型本身去生成合成數(shù)據(jù),并配合嚴格過濾的高質(zhì)量數(shù)據(jù),能夠讓中小模型的能力大幅躍升,所以他們也說,Textbooks are all you need,教科書級別的高質(zhì)量數(shù)據(jù)才是重要的。

wKgZomYntYeACrYjAAAqb2tDS8k509.jpg

AI模型發(fā)展正著力于擺脫限制

英偉達乘著AI的東風,成為行業(yè)內(nèi)說一不二,當之無愧的“賣鏟子的人”,各家AI公司都將英偉達的GPU視為“硬通貨”,以致于誰囤有更多的英偉達的GPU,誰的AI實力就強。但英偉達的GPU的交付并未能始終跟上市場的需求。

因此,很多AI公司開始另謀出路,要么找其他的GPU生產(chǎn)商,要么決定自己研發(fā)AI芯片。即使你囤夠了英偉達的GPU,也還有其他限制,OpenAI在前段時間就被爆出,因為訓練GPT-6,差點把微軟的電網(wǎng)搞癱瘓。馬斯克也曾說過,當前限制AI發(fā)展的主要因素是算力資源,但在未來,電力會成為限制AI發(fā)展的另一阻礙。

wKgaomYntYiAPtWZAAF4Lc468Mk068.jpg

顯然,如果持續(xù)“大力出奇跡”,通過堆砌參數(shù)量來實現(xiàn)AI性能的提升,那么以上這些問題遲早會遇到,但是如果把大模型做小,使用較小的參數(shù)量,實現(xiàn)同樣或者更好的性能,那么將可以顯著減少對算力資源的需求,進而減少對電力資源的消耗,從而讓AI在有限資源的情況下,得到更好的發(fā)展。

因此,接下來,誰能在將模型做小的同時,還能實現(xiàn)性能的增長,也是實力的體現(xiàn)。

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41377

    瀏覽量

    302752
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1699

    瀏覽量

    16841
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    AI Ceph 分布式存儲教程資料大模型學習資料2026

    在人工智能的浪潮中,、算法與數(shù)據(jù)被譽為三駕馬車。然而,隨著大模型(LLM)參數(shù)量突破萬億級別,數(shù)據(jù)集規(guī)模膨脹至 PB 乃至 EB 級別,傳統(tǒng)的存儲架構(gòu)已難以支撐這場
    發(fā)表于 05-01 17:35

    AI模型微調(diào)企業(yè)項目實戰(zhàn)課

    業(yè)、守規(guī)矩、可完全掌控的專屬 AI 底座,已經(jīng)成為頭部企業(yè)的隱性共識。 二、 核心破局:微調(diào)——用極低成本撬動專業(yè)能力 很多企業(yè)對“自主訓練大模型”存在誤解,認為這需要像頂級科技巨頭那樣,耗費千萬
    發(fā)表于 04-16 18:48

    邊緣AI臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    、內(nèi)存革命:48GB/96GB LPDDR4X 背后的帶寬博弈 很多開發(fā)者容易陷入唯論的誤區(qū),但在實際部署大模型時,內(nèi)存容量和帶寬往往是真正的性能瓶頸。OrangePi AI St
    發(fā)表于 03-10 14:19

    華為發(fā)布AI容器技術(shù)Flex:ai平均利用率提升30%

    決方案。 ? 當前,AI產(chǎn)業(yè)正處于高速發(fā)展的黃金時期,海量需求如潮水般涌來。然而,資源利
    的頭像 發(fā)表于 11-26 08:31 ?7830次閱讀

    國產(chǎn)AI芯片真能扛住“內(nèi)卷”?海思昇騰的這波操作藏了多少細節(jié)?

    最近行業(yè)都在說“AI的命門”,但國產(chǎn)芯片真的能接住這波需求嗎? 前陣子接觸到海思昇騰910B,實測下來有點超出預期——7nm工藝下
    發(fā)表于 10-27 13:12

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個AI模型怎么搞,知識盲區(qū)
    發(fā)表于 10-14 07:14

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷
    的頭像 發(fā)表于 09-19 15:26 ?2160次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    什么是AI模組?

    未來,騰視科技將繼續(xù)深耕AI模組領(lǐng)域,全力推動AI邊緣計算行業(yè)的深度發(fā)展。隨著AI技術(shù)的不斷
    的頭像 發(fā)表于 09-19 15:25 ?1075次閱讀
    什么是<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>模組?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    實例,從而保持高計算效率。 2、Q算法 Q項目將大模型功能與A*和Q-learning等復雜算法結(jié)合,進一步推動了AI領(lǐng)域的蓬勃發(fā)展,標志著向AGI方向邁出了重要的一步。 可能達到的高
    發(fā)表于 09-18 15:31

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI的未來:提升還是智力

    體現(xiàn)在: 1、收益遞減 大模型的基礎(chǔ)的需要極大的,這首先源于昂貴的高性能AI芯片,然后是寶貴的電力、水等與環(huán)境相關(guān)的資源。 收益遞減體現(xiàn)在: ①
    發(fā)表于 09-14 14:04

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+內(nèi)容總覽

    是展望未來的AGI芯片,并探討相關(guān)的發(fā)展和倫理話題。 各章的目錄名稱如下: 第1章 大模型浪潮下,AI芯片的需求與挑戰(zhàn)免費 第2章 實現(xiàn)深度學習AI芯片的創(chuàng)新方法與架構(gòu) 第3章
    發(fā)表于 09-05 15:10

    科技上線赤兔推理引擎服務,創(chuàng)新解鎖FP8大模型

    模型輕量化部署方案。用戶通過遠程平臺預置的模型鏡像與AI工具,僅需50%的GPU
    的頭像 發(fā)表于 07-30 21:44 ?1080次閱讀

    網(wǎng)絡的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓練范式

    ? 電子發(fā)燒友網(wǎng)綜合報道 隨著AI技術(shù)迅猛發(fā)展,尤其是大型語言模型的興起,對于的需求呈現(xiàn)出爆炸性增長。這不僅推動了智
    的頭像 發(fā)表于 06-08 08:11 ?7801次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網(wǎng)絡的“神經(jīng)突觸”:<b class='flag-5'>AI</b>互聯(lián)技術(shù)如何重構(gòu)分布式訓練范式

    企業(yè)部署AI模型怎么做

    當下,AI模型已成為驅(qū)動決策自動化、服務智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對動輒數(shù)百億參數(shù)的大模型部署時,常陷入
    的頭像 發(fā)表于 06-04 09:26 ?1040次閱讀
    襄汾县| 黄冈市| 海伦市| 方城县| 中山市| 白水县| 乳山市| 丘北县| 卢氏县| 呼和浩特市| 罗源县| 淳安县| 仲巴县| 平谷区| 延寿县| 察隅县| 铜鼓县| 页游| 凤城市| 涞水县| 贵南县| 保山市| 德江县| 新泰市| 扎囊县| 琼海市| 宁化县| 准格尔旗| 囊谦县| 烟台市| 南陵县| 岑溪市| 桑日县| 和田县| 维西| 阜新| 台前县| 西昌市| 舒城县| 昔阳县| 廉江市|