日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

特斯拉前AI總監(jiān)Andrej Karpathy:大模型有內(nèi)存限制,這個(gè)妙招挺好用!

CVer ? 來源:機(jī)器之心 ? 2023-09-04 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

Andrej Karpathy 用通俗易懂的語言介紹了 speculative execution。

「如今,LLM(大語言模型)并不是單點(diǎn)突破的 —— 而是需要多個(gè)重要組件有效協(xié)同工作的系統(tǒng)。Speculative decoding 是幫助我們從系統(tǒng)角度思考的一個(gè)很好的例子?!箰鄱”ご髮W(xué)博士生符堯表示道。

58f1639a-4a73-11ee-97a6-92fbcf53809c.png

符堯上述觀點(diǎn)評(píng)論的是特斯拉AI 總監(jiān)、年初重回 OpenAI 的 Andrej Karpathy 剛剛發(fā)布的一條推特。

人形機(jī)器人公司 1X Technologies 的 AI 副總裁 Eric Jang 評(píng)價(jià)道:「Karpathy 很好的解釋了 LLM 的 speculative execution。其他自回歸模型可能會(huì)以類似的方式加速。連續(xù)(擴(kuò)散)模型可能從 K 步中獲益較少(可能在第 1 步后偏離猜測),但可以將其應(yīng)用于 VQ-latents 的離散代碼?!?/p>

590ef96e-4a73-11ee-97a6-92fbcf53809c.png

看完上述評(píng)價(jià),我們大概也了解了,Karpathy 說的「Speculative execution」,這是優(yōu)化技術(shù)的一類,采用這個(gè)技術(shù)的計(jì)算機(jī)系統(tǒng)會(huì)根據(jù)現(xiàn)有信息,利用空轉(zhuǎn)時(shí)間提前執(zhí)行一些將來可能用得上,也可能用不上的指令。如果指令執(zhí)行完成后發(fā)現(xiàn)用不上,系統(tǒng)會(huì)拋棄計(jì)算結(jié)果,并回退執(zhí)行期間造成的副作用(如緩存)。

為了讓大家更好的理解 Karpathy 的內(nèi)容。我們先介紹一下「Speculative decoding」方法,對(duì)后續(xù)理解更加有益,其主要用于加速大模型的推理。據(jù)了解,GPT-4 泄密報(bào)告也提到了 OpenAI 線上模型推理使用了它(不確定是否 100%)。

關(guān)于「Speculative decoding」,已有幾篇重要文獻(xiàn)可供參考,這也是 Karpathy 為了寫這則推特所參考的論文,包括谷歌今年 1 月發(fā)表的論文《Fast Inference from Transformers via Speculative Decoding》、DeepMind 今年 2 月發(fā)表的論文《Accelerating Large Language Model Decoding with Speculative Sampling》,以及谷歌等機(jī)構(gòu) 2018 年的論文《Blockwise Parallel Decoding for Deep Autoregressive Models 》 。

簡單來說,「Speculative decoding」使用兩個(gè)模型:一個(gè)是原始目標(biāo)模型稱為大模型,另一個(gè)是比原始模型小得多的近似模型稱為小模型。主要思想是先讓小模型提前解碼多個(gè) token 進(jìn)行猜測,并將它們作為單個(gè) batch 輸入到一個(gè)大模型中進(jìn)行審核修正,其效果和直接用大模型解碼等價(jià)。如果小模型猜測的不準(zhǔn)確,那么大型模型會(huì)放棄小模型預(yù)測的 token,繼續(xù)使用大型模型進(jìn)行解碼。

由于小模型計(jì)算量小,從而大大減少了內(nèi)存訪問需求。

介紹完「Speculative decoding」,我們?cè)倩氐?Karpathy 的推特。Karpathy 是針對(duì)下面內(nèi)容回復(fù)的。

59286e94-4a73-11ee-97a6-92fbcf53809c.gif

Karpathy 表示:對(duì)于 LLM 來說,「Speculative execution」 是一種極好的推理 — 時(shí)間優(yōu)化方法。

它取決于以下方面:在單個(gè)輸入 token 上分發(fā) LLM 所花費(fèi)的時(shí)間與在批處理中分發(fā) K 個(gè)輸入 token 所花費(fèi)的時(shí)間一樣多。產(chǎn)生這樣的原因是因?yàn)椴蓸訃?yán)重受內(nèi)存限制:模型運(yùn)行時(shí)的大部分工作不是在做計(jì)算,而是從 VRAM 讀取 transformer 的權(quán)重到片上緩存進(jìn)行處理。如果你要做的工作是來讀取這些權(quán)值,你可以把它們應(yīng)用到一整批輸入向量上。

但是我們不能一次性采樣一批 K 個(gè) token,因?yàn)槊?N 個(gè) token 都取決于我們?cè)诘?N-1 步采樣的 token。由于存在串行依賴性,因此基線實(shí)現(xiàn)只是從左到右逐一進(jìn)行。

現(xiàn)在最聰明的想法是使用一個(gè)小而便宜的草稿模型(draft model),先生成 K 個(gè) token 候選序列,即一個(gè)「草稿」。然后用大模型批量的將輸入組合在一起。速度幾乎與僅輸入一個(gè) token 一樣快。接著從左到右遍歷模型和樣本 token 預(yù)測的 logits。任何與「草稿」一致的樣本都允許立即跳到下一個(gè) token。如果存在分歧,那么就丟棄「草稿」并承擔(dān)一些一次性工作的成本(對(duì)「草稿」進(jìn)行采樣并為所有后續(xù) token 進(jìn)行前向傳遞)。

這種方法起作用的原因在于,很多「草稿」token 都會(huì)被接受,因?yàn)樗鼈兒苋菀?,所以即使是更小的草稿模型也能得到它們。?dāng)這些簡單的 token 被接受時(shí),我們會(huì)跳過這些部分。大模型不同意的 hard token 會(huì)回落到原始速度,但由于一些額外的工作,實(shí)際上速度會(huì)慢一些。

Karpathy 表示,這個(gè)奇怪的技巧之所以有效,是因?yàn)?LLM 在推理時(shí)受到內(nèi)存限制,在對(duì)單個(gè)序列進(jìn)行采樣的 batch size=1 設(shè)置中,很大一部分本地 LLM 用例都屬于這種情況。因?yàn)榇蠖鄶?shù) token 都很「簡單」。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    41349

    瀏覽量

    302735
  • OpenAI
    +關(guān)注

    關(guān)注

    9

    文章

    1253

    瀏覽量

    10296
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3802

    瀏覽量

    5280
  • LLM
    LLM
    +關(guān)注

    關(guān)注

    1

    文章

    350

    瀏覽量

    1397

原文標(biāo)題:特斯拉前AI總監(jiān)Andrej Karpathy:大模型有內(nèi)存限制,這個(gè)妙招挺好用!

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI Ceph 分布式存儲(chǔ)教程資料大模型學(xué)習(xí)資料2026

    PyTorch DataLoader)的 GIL 鎖限制,現(xiàn)代 AI 存儲(chǔ)往往支持零拷貝技術(shù)與內(nèi)存映射,直接將存儲(chǔ)空間映射到進(jìn)程地址空間,極大地減少了數(shù)據(jù)在內(nèi)核態(tài)與用戶態(tài)之間拷拷貝帶來的 CPU
    發(fā)表于 05-01 17:35

    HM博學(xué)谷狂野AI模型第四期

    在生成式 AI 浪潮席卷全球的今天,大語言模型(LLM)已成為技術(shù)圈的顯學(xué)。然而,絕大多數(shù)開發(fā)者仍停留在“調(diào)用者”的層面——通過 API 發(fā)送 Prompt,接收文本回復(fù)。這種“黑盒”式的應(yīng)用開發(fā)
    發(fā)表于 05-01 17:30

    黑馬-Java+AI新版V16零基礎(chǔ)就業(yè)班百度云網(wǎng)盤下載+Java+AI全棧開發(fā)工程師

    AI 能力兩條典型路徑。初級(jí)做法是獨(dú)立部署 AI 模型服務(wù)(Python 推理端),Java 業(yè)務(wù)層通過 HTTP/RPC 調(diào)用獲取結(jié)果。這種方式開發(fā)快、解耦好,但延遲與穩(wěn)定性受網(wǎng)
    發(fā)表于 05-01 11:29

    特斯拉牽手豆包大模型:智能汽車AI交互革命的里程碑

    2026年4月,特斯拉正式宣布其車機(jī)語音服務(wù)全面接入字節(jié)跳動(dòng)旗下豆包大模型,這一合作標(biāo)志著AI模型在智能汽車領(lǐng)域的滲透進(jìn)入加速期。作為全球電動(dòng)汽車領(lǐng)軍企業(yè),
    的頭像 發(fā)表于 04-28 10:31 ?903次閱讀

    AI模型微調(diào)企業(yè)項(xiàng)目實(shí)戰(zhàn)課

    自主可控大模型:企業(yè)微調(diào)實(shí)戰(zhàn)課,筑牢未來 AI 底座 在人工智能席卷全球商業(yè)版圖的今天,企業(yè)對(duì)大模型(LLM)的態(tài)度已經(jīng)從“新奇觀望”轉(zhuǎn)變?yōu)椤叭鎿肀А薄H欢?,隨著應(yīng)用層面的不斷深入,一個(gè)嚴(yán)峻
    發(fā)表于 04-16 18:48

    邊緣AI算力臨界點(diǎn):深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價(jià)值

    內(nèi)存革命:48GB/96GB LPDDR4X 背后的帶寬博弈 很多開發(fā)者容易陷入唯算力論的誤區(qū),但在實(shí)際部署大模型時(shí),內(nèi)存容量和帶寬往往是真正的性能瓶頸。OrangePi AI St
    發(fā)表于 03-10 14:19

    模型 ai coding 比較

    序 我主要用途是 ai coding,從各種渠道獲取到了很多 不同的大模型排序 最多的是 opus 4.6 > k2.5 > glm5 >
    發(fā)表于 02-19 13:43

    使用NORDIC AI的好處

    提升能效,適合音頻、圖像和高采樣率傳感器等更重的 AI 負(fù)載。[Axon NPU 技術(shù)頁] 模型更小、更快、更省電 Neuton 模型相較 TensorFlow Lite:* 內(nèi)存
    發(fā)表于 01-31 23:16

    意法半導(dǎo)體STM32 AI模型庫助力邊緣AI落地應(yīng)用

    在開發(fā)邊緣AI(Edge AI)時(shí),可以說“理解問題本身”就已成功了一半。然而,隨著AI模型持續(xù)演進(jìn),即便是經(jīng)驗(yàn)豐富的工程師,也會(huì)發(fā)現(xiàn)優(yōu)化變得越來越復(fù)雜。除此之外,如何在嚴(yán)格的
    的頭像 發(fā)表于 01-14 11:07 ?883次閱讀

    AI模型的配置AI模型該怎么做?

    STM32可以跑AI,這個(gè)AI模型怎么搞,知識(shí)盲區(qū)
    發(fā)表于 10-14 07:14

    【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+AI芯片到AGI芯片

    、現(xiàn)階段更智能、更接近AGI的6中算法與模型 1、MoE模型 MoE模型作為Transfomer模型的后繼者,代表著AI技術(shù)的一項(xiàng)重大創(chuàng)新和
    發(fā)表于 09-18 15:31

    科普:什么AI 內(nèi)存技術(shù)

    問題。 為什么 AI 內(nèi)存很重要? 在 AI 模型訓(xùn)練和推理過程中,大量的數(shù)據(jù)需要從內(nèi)存傳輸?shù)教幚砥鳎ㄈ?GPU 或 TPU)進(jìn)行計(jì)算。傳統(tǒng)
    的頭像 發(fā)表于 09-03 15:44 ?1691次閱讀

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?

    大家都在用什么AI軟件?有沒有好用的免費(fèi)的AI軟件推薦一下?直接發(fā)個(gè)安裝包,謝謝。比如deepseek、Chatgpt、豆包、阿里AI、百度AI
    發(fā)表于 07-09 18:30
    廉江市| 民权县| 巩留县| 益阳市| 荣昌县| 莆田市| 德阳市| 邮箱| 沅陵县| 东光县| 克山县| 和林格尔县| 南涧| 清水河县| 武城县| 庄浪县| 广宗县| 囊谦县| 龙海市| 贡嘎县| 宁化县| 霞浦县| 杨浦区| 西华县| 平和县| 惠水县| 湖北省| 无锡市| 丰原市| 东方市| 睢宁县| 克拉玛依市| 嘉黎县| 麻江县| 万载县| 海门市| 吉首市| 城步| 涞源县| 盘山县| 津市市|