日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

梁文鋒署名DeepSeek新論文:突破GPU內(nèi)存限制的技術(shù)革命

Carol Li ? 來(lái)源:電子發(fā)燒友網(wǎng) ? 作者:李彎彎 ? 2026-01-14 11:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發(fā)燒友網(wǎng)報(bào)道 DeepSeek團(tuán)隊(duì)發(fā)布了一篇由創(chuàng)始人梁文鋒署名的新論文,主題為《Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models》(直譯為《基于可擴(kuò)展查找的條件記憶:大語(yǔ)言模型稀疏性的新維度》)。這篇論文不僅揭示了當(dāng)前大語(yǔ)言模型在知識(shí)檢索方面的低效問(wèn)題,還通過(guò)創(chuàng)新的Engram架構(gòu),將模型的“條件記憶”與“計(jì)算”分離,從而大幅降低錯(cuò)誤率并節(jié)省算力。

條件記憶與Engram架構(gòu)

論文的核心創(chuàng)新點(diǎn)在于提出了“條件記憶”這一概念,旨在解決當(dāng)前大語(yǔ)言模型在知識(shí)檢索方面的低效和算力消耗問(wèn)題。梁文鋒團(tuán)隊(duì)指出,語(yǔ)言建模本質(zhì)上包含兩類(lèi)子任務(wù):一類(lèi)是組合式推理,需要依賴(lài)深層、動(dòng)態(tài)計(jì)算完成;另一類(lèi)是知識(shí)檢索,面向命名實(shí)體等相對(duì)靜態(tài)的內(nèi)容,理論上可以通過(guò)簡(jiǎn)單查找更高效地處理。然而,現(xiàn)有Transformer架構(gòu)缺乏原生的查找組件,遇到靜態(tài)信息時(shí)往往仍需反復(fù)調(diào)用深層網(wǎng)絡(luò)進(jìn)行重建,加劇了算力浪費(fèi)并推高了推理成本。

為了解決這一問(wèn)題,DeepSeek團(tuán)隊(duì)提出了Engram架構(gòu)(記憶痕跡架構(gòu)),通過(guò)將靜態(tài)知識(shí)存儲(chǔ)與動(dòng)態(tài)計(jì)算分離,實(shí)現(xiàn)了靜態(tài)模式的常數(shù)時(shí)間O(1)查找。具體而言,條件記憶通過(guò)Engram模塊實(shí)現(xiàn),模型能夠基于輸入中的局部上下文模式,從大規(guī)模參數(shù)化記憶中快速檢索并融合靜態(tài)知識(shí)表示,從而避免在推理過(guò)程中反復(fù)通過(guò)深層計(jì)算重建高頻、模板化信息。

突破GPU內(nèi)存限制

在GPU內(nèi)存限制方面,DeepSeek的新論文同樣帶來(lái)了革命性的突破。傳統(tǒng)上,GPU內(nèi)存容量有限,處理大規(guī)模數(shù)據(jù)集時(shí)往往需要頻繁的數(shù)據(jù)傳輸和復(fù)雜的數(shù)據(jù)管理策略。而Engram架構(gòu)通過(guò)稀疏存儲(chǔ)模式,支持更大規(guī)模的知識(shí)存入,突破了傳統(tǒng)注意力窗口的物理限制。當(dāng)大約20%至25%的稀疏參數(shù)預(yù)算分配給Engram,剩余部分留給混合專(zhuān)家模型(MoE)時(shí),模型性能達(dá)到最佳。

此外,DeepSeek團(tuán)隊(duì)還通過(guò)優(yōu)化數(shù)據(jù)流動(dòng)和調(diào)度機(jī)制,進(jìn)一步降低了GPU內(nèi)存的壓力。例如,采用預(yù)取策略預(yù)測(cè)后續(xù)計(jì)算所需數(shù)據(jù),提前從低速層加載至高速層;通過(guò)淘汰策略根據(jù)訪問(wèn)頻率與重要性,將不活躍數(shù)據(jù)逐出至低速層;以及利用壓縮策略對(duì)暫存于內(nèi)存或磁盤(pán)的數(shù)據(jù)進(jìn)行無(wú)損或有損壓縮,減少I(mǎi)/O開(kāi)銷(xiāo)。這些技術(shù)手段的結(jié)合,使得GPU在處理大規(guī)模數(shù)據(jù)集時(shí)能夠更加高效地利用內(nèi)存資源。

當(dāng)前,全球高端GPU資源90%集中于美國(guó)企業(yè),且美國(guó)政府通過(guò)《芯片與科學(xué)法案》對(duì)中國(guó)實(shí)施高端GPU限售,直接導(dǎo)致中國(guó)AI企業(yè)面臨“硬件卡脖子”困境。以訓(xùn)練千億參數(shù)模型為例,傳統(tǒng)架構(gòu)需配置數(shù)萬(wàn)塊H100 GPU,單次訓(xùn)練成本超1億美元,而內(nèi)存瓶頸更使模型規(guī)模受限于物理顯存容量。

DeepSeek的Engram架構(gòu)通過(guò)稀疏存儲(chǔ)與動(dòng)態(tài)計(jì)算分離技術(shù),使模型在同等硬件條件下可處理3-5倍規(guī)模的參數(shù)。實(shí)驗(yàn)數(shù)據(jù)顯示,其27B參數(shù)模型在32k上下文任務(wù)中,內(nèi)存占用僅增加25%卻實(shí)現(xiàn)13%的準(zhǔn)確率提升。這種技術(shù)突破不僅降低中國(guó)AI企業(yè)對(duì)進(jìn)口芯片的依賴(lài)度,更通過(guò)內(nèi)存效率優(yōu)化使現(xiàn)有硬件產(chǎn)能釋放3倍以上算力。

結(jié)語(yǔ)

DeepSeek團(tuán)隊(duì)此次發(fā)布的新論文,不僅揭示了當(dāng)前大語(yǔ)言模型在知識(shí)檢索方面的低效問(wèn)題,還通過(guò)創(chuàng)新的Engram架構(gòu)和條件記憶概念,實(shí)現(xiàn)了GPU內(nèi)存限制的革命性突破。這一技術(shù)突破不僅提高了模型運(yùn)行效率,還為中國(guó)AI發(fā)展提供了戰(zhàn)略支撐。在全球AI競(jìng)爭(zhēng)日益激烈的背景下,DeepSeek的探索為中國(guó)AI企業(yè)開(kāi)辟了一條自主創(chuàng)新、突破封鎖的發(fā)展道路。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5283

    瀏覽量

    136099
  • DeepSeek
    +關(guān)注

    關(guān)注

    2

    文章

    855

    瀏覽量

    3414
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    內(nèi)存要取代GPU?HBM之父警告:以英偉達(dá)GPU為核心的架構(gòu)要被顛覆

    電子發(fā)燒友網(wǎng)報(bào)道(/浩斌)“主板插顯卡上”,是PC DIY玩家對(duì)高性能顯卡體積越來(lái)越大的調(diào)侃,隨著顯卡功率越來(lái)越高,碩大的散熱模組讓顯卡投影面積甚至已經(jīng)大于ITX規(guī)格的主板,在PC里顯卡取代了
    的頭像 發(fā)表于 04-03 09:54 ?7234次閱讀
    <b class='flag-5'>內(nèi)存</b>要取代<b class='flag-5'>GPU</b>?HBM之父警告:以英偉達(dá)<b class='flag-5'>GPU</b>為核心的架構(gòu)要被顛覆

    DeepSeek V3.1發(fā)布!擁抱國(guó)產(chǎn)算力芯片

    電子發(fā)燒友網(wǎng)報(bào)道(/李彎彎)2025年8月21日,DeepSeek正式官宣發(fā)布DeepSeek-V3.1大模型。新版本不僅在技術(shù)架構(gòu)上實(shí)現(xiàn)重大升級(jí),更通過(guò)參數(shù)精度優(yōu)化與國(guó)產(chǎn)芯片深度適
    的頭像 發(fā)表于 08-23 07:55 ?1.8w次閱讀
    <b class='flag-5'>DeepSeek</b> V3.1發(fā)布!擁抱國(guó)產(chǎn)算力芯片

    登臨科技GPU+架構(gòu)深度適配DeepSeek-V4大模型

    DeepSeek-V4-Flash,全系標(biāo)配百萬(wàn)token長(zhǎng)上下文能力,開(kāi)啟大模型長(zhǎng)文本普惠新時(shí)代。同日,開(kāi)源社區(qū)已提交適配DeepSeek-V4的代碼。 作為國(guó)產(chǎn)高性能通用GPU的領(lǐng)軍者,蘇州登臨科技股份
    的頭像 發(fā)表于 04-29 16:07 ?1222次閱讀

    國(guó)產(chǎn)AI換芯提速!DeepSeek V4和小米MiMo-2.5上線,主流國(guó)產(chǎn)芯片適配

    正式發(fā)布全新系列 AI 大模型 DeepSeek-V4 的預(yù)覽版本并同步開(kāi)源,憑借百萬(wàn)字超長(zhǎng)上下文及領(lǐng)先的 Agent 能力引發(fā)業(yè)界高度關(guān)注。 4月25日,出手了,
    的頭像 發(fā)表于 04-28 15:13 ?1.2w次閱讀
    國(guó)產(chǎn)AI換芯提速!<b class='flag-5'>DeepSeek</b> V4和小米MiMo-2.5上線,主流國(guó)產(chǎn)芯片適配

    壁仞科技壁礪166系列GPU產(chǎn)品率先支持DeepSeek-V4模型

    4月24日,深度求索團(tuán)隊(duì)宣布全新系列模型 DeepSeek-V4 的預(yù)覽版本正式上線并同步開(kāi)源。依托成熟的BIRENSUPA軟件棧與自研GPU全棧智能體“AIModelMaster”,壁仞科技快速
    的頭像 發(fā)表于 04-28 14:04 ?673次閱讀
    壁仞科技壁礪166系列<b class='flag-5'>GPU</b>產(chǎn)品率先支持<b class='flag-5'>DeepSeek</b>-V4模型

    騰訊阿里聯(lián)手投資DeepSeek:估值飆升背后的AI資本博弈

    美元估值實(shí)現(xiàn)翻倍。這場(chǎng)突如其來(lái)的資本博弈,不僅標(biāo)志著DeepSeek創(chuàng)始人“不引入外部資金”立場(chǎng)的徹底轉(zhuǎn)變,更折射出中國(guó)AI產(chǎn)業(yè)在技術(shù)
    的頭像 發(fā)表于 04-24 09:11 ?898次閱讀

    《電子發(fā)燒友電子設(shè)計(jì)周報(bào)》聚焦硬科技領(lǐng)域核心價(jià)值 26年第1期:2026.1.4--2025.1.16

    :具身智能邁入“大小腦協(xié)同”新紀(jì)元 8、全球首款5G-A車(chē)載模組發(fā)布!打開(kāi)萬(wàn)億車(chē)聯(lián)網(wǎng)市場(chǎng)發(fā)展新維度 9、署名DeepSeek
    發(fā)表于 01-16 20:20

    DeepSeek開(kāi)源Engram:讓大模型擁有&quot;過(guò)目不忘&quot;的類(lèi)腦記憶

    2026年1月13日凌晨,DeepSeek突然發(fā)布由創(chuàng)始人署名新論文《Condition
    的頭像 發(fā)表于 01-14 16:07 ?476次閱讀
    <b class='flag-5'>DeepSeek</b>開(kāi)源Engram:讓大模型擁有&quot;過(guò)目不忘&quot;的類(lèi)腦記憶

    TGV產(chǎn)業(yè)發(fā)展:玻璃通孔技術(shù)如何突破力學(xué)瓶頸?

    在后摩爾時(shí)代,芯片算力提升的突破口已從單純依賴(lài)制程工藝轉(zhuǎn)向先進(jìn)封裝技術(shù)。當(dāng)硅基芯片逼近物理極限,2.5D/3D堆疊技術(shù)通過(guò)Chiplet(芯粒)拆分與異構(gòu)集成,成為突破光罩
    的頭像 發(fā)表于 10-21 07:54 ?1293次閱讀

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】+混合專(zhuān)家

    感謝電子發(fā)燒友提供學(xué)習(xí)Deepseek核心技術(shù)這本書(shū)的機(jī)會(huì)。 讀完《Deepseek核心技術(shù)揭秘》,我深受觸動(dòng),對(duì)人工智能領(lǐng)域有了全新的認(rèn)識(shí)。了解D
    發(fā)表于 07-22 22:14

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】--全書(shū)概覽

    感謝平臺(tái)提供的書(shū)籍,實(shí)物如下 這本書(shū)主講從年前開(kāi)始火熱的DeepSeek 。書(shū)籍看起來(lái)輕薄,但言簡(jiǎn)意賅,通俗易懂,總覽全局,比較精煉。 第一章 介紹DeepSeek的一系列技術(shù)突破與創(chuàng)
    發(fā)表于 07-21 00:04

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】第三章:探索 DeepSeek - V3 技術(shù)架構(gòu)的奧秘

    時(shí)間減少,數(shù)據(jù)處理更流暢。這讓我聯(lián)想到工業(yè)生產(chǎn)中的流水線,AI 訓(xùn)練在此處借鑒類(lèi)似思路,通過(guò)優(yōu)化任務(wù)分配和流程,突破硬件限制,追求更高效率,體現(xiàn)了技術(shù)發(fā)展中持續(xù)優(yōu)化、突破瓶頸的智慧。
    發(fā)表于 07-20 15:07

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗(yàn)】書(shū)籍介紹+第一章讀后心得

    這本書(shū)有150多頁(yè),而且是彩色印刷的,圖、表很多而且很有條理性。 書(shū)籍前言介紹如下: 第1章 介紹 DeepSeek 的一系列技術(shù)突破與創(chuàng)新,如架構(gòu)創(chuàng)新、訓(xùn)練優(yōu)化、推理與部署優(yōu)化等,讓讀者
    發(fā)表于 07-17 11:59

    【書(shū)籍評(píng)測(cè)活動(dòng)NO.62】一本書(shū)讀懂 DeepSeek 全家桶核心技術(shù)DeepSeek 核心技術(shù)揭秘

    DeepSeek-V3技術(shù)突破 DeepSeek-V3 的模型架構(gòu)整體上基于 Transformer 的 MoE 架構(gòu),并在細(xì)節(jié)實(shí)現(xiàn)上做了大量的創(chuàng)新和優(yōu)化,如大量小專(zhuān)家模型、多頭潛在
    發(fā)表于 06-09 14:38

    DeepSeek 引領(lǐng)邊緣 AI 芯片向更高性能、更低功耗、更強(qiáng)泛化能力的方向演進(jìn)

    )等優(yōu)化技術(shù),從而在性能上取得優(yōu)異表現(xiàn)。但其計(jì)算和內(nèi)存需求也極高:部署原始的大型模型往往需要多卡 GPU 集群(如數(shù)十到上百塊 H100)才能在
    的頭像 發(fā)表于 05-09 10:27 ?2456次閱讀
    蚌埠市| 泽普县| 海口市| 彰化县| 邵阳市| 喀什市| 平乐县| 曲麻莱县| 崇礼县| 武夷山市| 德清县| 济源市| 黎城县| 万山特区| 陈巴尔虎旗| 临夏市| 蒙阴县| 格尔木市| 常州市| 筠连县| 花莲县| 太谷县| 惠安县| 菏泽市| 惠水县| 曲靖市| 昭通市| 收藏| 钟山县| 武城县| 涞水县| 潢川县| 柏乡县| 江孜县| 北安市| 阳新县| 天柱县| 措美县| 新兴县| 新化县| 涡阳县|