日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

鄭緯民院士:內存型長記憶存儲以存換算是AI推理新趨勢

要長高 ? 2024-11-01 16:03 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在10月29日由中國電子工業(yè)標準化技術協(xié)會舉辦的數(shù)據(jù)存儲專業(yè)委員會(簡稱“數(shù)據(jù)存儲專委會”)成立大會上,匯聚了產業(yè)界代表、專委會成員及多位院士專家,共逾百人,共同探討了數(shù)據(jù)存儲產業(yè)的發(fā)展,并見證了數(shù)據(jù)存儲專業(yè)委員會的正式成立。會上,中國工程院院士、數(shù)據(jù)存儲專委會名譽會長鄭緯民發(fā)表了題為“AI存儲:人工智能大模型的基石”的主旨演講。

鄭緯民院士指出,人工智能進入大模型時代展現(xiàn)出兩大特征:一是基礎大模型邁入多模態(tài)時代,實現(xiàn)了從單一文本到圖片、視頻等多模態(tài)信息的綜合應用;二是大模型已在金融、醫(yī)療、智能制造等多個領域得到實際應用。

針對大模型的四個關鍵環(huán)節(jié),鄭緯民院士詳細闡述了存儲在大模型訓練和推理應用中所面臨的挑戰(zhàn)及相關技術:

首先,數(shù)據(jù)獲取階段,大模型訓練需要海量的原始數(shù)據(jù),這些數(shù)據(jù)需被存儲設備妥善保存。隨著大模型從單模態(tài)向多模態(tài)發(fā)展,產生了數(shù)以百億計的小文件,這對文件系統(tǒng)的目錄擴展性、讀寫速度以及存儲的低延遲和高可擴展性提出了更高要求。

其次,數(shù)據(jù)預處理階段,由于原始數(shù)據(jù)質量參差不齊,存在大量重復和低質量數(shù)據(jù),因此需要進行預處理以提升數(shù)據(jù)質量。以ChatGPT4級別的大模型為例,其訓練過程可能需要1萬塊A100顯卡耗時11個月,其中數(shù)據(jù)預處理可能占據(jù)一半以上的時間,這與數(shù)據(jù)存儲的性能密切相關。

再次,模型訓練階段,大規(guī)模訓練系統(tǒng)(如10萬塊顯卡組成的系統(tǒng))的可靠性難以保證,頻繁出現(xiàn)故障,導致集群可用度低下。為了快速恢復訓練,需要依賴高性能的存儲系統(tǒng)來快速讀取CheckPoint數(shù)據(jù)。華為與清華大學MADSys實驗室聯(lián)合開發(fā)的高性能AI存儲系統(tǒng)在此方面表現(xiàn)出色,曾在國際權威機構MLPerf Storage基準評測中獲得第一名,性能密度是第二名的兩倍。

最后,模型推理階段,這是與AI應用最直接相關的環(huán)節(jié)。更高效的人工智能需要處理更多數(shù)據(jù)、使用更大模型以及更長的上下文窗口,但這同時也帶來了極重的推理負載。模型參數(shù)以及推理過程中產生的KV-Cache需要巨大的存儲空間。為此,國內優(yōu)秀的大模型應用Kimi與清華大學MADSys實驗室共同推出了Mooncake分離式推理架構,通過保存共享的KV-Cache,采用以存換算的策略大幅提升系統(tǒng)吞吐。

鄭緯民院士強調,模型推理過程是一個復雜的存儲系統(tǒng)工程,關鍵在于存儲容量大、傳輸速度快以及性價比高。清華大學MADSys實驗室聯(lián)合華為數(shù)據(jù)存儲、9#AISoft、阿里云、面壁、趨境等公司共同開發(fā)的高性能內存型長記憶存儲系統(tǒng)即將開源發(fā)布,該系統(tǒng)能夠實現(xiàn)大范圍全局共享與持久化KV-Cache,以存換算,共同構建大模型時代下的高性能內存型長記憶存儲系統(tǒng)生態(tài)。

最后,鄭緯民院士總結指出,AI存儲是人工智能大模型的基石,貫穿于大模型生命周期的每一個環(huán)節(jié)。通過以存強算、以存換算,先進的AI存儲能夠提升訓練集群的可用度,降低推理成本,提升用戶體驗。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 存儲
    +關注

    關注

    13

    文章

    4897

    瀏覽量

    90313
  • AI
    AI
    +關注

    關注

    91

    文章

    41326

    瀏覽量

    302723
  • 人工智能
    +關注

    關注

    1821

    文章

    50367

    瀏覽量

    267066
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    華為破解HBM依賴!AI推理黑科技UCM上線,9月正式開源

    8月12日,在2025金融AI推理應用落地與發(fā)展論壇上,華為公司副總裁、數(shù)據(jù)存儲產品線總裁周越峰宣布,華為此次和銀聯(lián)聯(lián)合創(chuàng)新,推出AI推理創(chuàng)
    的頭像 發(fā)表于 08-13 08:58 ?1.1w次閱讀
    華為破解HBM依賴!<b class='flag-5'>AI</b><b class='flag-5'>推理</b>黑科技UCM上線,9月正式開源

    AI Ceph 分布式存儲教程資料大模型學習資料2026

    。如何構建高性能、高吞吐、高可擴展的 AI 分布式存儲系統(tǒng),已成為解鎖大模型基建能力的核心科技命題。這不僅關乎數(shù)據(jù)得下、讀得快,更直接決定了 GPU 集群的利用率與模型訓練的最終效率。 一、 突破 I/O
    發(fā)表于 05-01 17:35

    黑馬-Java+AI新版V16零基礎就業(yè)班百度云網(wǎng)盤下載+Java+AI全棧開發(fā)工程師

    差異。 二、Java 推理引擎選型與性能優(yōu)化 將 AI 模型跑在 JVM 內,最大的技術挑戰(zhàn)是性能。傳統(tǒng) Python 生態(tài)依靠原生 C++ 后端與高效內存管理獲得推理速度,而 Jav
    發(fā)表于 05-01 11:29

    憶聯(lián)自研芯片壓縮技術重塑KV Cache存儲效率

    2026年3月,谷歌研究院發(fā)布TurboQuant壓縮算法技術,迅速在存儲AI基礎設施領域引發(fā)熱議。該算法能夠壓縮KV緩存,實現(xiàn)內存占用降低6倍、推理速度提升8倍的潛力。這一技術突破
    的頭像 發(fā)表于 04-10 14:10 ?450次閱讀

    大為創(chuàng)芯進軍AI眼鏡存儲,端側AI存儲全面布局

    當前大模型應用持續(xù)滲透,AI 產業(yè)正迎來一輪關鍵的架構遷移,AI 存儲正從云端集中處理為主,逐步向終端與邊緣側下沉延伸。這一趨勢讓端側
    的頭像 發(fā)表于 04-03 10:20 ?4162次閱讀
    大為創(chuàng)芯進軍<b class='flag-5'>AI</b>眼鏡<b class='flag-5'>存儲</b>,端側<b class='flag-5'>AI</b><b class='flag-5'>存儲</b>全面布局

    端側AI進入爆發(fā)期,江波龍“集成存儲”引領AI PC/手機、可穿戴存儲創(chuàng)新

    ,國內存儲龍頭企業(yè)江波龍的“集成存儲”絕對是獨樹一幟的存在。 ? 在近日舉行的CFM|MemoryS2026閃存峰會上,江波龍董事、總經(jīng)理蔡華波做了主旨演講,重點談及集成存儲,探索端
    的頭像 發(fā)表于 04-01 10:06 ?5111次閱讀
    端側<b class='flag-5'>AI</b>進入爆發(fā)期,江波龍“集成<b class='flag-5'>存儲</b>”引領<b class='flag-5'>AI</b> PC/手機、可穿戴<b class='flag-5'>存儲</b>創(chuàng)新

    新品 | AI Pyramid AI Pyramid-Pro,面向本地推理與智能交互的高性能AI PC

    視覺識別、多模態(tài)交互與大模型本地推理等復雜任務。AIPyramid集成4GBLPDDR4x高帶寬內存,結合硬件級視頻處理引擎,支持8KH.264/H.265編解碼
    的頭像 發(fā)表于 02-06 17:24 ?3937次閱讀
    新品 | <b class='flag-5'>AI</b> Pyramid <b class='flag-5'>AI</b> Pyramid-Pro,面向本地<b class='flag-5'>推理</b>與智能交互的高性能<b class='flag-5'>AI</b> PC

    NVIDIA BlueField-4為推理上下文記憶存儲平臺提供強大支持

    隨著代理式 AI 工作流將上下文窗口擴展到數(shù)百萬個 token,并將模型規(guī)模擴展到數(shù)百萬億個參數(shù),AI 原生企業(yè)正面臨著越來越多的擴展挑戰(zhàn)。這些系統(tǒng)目前依賴于智能體長期記憶存儲跨多輪
    的頭像 發(fā)表于 02-02 10:29 ?1332次閱讀
    NVIDIA BlueField-4為<b class='flag-5'>推理</b>上下文<b class='flag-5'>記憶</b><b class='flag-5'>存儲</b>平臺提供強大支持

    2025年曙光存儲先進力構建開放的算力底座并加速AI進化

    數(shù)據(jù)存儲作為AI基礎設施的重要組成,戰(zhàn)略價值日益凸顯。2025年,曙光存儲先進力構建開放的算力底座、加速
    的頭像 發(fā)表于 01-07 09:39 ?676次閱讀

    燧原科技榮獲2025年超大規(guī)模智算集群創(chuàng)新應用實踐成果

    近日,中國信息通信研究院(以下簡稱“中國信通院”)成功召開2025AI云產業(yè)發(fā)展大會。中國通信標準化協(xié)會理事聞庫、中國信通院副院長王志勤出席會議并致辭。中國工程院院士
    的頭像 發(fā)表于 12-29 09:59 ?538次閱讀
    燧原科技榮獲2025年超大規(guī)模智算集群創(chuàng)新應用實踐成果

    華為數(shù)據(jù)存儲與「DaoCloud 道客」發(fā)布AI推理加速聯(lián)合解決方案

    AI產業(yè)已從“追求模型能力極限”轉向“追求推理體驗最優(yōu)化”,推理體驗決定用戶與AI的交互質感。當前推理應用快速發(fā)展,Token調用量爆發(fā)式增
    的頭像 發(fā)表于 11-28 10:03 ?492次閱讀
    華為數(shù)據(jù)<b class='flag-5'>存儲</b>與「DaoCloud 道客」發(fā)布<b class='flag-5'>AI</b><b class='flag-5'>推理</b>加速聯(lián)合解決方案

    科普:什么AI 內存技術

    問題。 為什么 AI 內存很重要? 在 AI 模型訓練和推理過程中,大量的數(shù)據(jù)需要從內存傳輸?shù)教幚砥鳎ㄈ?GPU 或 TPU)進行計算。傳統(tǒng)
    的頭像 發(fā)表于 09-03 15:44 ?1689次閱讀

    華為亮相2025金融AI推理應用落地與發(fā)展論壇

    近日,2025金融AI推理應用落地與發(fā)展論壇在上海舉行。中國銀聯(lián)執(zhí)行副總裁涂曉軍、華為數(shù)字金融軍團CEO曹沖出席本次論壇并發(fā)表致辭。論壇上,華為公司副總裁、數(shù)據(jù)存儲產品線總裁周躍峰博士發(fā)布AI
    的頭像 發(fā)表于 08-15 09:45 ?1410次閱讀

    今日看點丨華為發(fā)布AI推理創(chuàng)新技術UCM;比亞迪汽車出口暴增130%

    ? ? 降低HBM依賴,華為發(fā)布AI推理創(chuàng)新技術UCM ? 日前,華為正式發(fā)布AI推理創(chuàng)新技術UCM(推理
    發(fā)表于 08-13 09:45 ?5744次閱讀

    信而泰×DeepSeek:AI推理引擎驅動網(wǎng)絡智能診斷邁向 “自愈”時代

    “全流量采集 + AI根因診斷 + 預測性運維”為核心支柱,推動企業(yè)網(wǎng)絡運維模式從傳統(tǒng)的“被動響應”向“主動防御”和“故障自愈”的智能化方向躍遷。 三大核心能力:AI推理引擎重塑網(wǎng)
    發(fā)表于 07-16 15:29
    许昌县| 花莲县| 博乐市| 闵行区| 汤阴县| 平安县| 宁海县| 沧源| 突泉县| 汾西县| 珲春市| 克拉玛依市| 盐津县| 宁波市| 江北区| 尼玛县| 麻栗坡县| 上饶县| 崇州市| 洞口县| 吕梁市| 恩施市| 邵武市| 蓬安县| 长泰县| 澄迈县| 治县。| 高尔夫| 平潭县| 乌拉特中旗| 绵阳市| 隆子县| 通江县| 曲松县| 临泽县| 绥德县| 高雄县| 乡城县| 湖南省| 新竹县| 海丰县|