日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

緩解AI推理算力焦慮,高帶寬GDDR6成殺手锏?

Rambus 藍鉑世科技 ? 來源:芯東西 ? 2023-06-02 15:49 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

芯東西 5 月 22 日報道,生成式 AI 的日益火爆,正對數(shù)據(jù)中心內(nèi)存性能提出更加苛刻的要求。無論是云端 AI 訓練還是向網(wǎng)絡邊緣轉(zhuǎn)移的 AI 推理,都需要高帶寬、低時延的內(nèi)存。邁向高性能 GDDR6 內(nèi)存接口已是大勢所趨。

近日,推出業(yè)界領先 24Gb/s GDDR6 PHY 的美國半導體 IP 和芯片供應商 Rambus,其兩位高管與芯東西等媒體進行線上交流,分享了 Rambus 在 GDDR6 領域的技術(shù)創(chuàng)新及行業(yè)發(fā)展趨勢。

"ChatGPT 等 AIGC 應用與我們公司的產(chǎn)品組合是非常契合的。"Rambus 大中華區(qū)總經(jīng)理蘇雷說,Rambus China 立足于中國市場,愿意更多、更緊密地支持中國公司在 ChatGPT 產(chǎn)業(yè)的發(fā)展,為他們保駕護航,"Rambus 面對中國客戶的需求,有最好的技術(shù)、最快的響應和最好的技術(shù)支持來服務中國市場。"

據(jù) Rambus IP 核產(chǎn)品營銷高級總監(jiān) Frank Ferro 分享,AI 推理應用對帶寬的需求通常在 200 到 500Gb/s 的范圍之間波動,每一個 GDDR6 設備的帶寬都可以達到 96Gb/s,因此通過將 4-5 個 GDDR6 設備組合在一起,就能輕松滿足 500Gb/s 及以下的帶寬需求。

他談道,如果用到一個 HBM3 設備,基本上會把這個帶寬需求的數(shù)字翻倍,能夠達到接近 800Gb/s 的帶寬,而這超過了 AI 推理本身所需要的 400 到 500Gb/s 帶寬,會使成本增加 3~4 倍。在這種條件下,HBM 并非一個經(jīng)濟高效的選擇,GDDR6 則是一個更好的替代。

他建議按需選擇 HBM 或是 GDDR6 內(nèi)存,對于對高帶寬和低延遲有很高要求的 AI 訓練場景,HBM 可能是更好的選擇;對于需要更大容量、更高帶寬的 AI 推理場景,GDDR6 會是更合適的選擇。

高性能內(nèi)存和互連方案,支持下一代數(shù)據(jù)中心發(fā)展

Rambus 大中華區(qū)總經(jīng)理蘇雷談道,Rambus 主要業(yè)務包含基礎專利授權(quán)、芯片 IP 授權(quán)和內(nèi)存接口芯片。其中芯片 IP 又主要分為接口 IP 和安全 IP。其技術(shù)和產(chǎn)品面向數(shù)據(jù)密集型市場,包括數(shù)據(jù)中心、5G、物聯(lián)網(wǎng) IoT、汽車等細分市場,后續(xù)還將推出 CXL 家族各產(chǎn)品組合芯片。

b3cf8354-fbd7-11ed-90ce-dac502259ad0.jpg

面向數(shù)據(jù)中心,Rambus 非常注重產(chǎn)品和方案的易用性,通過一站式的解決方案以及完善的服務機制,使產(chǎn)品方案變得更易在客戶端集成使用。Rambus 陸續(xù)推出了各內(nèi)存子系統(tǒng)、接口子系統(tǒng),提供業(yè)界領先、可靠的數(shù)據(jù)傳輸。其 GDDR6 接口子系統(tǒng)率先實現(xiàn)高達 24Gb/s 的內(nèi)存接口數(shù)據(jù)速率,并能為每個 GDDR6 內(nèi)存設備提供最高達到 96Gb/s 的帶寬。

Rambus 的內(nèi)存接口芯片產(chǎn)品不斷提高數(shù)據(jù)中心內(nèi)存模塊的速度和容量,同時它擁有非常豐富而全面的安全 IP 產(chǎn)品線,對用于靜態(tài)數(shù)據(jù)以及動態(tài)數(shù)據(jù)安全保護都有著專門安全的產(chǎn)品方案。

總體來說,Rambus 通過領先的高性能內(nèi)存和互聯(lián)解決方案以及硬件級安全,支持下一代數(shù)據(jù)中心的發(fā)展。其產(chǎn)品應用領域聚焦于服務器主內(nèi)存、人工智能和網(wǎng)絡加速器、智能網(wǎng)卡、網(wǎng)絡存儲、網(wǎng)絡交換機以及內(nèi)存擴展和池化等。

b3f79e98-fbd7-11ed-90ce-dac502259ad0.jpg

內(nèi)存是未來 AI 性能的關鍵

Rambus IP 核產(chǎn)品營銷高級總監(jiān) Frank Ferro 著重分享了迄今市場推動高性能需求的主要驅(qū)動力,以及未來如何更好滿足 AI 性能需求。

數(shù)據(jù)需求依舊呈現(xiàn)上漲趨勢。ChatGPT 等 AI 相關應用快速發(fā)展,對內(nèi)存帶寬需求旺盛,因此市面上越來越多公司開始專注于開發(fā)自己個性化、定制化的處理器產(chǎn)品,以更好地滿足神經(jīng)網(wǎng)絡以及專屬應用的需求。

Frank Ferro 強調(diào)說,盡管算力增長非常顯著,但帶寬的進步與之并不匹配,即現(xiàn)有高算力的基礎之上,很多的 GPU 資源其實并沒有得到充分的占用和利用,這造成了現(xiàn)在的困境。

AI 訓練環(huán)節(jié)需要錄入大量數(shù)據(jù)進行分析,需要消耗大量算力。AI 推理環(huán)節(jié)對算力的需求會大幅下降,但對成本和功耗更加敏感。Frank Ferro 談道,一個重要趨勢是 AI 推理越來越多地向邊緣設備上進行集成和轉(zhuǎn)移。在這個變化過程中,擁有更高帶寬、更低時延特性的 GDDR6 方案,能夠幫助邊緣端更好地處理數(shù)據(jù)。

對帶寬需求進一步的增加,驅(qū)動了像 Rambus 這樣的公司不斷地在去打造更加新一代的產(chǎn)品,不斷地提高內(nèi)存帶寬以及接口帶寬的相關速度。

GDDR6 能夠提供 AI 推理所需的內(nèi)存性能

Rambus 有著豐富的接口 IP 產(chǎn)品組合,同時也提供像 DDR、LPDDR 以及 HBM 等產(chǎn)品,并非常關注 SerDes 產(chǎn)品的開發(fā),主要聚焦于 PCIe 和 CXL 接口,會開發(fā)配套的 PHY 及控制器。Rambus 的 HBM 產(chǎn)品擁有領先的市占率,同時其 HBM3 產(chǎn)品已經(jīng)能夠提供高達 8.4Gbps/s 的數(shù)據(jù)傳輸速率。

b43677c6-fbd7-11ed-90ce-dac502259ad0.jpg

其全新 GDDR6 PHY 及控制器的配套產(chǎn)品已達到業(yè)界領先的 24Gb/s 的數(shù)據(jù)傳輸速率,可為 AI 推理等應用場景帶來巨大性能優(yōu)勢和收益。此外,該產(chǎn)品在功耗管理方面優(yōu)勢明顯,并實現(xiàn)了 PHY 以及控制器的完整集成,即客戶收到產(chǎn)品后,可以直接對其子系統(tǒng)進行定制化應用。

b4563b92-fbd7-11ed-90ce-dac502259ad0.jpg

如圖是 GDDR6 內(nèi)存接口系統(tǒng),Rambus 提供的是中間標藍的兩個重要環(huán)節(jié),也就是完整的子系統(tǒng)。Rambus 會根據(jù)客戶具體應用場景和實際的訴求對子系統(tǒng)來進行優(yōu)化,并將其作為完整的子系統(tǒng)來交付給客戶。

clamshell 模式指每個信道可支持兩個 GDDR6 的設備。換句話說,在 clamshell 模式之下,整個容量是直接翻倍乘以 2 的。值得一提的是,GDDR6 現(xiàn)已支持先進的 FinFET 工藝節(jié)點環(huán)境。

此外,Rambus 也會針對 PCB 以及封裝提供相關的參考設計,同時內(nèi)部有信號完整度和邊緣完整性方面的專家,來幫助客戶完成整個設計工作。

市面上很多 GPU 加速器都已經(jīng)用到 GDDR6。由于在成本和性能之間達到不錯的平衡,GDDR6 成為在 AI 應用場景下比較合理的產(chǎn)品和選擇。而 Rambus 擁有領先的 SI/PI 專業(yè)知識,可以進行早期的協(xié)同設計和開發(fā),確保 GDDR6 產(chǎn)品的性能表現(xiàn),也能更好地去縮短產(chǎn)品的上市時間。

結(jié)語:在帶寬、成本、方案復雜性之間實現(xiàn)平衡

隨著 AI 應用趨于盛行,蘇雷談道,下游廠商首先關注高帶寬,并開始關注方案的成本和復雜性,"GDDR 技術(shù)是在帶寬、成本和方案復雜性的各因素之間提供了一個非常完美的折中技術(shù)方案。" 他預計到 2025 年或 2026 年市場上會出現(xiàn)使用 GDDR6 IP 的芯片。

進入全新的 GDDR6 時代,相關產(chǎn)品已開始采用 16 位的雙讀寫通道。雙讀寫通道加起來是 32 位的數(shù)據(jù)寬度,而 GDDR6 內(nèi)存有 8 個雙讀寫通道,總共可實現(xiàn) 256 位的數(shù)據(jù)傳輸寬度,所以能夠顯著提高數(shù)據(jù)傳輸?shù)乃俣群托?,系統(tǒng)層效率和功耗管理也能得到進一步的優(yōu)化。

除了適用于 AI 推理場景外,F(xiàn)rank Ferro 說,GDDR6 也會在圖形領域和一些網(wǎng)絡應用場景中起到重要作用,能夠大幅降低網(wǎng)絡邊緣設備對 DDR 數(shù)量的需求。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    463

    文章

    54463

    瀏覽量

    469657
  • 控制器
    +關注

    關注

    114

    文章

    17886

    瀏覽量

    195285
  • AI
    AI
    +關注

    關注

    91

    文章

    41315

    瀏覽量

    302691

原文標題:【媒體報道】緩解 AI 推理算力焦慮,高帶寬 GDDR6 成殺手锏?

文章出處:【微信號:Rambus 藍鉑世科技,微信公眾號:Rambus 藍鉑世科技】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    米爾RK3576+Hailo-8突破6 TOPS極限,讓幀率攝像頭真正“實時”

    的“性能天花板”。 米爾基于RK3576開發(fā)板 一、RK3576的算極限在哪里? RK3576內(nèi)置NPU由2核組成,具備6 TOPS 算,在常規(guī)輕量級模型推理中表現(xiàn)不俗。但在實際項
    發(fā)表于 04-02 18:03

    OpenClaw引爆AI!長江存儲eSSD三箭齊發(fā),有何殺手锏?

    SIA數(shù)據(jù)顯示,從2024年到2029年,eSSD需求的復合增長率達到34.9%。長江存儲固態(tài)硬盤事業(yè)部負責人譚弘就AI時代的存瓶頸和長江存儲企業(yè)級解決方案進行精彩的演講。
    的頭像 發(fā)表于 03-31 09:36 ?1.5w次閱讀
    OpenClaw引爆<b class='flag-5'>AI</b>存<b class='flag-5'>力</b>!長江存儲eSSD三箭齊發(fā),有何<b class='flag-5'>殺手锏</b>?

    云天勵飛中標湛江市AI滲透支撐新質(zhì)生產(chǎn)基礎設施建設項目

    日前,云天勵飛中標湛江市AI滲透支撐新質(zhì)生產(chǎn)基礎設施建設項目。根據(jù)項目規(guī)劃,公司將基于自研國產(chǎn)AI推理加速卡,參與建設AI
    的頭像 發(fā)表于 03-14 09:04 ?785次閱讀

    邊緣AI臨界點:深度解析176TOPS香橙派AI Station的產(chǎn)業(yè)價值

    、內(nèi)存革命:48GB/96GB LPDDR4X 背后的帶寬博弈 很多開發(fā)者容易陷入唯算論的誤區(qū),但在實際部署大模型時,內(nèi)存容量和帶寬往往是真正的性能瓶頸。OrangePi AI St
    發(fā)表于 03-10 14:19

    R480-X8面向下一代AI集群的高密度算模塊:技術(shù)架構(gòu)與應用分析

    基于開放計算標準(OCP OAI/OAM)設計的高密度AI加速器組,通過模塊化集成,在單一節(jié)點內(nèi)聚合高達1 PFLOPS(FP16)與2 POPS(INT8)的峰值算。其配備大容量GDDR6內(nèi)存
    的頭像 發(fā)表于 12-14 13:15 ?1435次閱讀
    R480-X8面向下一代<b class='flag-5'>AI</b>集群的高密度算<b class='flag-5'>力</b>模塊:技術(shù)架構(gòu)與應用分析

    昆侖芯R200 AI加速卡技術(shù)規(guī)格解析

    昆侖芯R200加速卡基于7nm XPU-R架構(gòu),在150W功耗下提供256 TOPS INT8算,側(cè)重高性能推理。配備最高32GB GDDR6內(nèi)存(512GB/s帶寬)及108路視頻
    的頭像 發(fā)表于 12-14 13:12 ?1952次閱讀
    昆侖芯R200 <b class='flag-5'>AI</b>加速卡技術(shù)規(guī)格解析

    積木+3D堆疊!GPNPU架構(gòu)創(chuàng)新,應對AI推理需求

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)2025年,人工智能正式邁入應用推理時代。大模型從實驗室走向千行百業(yè),推理需求呈指數(shù)級爆發(fā)。然而,高昂的推理成本與有限的算供給之間的矛盾日益凸顯,成為制
    的頭像 發(fā)表于 12-11 08:57 ?8130次閱讀

    2025昇騰AI技術(shù)研討會·杭州站盛大開啟!小眼睛科技誠邀您共同見證AI+FPGA賦能昇騰新生態(tài)!

    ”合二為一,打造邊緣實時、低功耗、算法快速迭代場景下的“殺手锏”組合,推出“訓練在云端、推理在邊緣、算法可熱插拔”的端到端異構(gòu)加速平臺。近期,由華為技術(shù)有限公司&華強半
    的頭像 發(fā)表于 12-11 08:03 ?870次閱讀
    2025昇騰<b class='flag-5'>AI</b>技術(shù)研討會·杭州站盛大開啟!小眼睛科技誠邀您共同見證<b class='flag-5'>AI</b>+FPGA賦能昇騰新生態(tài)!

    搶灘AI MCU增量市場,君正新品有何殺手锏破局關鍵

    為何AI MCU成為君正主要發(fā)的增量市場?在邊緣AI MCU賦能AI設備的需求當中,算和算法是當下芯片設計的兩大挑戰(zhàn),北京君正如何解決這
    的頭像 發(fā)表于 11-05 09:17 ?1.5w次閱讀
    搶灘<b class='flag-5'>AI</b> MCU增量市場,君正新品有何<b class='flag-5'>殺手锏</b><b class='flag-5'>成</b>破局關鍵

    AI推理需求爆發(fā)!通首秀重磅產(chǎn)品,國產(chǎn)GPU的自主牌怎么打?

    10月29日,在安博會的2025智能算應用及產(chǎn)業(yè)發(fā)展論壇上,超聚變數(shù)字技術(shù)有限公司深圳解決方案總監(jiān)丁元釗表示,原來我們預計2026年是AI推理爆發(fā)元年,2025年DeepSeek-R1,V3模型
    的頭像 發(fā)表于 10-30 00:46 ?1.4w次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>需求爆發(fā)!<b class='flag-5'>高</b>通首秀重磅產(chǎn)品,國產(chǎn)GPU的自主牌怎么打?

    【「AI芯片:科技探索與AGI愿景」閱讀體驗】+AI芯片到AGI芯片

    建立的基礎: ①算支柱②數(shù)據(jù)支柱③計算支柱 1)算AI有關的因素: ①晶體管數(shù)量②晶體管速度③芯片架構(gòu)④芯片面積⑤制造工藝⑥芯片內(nèi)部擴展⑦內(nèi)存
    發(fā)表于 09-18 15:31

    商湯大裝置躋身中國大模型推理算廠商第一梯隊

    近日,IDC發(fā)布首個《2025中國大模型推理算市場分析報告》。
    的頭像 發(fā)表于 08-14 09:29 ?5080次閱讀

    信而泰×DeepSeek:AI推理引擎驅(qū)動網(wǎng)絡智能診斷邁向 “自愈”時代

    、資源分配的最優(yōu)策略建議,減少資源浪費,提升整體網(wǎng)絡效率。 客戶實證:AI推理引擎的精準力量某大型政務云平臺遭遇核心業(yè)務運行緩慢問題,初步懷疑網(wǎng)絡帶寬不足。在利用信而泰xnSight網(wǎng)絡應用性能管理系統(tǒng)
    發(fā)表于 07-16 15:29

    瑞之辰傳感器:從“卡脖子”到“殺手锏”的技術(shù)突圍

    壓力傳感器的國產(chǎn)化替代,將這一“卡脖子”難題逐步轉(zhuǎn)變?yōu)樽陨淼募夹g(shù)“殺手锏”。破解“卡脖子”的技術(shù)密碼當動力電池安全監(jiān)測需要精度達1%FS的微型壓力傳感器時,當工業(yè)自動化
    的頭像 發(fā)表于 07-01 17:06 ?2303次閱讀
    瑞之辰傳感器:從“卡脖子”到“<b class='flag-5'>殺手锏</b>”的技術(shù)突圍

    革命:RoCE實測推理時延比InfiniBand低30%的底層邏輯

    AI 訓練與推理中的網(wǎng)絡效率瓶頸,助力數(shù)據(jù)中心在帶寬、低延遲、高可靠性的需求下實現(xiàn)算資源的最優(yōu)配置。
    的頭像 發(fā)表于 05-28 14:08 ?2294次閱讀
    算<b class='flag-5'>力</b>革命:RoCE實測<b class='flag-5'>推理</b>時延比InfiniBand低30%的底層邏輯
    油尖旺区| 仁化县| 博兴县| 扎赉特旗| 阜南县| 遂宁市| 浦东新区| 江山市| 洱源县| 阿坝| 垣曲县| 临漳县| 西乡县| 岢岚县| 百色市| 邮箱| 本溪| 石景山区| 苗栗县| 鹤庆县| 莱西市| 利津县| 文安县| 江北区| 赤壁市| 杭州市| 湟源县| 项城市| 永修县| 华坪县| 桂平市| 金阳县| 涞源县| 松滋市| 饶平县| 萨迦县| 吉木乃县| 青河县| 沙湾县| 千阳县| 三亚市|