日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

液冷技術:迎接AIGC時代數據中心的散熱挑戰(zhàn)

光器件/光通信 ? 來源:光器件/光通信 ? 作者:光器件/光通信 ? 2024-08-15 11:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

隨著人工智能生成內容(AIGC)的跨越式發(fā)展,算力需求呈爆炸式增長,帶動了數據中心的功耗和熱管理需求的飛速上升。AI模型訓練和推理過程中的高計算資源需求,導致服務器發(fā)熱量大幅增加,對散熱技術提出了更高的要求。根據Colocation America發(fā)布的數據,2020年全球數據中心單機柜平均功率已經達到16.5kW,比2008年增加了175%。液冷技術因此成為數據中心散熱技術的新熱點。
在今年的GTC大會上,英偉達不僅展示了B200和GB200芯片,還重點介紹了與其配套的液冷技術。同時,在2024年SIEPR經濟峰會上,英偉達CEO黃仁勛透露,下一代DGX GPU服務器將全面采用液冷散熱。英偉達的選擇也成為行業(yè)內的一個風向標,為液冷技術的發(fā)展注入了新的動力。


隨著AI技術的不斷進步,液冷技術的重要性也愈加凸顯。液冷技術不僅能夠有效降低數據中心的能耗,還能夠提高服務器的運行效率,延長設備的使用壽命。因此,液冷技術正逐步成為數據中心散熱解決方案的首選。


數據中心冷卻方式的比較
目前數據中心基礎設施的制冷方式主要有風冷和液冷兩種方式。液冷技術是指利用液體取代空氣作為冷卻介質,與服務器發(fā)熱元器件進行熱交換,將服務器元器件產生的熱量帶走,以保證服務器工作在安全溫度范圍內的一種冷卻方法。風冷技術依賴于風扇和空調系統(tǒng),通過空氣流動帶走熱量。液冷技術通過液體直接冷卻發(fā)熱器件,液體的導熱能力是空氣的25倍,液體的體積比熱容是空氣的1000~3500倍,液體的對流換熱系數是空氣的10~40倍,同等情況下,液冷的冷卻能力遠高于空氣。

wKgaoma9dJWAJHTzAACGsONUvHY170.png數據中心散熱架構圖 wKgaoma9dKiAWjzxAABux7J8PyY930.png數據中心液冷VS風冷

相比風冷技術,液冷技術具有更高的冷卻效率和更低的能耗。在高密度計算環(huán)境中,風冷系統(tǒng)往往無法滿足散熱需求,而液冷技術則能夠有效解決這一問題。此外,液冷技術還具有噪音低、占地面積小等優(yōu)點,非常適合現代數據中心的高密度布局和綠色節(jié)能需求。


AI時代下,液冷發(fā)展有哪些推動力?
①算力芯片熱功率不斷攀升,風冷單點散熱已達極限
隨著AI技術的快速發(fā)展,算力需求不斷攀升,芯片發(fā)熱量和熱流密度也在不斷增加。當芯片長時間處于高溫運行狀態(tài),會影響其性能及使用壽命,增加故障率。研究表明,當芯片的工作溫度接近70-80℃時,溫度每升高10℃,芯片性能會降低約50%。當前,Intel多款CPU的TDP已達350W,英偉達的H100達到700W,未來B100或將達到1000W,這已逼近風冷單點散熱極限800W。未來計算芯片功耗或將持續(xù)增長,而CPU和GPU的整體功耗在AI服務器總功耗中占比達到80%左右,繼續(xù)采用風冷散熱,將導致行間空調需求數量陡增,高密度散熱場景下液冷方案成本和性能優(yōu)勢顯著。


除了芯片側,在機柜側,數據中心單機柜功率密度也在持續(xù)上升。傳統(tǒng)風冷技術通常可以解決12KW~15KW以內的機柜制冷極限需求,根據 UptimeInstitute 發(fā)布的《2022 年全球數據中心調查報告》,英偉達DGX A100服務器的單體最大功率為6.5KW,一個標準的 42U 高度的機柜大約可以放置 5個 5U 高度的 AI 服務器,單機柜總功率超過 20KW。傳統(tǒng)的風冷遠遠無法滿足AI服務器機柜的散熱需求。


②數據中心節(jié)能需求驅動,PUE更高要求
PUE(Power Usage Effectiveness)是評價數據中心能源效率的核心指標,計算公式為 PUE = 數據中心總能耗/IT設備能耗,數值越接近1,數據中心能效越高,PUE的值越高,數據中心的整體效率越低。


數據中心的電能消耗主要由IT設備(45%)、制冷設備(43%)、供配電系統(tǒng)(10%)、照明等(2%)構成。空調系統(tǒng)在數據中心能耗占比僅次于IT設備,在無法升級IT系統(tǒng)時,降低空調系統(tǒng)能耗是重要環(huán)節(jié)。國內在“雙碳” “東數西算” 政策的導向下,可以從近期國家有關部門發(fā)布的《綠色數據中心政府采購需求標準(試行)》的通知要求看出對于PUE的要求越來越高,其通知要求采購人采購數據中心相關設備、運維服務時,從2023年6月起數據中心PUE不高于1.4,2025年起數據中心PUE不高于1.3。 根據CDCC與浪潮信息,風冷方案數據中心PUE一般在1.4-1.5左右,而液冷數據中心PUE可降低至1.2以下,采用更加節(jié)能、效率較高的液冷散熱技術是大勢所趨。


數據中心的能源消耗一直是行業(yè)關注的焦點,尤其是在全球能源資源緊張和環(huán)保意識增強的背景下,提升數據中心的能效顯得尤為重要。液冷技術通過更高效的散熱方式,減少了空調系統(tǒng)的能耗,從而顯著降低了數據中心的PUE值。這不僅有助于降低運營成本,還能夠減少碳排放,符合可持續(xù)發(fā)展的要求。

wKgZoma9dNuAH0kcAABCz3zONzA460.png典型數據中心能耗占比

液冷技術的分類
液冷系統(tǒng)根據液體與硬件直接的接觸方式分為直接液冷和間接液冷,直接液冷就是液體與需要冷卻的硬件組件直接接觸達到冷卻的目的,又可分為浸沒式和噴淋式;間接液冷是指液體不與硬件直接接觸,通過一個中介組件(散熱器或冷卻板)將熱量帶走達到冷卻,一般常見的為冷板式液冷,根據冷卻介質是否發(fā)生相變又可分為單相冷板式和兩相冷板式。

wKgZoma9dO6AA8LPAAB4HCXLiwg537.png液冷技術的分類

①從冷板到浸沒式
冷板式液冷是通過冷板把發(fā)熱器件的熱量傳遞到冷卻液體,通過冷卻液體本身的制冷特性將產生的熱量帶走。工作液體不與電子器件直接接觸,該技術對計算機系統(tǒng)改動不大,僅需將原風冷散熱片替換為液冷散熱套件并將冷媒管路引出機箱即可。適用于中高熱流密度散熱。


冷板式液冷系統(tǒng)主要由冷卻塔、冷量分配單元(CDU)、一次側&二次側液冷管路、冷卻介質、液冷機柜組成。一次側是指將二次側的熱量排至室外環(huán)境或其他熱回收單元的環(huán)路;二次側是指從服務器帶走熱量并在一次側進行散熱的環(huán)路,兩個部分中間通過CDU即冷量分配單元來進行換熱。


冷板式液冷系統(tǒng)的工作原理相對簡單,但在實際應用中,需要考慮冷板的設計、冷卻液的選擇以及系統(tǒng)的維護等問題。此外,冷板式液冷系統(tǒng)在高熱流密度環(huán)境中表現出色,非常適合現代數據中心的高密度布局需求。

wKgaoma9dQWAJDWNAAB8clTs9qg567.png冷板式液冷系統(tǒng)工作原理

浸沒式液冷系統(tǒng)通過直接將發(fā)熱器件浸入不導電的冷卻液中實現高效散熱。按照冷卻液在循環(huán)散熱過程中是否發(fā)生相變,可以分為單相浸沒式液冷和雙相浸沒式液冷?


單相浸沒式液冷技術在交換過程中冷卻液溫度發(fā)生變化而不存在相態(tài)轉變,過程中完全依靠物質的顯熱變化傳遞熱量,即利用液體受熱后體積膨脹密度減小,較熱的冷卻液會自然上浮,通過外部冷卻回路的熱交換器冷卻,冷卻后的液體在重力作用下自然下沉,以此來完成循環(huán)散熱。這是其中一個方式,冷卻液在循環(huán)散熱過程中始終保持液態(tài)? 雙相浸沒式液冷的散熱過程中冷卻液會發(fā)生從液態(tài)到氣態(tài)再從氣態(tài)到液態(tài)的相變過程。


浸沒式液冷系統(tǒng)包括室內側與室外側,室外側包含冷卻塔、一次側管網、一次側冷卻液;室內側包含冷量分配單元(CDU)、浸沒腔體(Tank機柜)、IT設備、二次側管網和二次側冷卻液。使用過程中IT設備完全浸沒在冷卻液中,因此冷卻的選擇需要考慮不導電液體,例如硅油、氟化液等。

wKgZoma9dReALKBsAAB5D4Fgpew672.png浸沒式液冷系統(tǒng)工作原理

此外,還有噴淋式液冷,現階段落地應用較少,不適合高密度服務器和大規(guī)模數據中心。短期內,冷板式液冷因技術成熟、與現有系統(tǒng)兼容性好、維護方便和改造成本較低,非常適合AI時代對散熱的需求和數據中心從風冷向液冷的過渡階段。長期看,浸沒式液冷憑借其良好的導熱性能、高效的余熱回收能力和支持更高機柜功率的優(yōu)勢,會更適合未來數據中心冷卻需求的演變,尤其是在機柜單元功率不斷增加的情況下,浸沒式液冷可以提供更高效的冷卻解決方案,并且助力降低數據中心的總體能源使用效率(PUE)。


②智算中心首選 – 液冷
隨著功率密度的提升,采用液冷方案成為更多新建 GPU 算力中心的選擇。根據 IDC 發(fā)布的《中國半年度液冷服務器市場(2023 上半年)跟蹤》報告數據顯示, 2023 中國液冷服務器市場規(guī)模達到 15.1 億美元。 IDC 預計,2022-2027 年,中國液冷服務器市場年復合增長率將達到 54.7%,2027 年市場 規(guī)模將達到 89 億美元。


液冷技術在智算中心的應用,不僅提升了計算性能,還顯著降低了能耗和運營成本。液冷技術的推廣,將推動數據中心向更加高效、綠色和智能的方向發(fā)展,為AI時代的數據處理需求提供堅實的基礎。

wKgaoma9dSiAPalAAABmPmm3BMo963.png液冷服務器市場規(guī)模

液冷產業(yè)鏈
液冷產業(yè)鏈包括上游的產品零部件提供商、中游的液冷服務器提供商、下游的算力使用者。目前下游的用戶,國內用戶阿里巴巴以單相浸沒式液冷為主要發(fā)展方向,其他如百度、騰訊、京東等互聯(lián)網企業(yè)更多的以冷板式液冷應用居多。海外用戶浸沒式發(fā)展優(yōu)于冷板式,以美國公司為首,如英特爾、Google、Meta等互聯(lián)網大公司在AI加持下更多的推動浸沒式液冷的快速發(fā)展。

wKgaoma9dTqAT9J5AACqI0WV1vA480.png液冷產業(yè)鏈

浸沒式液冷技術可能面臨的問題
冷卻液選擇
冷卻液是液冷技術的關鍵原材料之一,具備較高技術壁壘。在浸沒式液冷技術中,冷卻液需要與電子產品直接接觸,因此對冷卻液的性能具有較高的要求,需要具備優(yōu)異的導熱性、良好的絕緣性、材料相容性等,此外對于氣味、毒性、降解難易等環(huán)境方面特性也是有一定要求,應盡可能的易于操作及環(huán)境又好型。目前應用最為廣泛的浸沒式冷卻液主要有碳氫及有機硅類(俗稱“油類”,如礦物油等)和碳氟化合物類(如氟化液等)。氟化液綜合性能較好,是比較理想的液冷材料。但氟化液目前的痛點在于成本較高。隨著愈發(fā)嚴格的環(huán)境保護要求,硅油擁有更高的導熱系數與更低的密度,同時對于環(huán)境更友好。冷卻介質選擇的差異主要由于冷卻過程的不同。


光路密封性問題
冷卻液如氟化液或硅油等具有良好的絕緣性,能夠有效防止電路短路。在低頻信號條件下,冷卻液對信號的影響幾乎可以忽略不計。然而,在高頻信號的情況下,冷卻液對信號傳輸的影響則需要謹慎評估和控制。但整體而言,對電路的影響是可控的。


而對于光路來說,數據中心的光模塊多數采用“非氣密”封裝設計,這意味著如果不進行相應的改進,冷卻液可能會進入光學腔體,影響光學性能。即便是采用氣密封裝的光模塊,仍有部分無源光路處于氣密腔之外,例如透鏡等光學元件。


光路的設計通?;诳諝獾恼凵渎剩s為1.0),當光學元件浸沒在冷卻液中時,冷卻液的折射率不同于空氣,會導致光的焦點和耦合效率發(fā)生變化。例如,氟油的折射率通常在1.3左右,這種折射率的變化會引起光路設計參數的調整。


為應對浸沒式液冷對光路和電路的潛在影響,業(yè)界正在采取多種措施。例如,開發(fā)適應冷卻液環(huán)境的新型光模塊封裝技術,優(yōu)化高頻信號的電路設計,以及研究更適合浸沒冷卻的光學材料和結構。


一體化交付還是解耦式交付
目前冷板式液冷服務器有三種交付模式,①IT設備側僅交付液冷服務器;②IT側交付“液冷服務器+液冷機柜”;③IT側交付“液冷服務器+液冷機柜+CDU+二次側管路”。當下應用較為廣泛的為第三種交付模式,即一體化交付,整體機柜由同一廠商一體化交付,由廠商自定義標準進行集成化設計開發(fā)。解耦交付是液冷機柜與液冷服務器之間遵循用戶統(tǒng)一制定的接口設計規(guī)范,機柜與服務器解耦,由不同廠家交付,基礎設施和服務器廠家需協(xié)調合作。解耦式交付易于規(guī)?;茝V與靈活部署。

wKgaoma9dVGAeH6ZAACgtP4J7DI213.png冷板式液冷服務器交付模式

目前國內液冷技術規(guī)劃化程度較低,各家服務器設備、冷卻液、制冷管路、供配電等產品形態(tài)各異,尚無統(tǒng)一接口標準,面臨著難以標準化、規(guī)?;茝V應用的問題。國內三大運營商發(fā)表液冷技術白皮書中提出液冷三年愿景,逐步開展液冷技術的驗證、實驗,將于2025年開展液冷技術的大規(guī)模應用,預計應用于50%以上數據項目,推動形成標準統(tǒng)一化、規(guī)模化,助推液冷解耦式交付。


HYC可提供定制化液冷光互聯(lián)方案
基于二十多年的光互聯(lián)關鍵技術積累,HYC具有高精度機械設計、模具、注塑設計與精密制造能力,以及光學設計、模擬仿真等技術平臺,能夠配合客戶做一系列的應用于液冷數據中心的布線系統(tǒng)ODM/JDM服務。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數據中心
    +關注

    關注

    18

    文章

    5780

    瀏覽量

    75214
  • AIGC
    +關注

    關注

    1

    文章

    393

    瀏覽量

    3274
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    Allegro亮相2026中國國際數據中心液冷技術年會

    方案,旨在為破解高功率算力集群散熱瓶頸提供成熟高效的技術路徑。憑借在液冷技術及 AI 數據中心熱管理領域的前瞻布局與落地成果,Allegro
    的頭像 發(fā)表于 04-23 17:06 ?2474次閱讀
    Allegro亮相2026中國國際<b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b><b class='flag-5'>技術</b>年會

    數據中心液冷設備監(jiān)控管理系統(tǒng)方案

    行業(yè)背景 受AI算力爆發(fā)式增長、云計算持續(xù)擴張及數字資產集聚化等因素影響,AI數據中心的規(guī)模越來越大,同時也面對著越來越嚴重的散熱難題。目前,高密度的服務器架構已超出傳統(tǒng)風冷系統(tǒng)的散熱能力,而
    的頭像 發(fā)表于 04-15 16:33 ?164次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>設備監(jiān)控管理系統(tǒng)方案

    數據中心液冷設備可視化監(jiān)控管理系統(tǒng)方案

    帶來沖擊,已難以承載龐大的散熱需求。 因此,越來越多液冷設備得到應用,具備更好的散熱能力、更低的功耗控制,成為數據中心綠色化轉型發(fā)展的重要基礎。對此,物通博聯(lián)(WideIOT)提供
    的頭像 發(fā)表于 03-31 11:03 ?272次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>設備可視化監(jiān)控管理系統(tǒng)方案

    NTC溫度傳感器,液冷服務器散熱故障的防線

    隨著云計算、AI訓練等高算力場景發(fā)展,液冷服務器因出色散熱效率成為數據中心、AI計算中心散熱方案優(yōu)選。溫度作為影響
    的頭像 發(fā)表于 03-12 11:45 ?397次閱讀

    SST液位傳感器在液冷散熱設備中的應用

    性能提出了更高的要求,功耗和散熱問題也不斷加劇。液冷已成為數據中心的關鍵解決方案。面對不斷增長的計算能力和存儲需求,數據中心面臨著能耗和散熱
    的頭像 發(fā)表于 02-02 09:41 ?561次閱讀
    SST液位傳感器在<b class='flag-5'>液冷</b><b class='flag-5'>散熱</b>設備中的應用

    數據中心液冷監(jiān)測解決方案:驅動高效冷卻,護航綠色算力

    在數字化與“雙碳”目標雙重背景下,數據中心能效提升已成為關鍵課題。液冷技術憑借其卓越的散熱能力,正成為高密度算力基礎設施的必然選擇。而液冷
    的頭像 發(fā)表于 01-22 17:45 ?1437次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>監(jiān)測解決方案:驅動高效冷卻,護航綠色算力

    英威騰液冷解決方案助力應對數據中心算力熱浪

    今天,英威騰為您揭曉答案。我們不僅提供技術,更提供場景化的液冷解決方案,從大型數據中心到邊緣算力節(jié)點,讓前沿的散熱技術變得可靠、易用、觸手可
    的頭像 發(fā)表于 12-17 14:57 ?1759次閱讀
    英威騰<b class='flag-5'>液冷</b>解決方案助力應對<b class='flag-5'>數據中心</b>算力熱浪

    液冷散熱時代:AI服務器如何重構磁元件設計

    隨著AI服務器功率密度的快速提升,傳統(tǒng)的風冷散熱方案在熱管理方面逐漸面臨挑戰(zhàn)。在此背景下,液冷散熱技術正加速應用于
    的頭像 發(fā)表于 11-21 11:42 ?1180次閱讀
    <b class='flag-5'>液冷</b><b class='flag-5'>散熱</b><b class='flag-5'>時代</b>:AI服務器如何重構磁元件設計

    數據中心液冷服務器該配什么樣的 UPS 不間斷電源?

    在當今數字化飛速發(fā)展的時代,數據中心就像是整個數字世界的心臟,承載著海量的數據存儲與處理任務。而液冷服務器作為數據中心的核心設備之一,因其高
    的頭像 發(fā)表于 08-21 11:01 ?1133次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>服務器該配什么樣的 UPS 不間斷電源?

    易飛揚浸沒液冷延長器與硅光液冷光模塊主題研究 ——液冷光互連技術數據中心革命

    1. 研究背景與行業(yè)趨勢 1.1 數據中心散熱挑戰(zhàn) 隨著AI、HPC(高性能計算)和5G的快速發(fā)展,數據中心功率密度急劇上升,傳統(tǒng)風冷技術
    的頭像 發(fā)表于 07-20 12:19 ?1317次閱讀
    易飛揚浸沒<b class='flag-5'>液冷</b>延長器與硅光<b class='flag-5'>液冷</b>光模塊主題研究  ——<b class='flag-5'>液冷</b>光互連<b class='flag-5'>技術</b>的<b class='flag-5'>數據中心</b>革命

    曙光數創(chuàng)推出液冷數據中心全生命周期定制新服務

    在AI 算力爆發(fā)式增長的當下,液冷技術已成為數據中心突破散熱瓶頸、支撐高密度算力的必選項。但液冷服務落地面臨著多重
    的頭像 發(fā)表于 06-13 14:45 ?1785次閱讀

    英特爾引領液冷革新,與殼牌共筑數據中心高效冷卻新范式

    打造業(yè)界領先的浸沒式液冷解決方案,為數據中心用戶在AI時代構建可持續(xù)、高效液冷的發(fā)展路徑。 在AI和計算能力飛速發(fā)展的當下,數據中心對強大基
    的頭像 發(fā)表于 05-16 10:14 ?763次閱讀

    RAKsmart液冷技術如何實現PUE&lt;1.2的綠色數據中心

    傳統(tǒng)數據中心因依賴風冷技術,能源使用效率(PUE)普遍在1.5以上,導致大量電力被用于散熱而非計算本身。面對“雙碳”目標與可持續(xù)發(fā)展的緊迫需求,RAKsmart憑借其創(chuàng)新的液冷
    的頭像 發(fā)表于 05-15 09:58 ?1256次閱讀

    流量與壓力傳感:數據中心液冷的″智慧之眼″

    在數字化浪潮席卷全球的當下,數據中心作為數字世界的“心臟”,承擔著海量數據的存儲、處理與傳輸重任。隨著服務器性能的不斷提升,其產生的熱量也呈指數級增長,高效可靠的冷卻系統(tǒng)成為保障數據中心穩(wěn)定運行
    的頭像 發(fā)表于 05-14 11:26 ?1377次閱讀
    流量與壓力傳感:<b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b>的″智慧之眼″

    數據中心液冷技術和風冷技術的比較

    近年來,隨著數字經濟的蓬勃發(fā)展,數據中心建設規(guī)模不斷擴大,導致機房單位面積功耗居高不下,對數據中心散熱制冷技術提出了更高的要求。同時,根據國家對數據
    的頭像 發(fā)表于 05-09 09:41 ?4726次閱讀
    <b class='flag-5'>數據中心</b><b class='flag-5'>液冷</b><b class='flag-5'>技術</b>和風冷<b class='flag-5'>技術</b>的比較
    台湾省| 蒙阴县| 和平区| 彭州市| 修文县| 如皋市| 夏河县| 嘉鱼县| 尤溪县| 和龙市| 蒙阴县| 大关县| 永寿县| 靖边县| 绵阳市| 河间市| 绩溪县| 曲周县| 抚顺市| 延川县| 右玉县| 奉节县| 伊春市| 保亭| 漳平市| 广安市| 宁强县| 延安市| 新密市| 南澳县| 长阳| 绥棱县| 冀州市| 马尔康县| 来安县| 和林格尔县| 桃源县| 黎平县| 焉耆| 子洲县| 简阳市|