日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用NVIDIA CUDA 11 . 2優(yōu)化GPU應(yīng)用性能

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-04-06 10:24 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

CUDA 11 . 2 的特點是在 GPU 加速應(yīng)用程序中為設(shè)備代碼提供強大的鏈路時間優(yōu)化( LTO )功能。 Device LTO 將設(shè)備代碼優(yōu)化的性能優(yōu)勢(只有在 nvcc 整個程序編譯模式下才可能)帶到了 CUDA 5 . 0 中引入的 nvcc 單獨編譯模式。

單獨編譯模式允許 CUDA 設(shè)備內(nèi)核代碼跨多個源文件,而在整個程序編譯模式下,程序中的所有 CUDA 設(shè)備內(nèi)核代碼都必須位于單個源文件中。獨立編譯模式將源代碼模塊化引入設(shè)備內(nèi)核代碼,因此是提高開發(fā)人員生產(chǎn)率的重要步驟。獨立的編譯模式使開發(fā)人員能夠更好地設(shè)計和組織設(shè)備內(nèi)核代碼,并使 GPU 加速許多現(xiàn)有的應(yīng)用程序,而無需進行大量的代碼重構(gòu)工作,即可將所有設(shè)備內(nèi)核代碼移動到單個源文件中。它還提高了大型并行應(yīng)用程序開發(fā)的開發(fā)人員的生產(chǎn)效率,只需要重新編譯帶有增量更改的設(shè)備源文件。

CUDA 編譯器優(yōu)化的范圍通常限于正在編譯的每個源文件。在單獨的編譯模式下,編譯時優(yōu)化的范圍可能會受到限制,因為編譯器無法看到源文件之外引用的任何設(shè)備代碼,因為編譯器無法利用跨越文件邊界的優(yōu)化機會。

相比之下,在整個程序編譯模式下,程序中存在的所有設(shè)備內(nèi)核代碼都位于同一源文件中,消除了任何外部依賴關(guān)系,并允許編譯器執(zhí)行在單獨編譯模式下不可能執(zhí)行的優(yōu)化。因此,在整個程序編譯模式下編譯的程序通常比在單獨編譯模式下編譯的程序性能更好。

使用 CUDA 11 . 0 中預(yù)覽的設(shè)備鏈接時間優(yōu)化( LTO ),可以獲得單獨編譯的源代碼模塊化以及設(shè)備代碼整個程序編譯的運行時性能。雖然編譯器在優(yōu)化單獨編譯的 CUDA 源文件時可能無法進行全局優(yōu)化的代碼轉(zhuǎn)換,但鏈接器更適合這樣做。

與編譯器相比,鏈接器具有正在構(gòu)建的可執(zhí)行文件的整個程序視圖,包括來自多個源文件和庫的源代碼和符號??蓤?zhí)行文件的整個程序視圖使鏈接器能夠選擇最適合單獨編譯的程序的性能優(yōu)化。此設(shè)備鏈接時間優(yōu)化由鏈接器執(zhí)行,是 CUDA 11 . 2 中 nvlink 實用程序的一個功能。具有多個源文件和庫的應(yīng)用程序現(xiàn)在可以通過 GPU 進行加速,而不會影響單獨編譯模式下的性能。

圖 1 。不同編程模式下編譯時和鏈接時優(yōu)化過程的比較。

圖 1 ,在 nvcc 全程序編譯模式下,要在單個源文件 X . cu 中編譯的設(shè)備程序,沒有任何未解析的外部設(shè)備函數(shù)或變量引用,可以在編譯時由編譯器完全優(yōu)化。然而,在單獨的編譯模式下,編譯器只能優(yōu)化正在編譯的單個源文件中的設(shè)備代碼,而最終的可執(zhí)行文件沒有盡可能優(yōu)化,因為編譯器無法執(zhí)行跨源文件的更多優(yōu)化。設(shè)備鏈接時間優(yōu)化通過將優(yōu)化推遲到鏈接步驟來彌補這一差距。

在設(shè)備 LTO 模式下,我們?yōu)槊總€翻譯單元存儲代碼的高級中間形式,然后在鏈接時合并所有這些中間形式以創(chuàng)建所有設(shè)備代碼的高級表示。這使鏈接器能夠執(zhí)行高級優(yōu)化,例如跨文件邊界內(nèi)聯(lián),這不僅消除了調(diào)用約定的開銷,還進一步支持對內(nèi)聯(lián)代碼塊本身進行其他優(yōu)化。鏈接器還可以利用已完成的偏移量。例如,共享內(nèi)存分配是最終確定的,并且數(shù)據(jù)偏移量僅在鏈路時間已知,因此設(shè)備鏈路時間優(yōu)化現(xiàn)在可以使諸如設(shè)備代碼的恒定傳播或折疊之類的低級優(yōu)化成為可能。即使函數(shù)沒有內(nèi)聯(lián),鏈接器仍然可以看到調(diào)用的兩面,以優(yōu)化調(diào)用約定。因此,可以通過設(shè)備鏈路時間優(yōu)化來提高為單獨編譯的程序生成的代碼的質(zhì)量,并且其性能與以整個程序模式編譯的程序一樣。

為了了解單獨編譯的局限性以及設(shè)備 LTO 可能帶來的性能提升,讓我們看一個 MonteCarlo 基準(zhǔn)測試中的示例

I 在下面的示例代碼中, MC_Location:: get_domain 不是在另一個文件中定義的標(biāo)準(zhǔn)編譯模式中內(nèi)聯(lián)的,而是
使用 CUDA 11 . 2 中的設(shè)備鏈路優(yōu)化內(nèi)聯(lián)

 __device__ void MCT_Reflect_Particle(MonteCarlo *monteCarlo,
 MC_Particle &particle){

 MC_Location location = particle.Get_Location();
 const MC_Domain &domain = location.get_domain(monteCarlo);
 ...
 ...
 /* uses domain */
 }

函數(shù) get \ u domain 是另一個類的一部分,因此在另一個文件中定義它是有意義的。但是在單獨的編譯模式下,編譯器在調(diào)用 get \ u domain ()時將不知道它做什么,甚至不知道它存在于何處,因此編譯器無法內(nèi)聯(lián)該函數(shù),必須隨參數(shù)一起發(fā)出調(diào)用并返回處理,同時也節(jié)省空間的事情,如回郵地址后,呼吁。這又使得它無法潛在地優(yōu)化使用域值的后續(xù)語句。在設(shè)備 LTO 模式下, get \ u domain ()可以完全內(nèi)聯(lián),編譯器可以執(zhí)行更多優(yōu)化,從而消除調(diào)用約定的代碼,并啟用基于域值的優(yōu)化。

簡而言之,設(shè)備 LTO 將所有性能優(yōu)化都引入到單獨的編譯模式中,而以前只有在整個程序編譯模式中才可用。

使用設(shè)備 LTO

要使用設(shè)備 LTO ,請將選項 -dlto 添加到編譯和鏈接命令中,如下所示。從這兩個步驟中跳過 -dlto 選項會影響結(jié)果。

使用-dlto選項編譯 CUDA 源文件:

nvcc -dc -dlto *.cu

使用-dlto選項鏈接 CUDA 對象文件:

 nvcc -dlto *.o

在編譯時使用 -dlto 選項指示編譯器將正在編譯的設(shè)備代碼的高級中間表示( NVVM-IR )存儲到 fatbinary 中。在鏈接時使用 -dlto 選項將指示鏈接器從所有鏈接對象檢索 NVVM IR ,并將它們合并到一個 IR 中并執(zhí)行優(yōu)化在生成的 IR 上生成代碼。設(shè)備 LTO 與任何支持的 SM 架構(gòu)目標(biāo)一起工作。

對現(xiàn)有庫使用設(shè)備 LTO

設(shè)備 LTO 只有在編譯和鏈接步驟都使用 -dlto 時才能生效。如果 -dlto 在編譯時使用,而不是在鏈接時使用,則在鏈接時每個對象都被單獨編譯到 SASS ,然后作為正常鏈接,沒有任何優(yōu)化機會。如果 -dlto 在鏈接時使用,而不是在編譯時使用,然后鏈接器找不到要執(zhí)行 LTO 的中間表示,并跳過直接鏈接對象的優(yōu)化步驟。

如果包含設(shè)備代碼的所有對象都是用 -dlto 構(gòu)建的,那么 Device LTO 工作得最好。但是,即使只有一些對象使用 -dlto ,它仍然可以使用,如圖 2 所示。

圖 2 :使用非 LTO 庫進行單獨編譯和設(shè)備鏈接時間優(yōu)化。

在這種情況下,在鏈接時,使用 -dlto 構(gòu)建的對象鏈接在一起形成一個可重定位對象,然后與其他非 LTO 對象鏈接。這不會提供最佳性能,但仍然可以通過在 LTO 對象內(nèi)進行優(yōu)化來提高性能。此功能允許使用 -dlto ,即使外部庫不是用 -dlto 構(gòu)建的;這只是意味著庫代碼不能從設(shè)備 LTO 中獲益。

每體系結(jié)構(gòu)的細(xì)粒度設(shè)備鏈路優(yōu)化支持

全局 -dlto 選項適用于編譯單個目標(biāo)體系結(jié)構(gòu)。

使用 -gencode 為多個體系結(jié)構(gòu)編譯時,請確切指定要存儲到 fat 二進制文件中的中間產(chǎn)物。例如,要在可執(zhí)行文件中存儲 Volta SASS 和 Ampere PTX ,您當(dāng)前可以使用以下選項進行編譯:

nvcc -gencode arch=compute_70,code=sm_70
 -gencode arch=compute_80,code=compute_80

使用一個新的代碼目標(biāo) lto_70 ,您可以獲得細(xì)粒度的控制,以指示哪個目標(biāo)體系結(jié)構(gòu)應(yīng)該存儲 LTO 中介體,而不是 SASS 或 PTX 。例如,要存儲 Volta LTO 和 Ampere PTX ,可以使用以下代碼示例進行編譯:

nvcc -gencode arch=compute_70,code=lto_70
 -gencode arch=compute_80,code=compute_80

績效結(jié)果

設(shè)備 LTO 會對性能產(chǎn)生什么樣的影響?

gpu 對內(nèi)存流量和寄存器壓力非常敏感。因此,設(shè)備優(yōu)化通常比相應(yīng)的主機優(yōu)化影響更大。正如預(yù)期的那樣,我們觀察到許多應(yīng)用受益于設(shè)備 LTO 。通常,通過設(shè)備 LTO 的加速比取決于 CUDA 應(yīng)用特性。

圖 3 和圖 4 顯示了一個內(nèi)部基準(zhǔn)應(yīng)用程序和另一個實際應(yīng)用程序的運行時性能和構(gòu)建時間的比較圖,這兩個應(yīng)用程序都采用三種編譯模式:

  • 全程序編譯
  • 不帶設(shè)備 LTO 的單獨編譯
  • 使用設(shè)備 LTO 模式單獨編譯

我們測試的客戶應(yīng)用程序有一個占運行時 80% 以上的主計算內(nèi)核,它調(diào)用了分布在不同翻譯單元或源文件中的數(shù)百個獨立設(shè)備函數(shù)。函數(shù)的手動內(nèi)聯(lián)是有效的,但如果您希望使用單獨的編譯來維護傳統(tǒng)的開發(fā)工作流和庫邊界,則會很麻煩。在這些情況下,使用設(shè)備 LTO 來實現(xiàn)潛在的性能優(yōu)勢而不需要額外的開發(fā)工作是非常有吸引力的。

圖 3 :設(shè)備鏈接時間優(yōu)化的性能加速比優(yōu)于單獨編譯模式,在某些情況下與整個程序編譯模式相當(dāng)(越高越好)

如圖 3 所示,帶有設(shè)備 LTO 的基準(zhǔn)測試和客戶應(yīng)用程序的運行時性能接近于整個程序編譯模式,克服了單獨編譯模式帶來的限制。請記住,性能的提高在很大程度上取決于應(yīng)用程序本身的構(gòu)建方式。正如我們所觀察到的,在某些情況下,收益微乎其微。使用另一個 CUDA 應(yīng)用程序套件,設(shè)備 LTO 的運行時性能平均提高了 25% 左右。

在這篇文章的后面,我們將介紹更多關(guān)于設(shè)備 LTO 不是特別有用的場景。

除了 GPU 性能之外,設(shè)備 LTO 還有另一個方面,那就是構(gòu)建時間。使用設(shè)備 LTO 的總構(gòu)建時間在很大程度上取決于應(yīng)用程序大小和其他系統(tǒng)因素。在圖 4 中,內(nèi)部基準(zhǔn)構(gòu)建時間的相對差異與前面三種不同編譯模式的客戶應(yīng)用程序進行了比較。內(nèi)部基準(zhǔn)由大約 12000 行代碼組成,而客戶應(yīng)用程序有上萬行代碼。


有些情況下,由于編譯和優(yōu)化這些程序所需的過程較少,因此整個程序模式的編譯速度可能更快。此外,在全程序模式下,較小的程序有時可能編譯得更快,因為它有較少的編譯命令,因此對宿主編譯器的調(diào)用也較少。但是在全程序模式下的大型程序會帶來更高的優(yōu)化成本和內(nèi)存使用。在這種情況下,使用單獨的編譯模式進行編譯會更快。對于圖 4 中的內(nèi)部基準(zhǔn)可以觀察到這一點,其中整個程序模式的編譯時間快了 17% ,而對于客戶應(yīng)用程序,整個程序模式的編譯速度慢了 25% 。

有限的優(yōu)化范圍和較小的翻譯單元使單獨編譯模式下的編譯速度更快。當(dāng)增量更改被隔離到幾個源文件時,單獨的編譯模式還減少了總體的增量構(gòu)建時間。當(dāng)啟用設(shè)備鏈接時間優(yōu)化時,編譯器優(yōu)化階段將被取消,從而顯著減少編譯時間,從而進一步加快單獨編譯模式的編譯速度。但是,同時,由于設(shè)備代碼優(yōu)化階段推遲到鏈接器,并且由于鏈接器可以在單獨編譯模式下執(zhí)行更多優(yōu)化,因此單獨編譯的程序的鏈接時間可能隨著設(shè)備鏈接時間優(yōu)化而更高。在圖 4 中,我們可以觀察到設(shè)備 LTO 構(gòu)建時間與基準(zhǔn)相比只慢了 7% ,但是與客戶應(yīng)用程序相比,構(gòu)建時間慢了近 50% 。

圖 4 :構(gòu)建時間加速可以變化(越高越好)。

在 11 . 2 中,我們還引入了新的 nvcc -threads 選項,它在針對多個體系結(jié)構(gòu)時支持并行編譯。這有助于減少構(gòu)建時間。一般來說,這些編譯模式的總(編譯和鏈接)構(gòu)建時間可能會因一組不同的因素而有所不同。盡管如此,由于使用設(shè)備 LTO 可以顯著縮短編譯時間,我們希望啟用設(shè)備鏈接時間優(yōu)化的單獨編譯模式的總體構(gòu)建在大多數(shù)典型場景中應(yīng)該是可比的。

設(shè)備 LTO 的限制

設(shè)備 LTO 在跨文件對象內(nèi)聯(lián)設(shè)備功能時特別強大。但是,在某些應(yīng)用程序中,設(shè)備代碼可能都駐留在源文件中,在這種情況下,設(shè)備 LTO 沒有太大的區(qū)別。

來自函數(shù)指針的間接調(diào)用(如回調(diào))不會從 LTO 中獲得太多好處,因為這些間接調(diào)用不能內(nèi)聯(lián)。

請注意,設(shè)備 LTO 執(zhí)行激進的代碼優(yōu)化,因此它與使用 -G NVCC 命令行選項來啟用設(shè)備代碼的符號調(diào)試支持不兼容。

對于 CUDA 11 . 2 ,設(shè)備 LTO 只能脫機編譯。設(shè)備 LTO 中間窗體尚不支持 JIT LTO 。

-maxrregcount-use_fast_math 這樣的文件作用域命令與設(shè)備 LTO 不兼容,因為 LTO 優(yōu)化跨越了文件邊界。如果所有的文件都是用相同的選項編譯的,那么一切都很好,但是如果它們不同,那么設(shè)備 LTO 會在鏈接時抱怨。通過在鏈接時指定 -maxrregcount-use_fast_math ,可以覆蓋設(shè)備 LTO 的這些編譯屬性,然后該值將用于所有 LTO 對象。

盡管使用設(shè)備 LTO 將編譯時優(yōu)化所花的大部分時間轉(zhuǎn)移到了鏈接時,但總體構(gòu)建時間通常在 LTO 構(gòu)建和非 LTO 構(gòu)建之間是相當(dāng)?shù)模驗榫幾g時間顯著縮短。但是,它增加了鏈接時所需的內(nèi)存量。我們認(rèn)為,設(shè)備 LTO 的好處應(yīng)該抵消最常見情況下的限制。

試用設(shè)備 LTO

如果您希望在不影響性能或設(shè)備源代碼模塊化的情況下,以單獨的編譯模式構(gòu)建 GPU 加速的應(yīng)用程序,那么設(shè)備 LTO 就適合您了!

使用以單獨編譯模式編譯的設(shè)備 LTO 程序可以利用跨文件邊界的代碼優(yōu)化的性能優(yōu)勢,從而有助于縮小相對于整個程序編譯模式的性能差距。

為了評估和利用設(shè)備 LTO 對 CUDA 應(yīng)用程序的好處, 立即下載 CUDA 11 . 2 工具包 并進行試用。另外,請告訴我們您的想法。我們一直在尋找改進 CUDA 應(yīng)用程序開發(fā)和運行時性能調(diào)優(yōu)體驗的方法。

關(guān)于作者

Mike Murphy 是 NVIDIA 的高級編譯工程師。

Arthy Sundaram 是 CUDA 平臺的技術(shù)產(chǎn)品經(jīng)理。她擁有哥倫比亞大學(xué)計算機科學(xué)碩士學(xué)位。她感興趣的領(lǐng)域是操作系統(tǒng)、編譯器和計算機體系結(jié)構(gòu)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5707

    瀏覽量

    110154
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    5296

    瀏覽量

    136118
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    NVIDIA推出cuEST量子化學(xué)加速庫

    本周,NVIDIA 發(fā)布了 NVIDIA cuEST。這是一款全新的 NVIDIA CUDA-X 庫,可將電子結(jié)構(gòu)計算遷移到 GPU 上執(zhí)行
    的頭像 發(fā)表于 03-23 15:11 ?541次閱讀

    借助NVIDIA CUDA Tile IR后端推進OpenAI Triton的GPU編程

    NVIDIA CUDA Tile 是基于 GPU 的編程模型,其設(shè)計目標(biāo)是為 NVIDIA Tensor Cores 提供可移植性,從而釋放 GPU
    的頭像 發(fā)表于 02-10 10:31 ?562次閱讀

    如何在NVIDIA CUDA Tile中編寫高性能矩陣乘法

    本博文是系列課程的一部分,旨在幫助開發(fā)者學(xué)習(xí) NVIDIA CUDA Tile 編程,掌握構(gòu)建高性能 GPU 內(nèi)核的方法,并以矩陣乘法作為核心示例。
    的頭像 發(fā)表于 01-22 16:43 ?5346次閱讀
    如何在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>CUDA</b> Tile中編寫高<b class='flag-5'>性能</b>矩陣乘法

    NVIDIA RTX PRO 5000 Blackwell GPU的深度評測

    需求進行了優(yōu)化設(shè)計。無論是 CUDA 核心計算性能、實時渲染能力,還是 AI 推理效率,亦或顯存帶寬與容量的顯著提升,均使得新一代 RTX PRO 5000 Blackwell GPU
    的頭像 發(fā)表于 01-06 09:51 ?4448次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 5000 Blackwell <b class='flag-5'>GPU</b>的深度評測

    NVIDIA RTX PRO 4000 Blackwell GPU性能測試

    Generation 的全面超越。那么,這款劃時代的專業(yè) GPU 在真實應(yīng)用場景中的表現(xiàn)究竟如何?今天,我們將通過深度實測,為您揭曉 NVIDIA RTX PRO 4000 Blackwell 相較于前代產(chǎn)品的性能躍遷。
    的頭像 發(fā)表于 12-29 15:30 ?1966次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4000 Blackwell <b class='flag-5'>GPU</b><b class='flag-5'>性能</b>測試

    NVIDIA CUDA Tile的創(chuàng)新之處、工作原理以及使用方法

    NVIDIA CUDA 13.1 推出 NVIDIA CUDA Tile,這是自 2006 年 NVIDIA
    的頭像 發(fā)表于 12-24 10:17 ?708次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>CUDA</b> Tile的創(chuàng)新之處、工作原理以及使用方法

    在Python中借助NVIDIA CUDA Tile簡化GPU編程

    NVIDIA CUDA 13.1 版本新增了基于 Tile 的GPU 編程模式。它是自 CUDA 發(fā)明以來 GPU 編程最核心的更新之一。借
    的頭像 發(fā)表于 12-13 10:12 ?1493次閱讀
    在Python中借助<b class='flag-5'>NVIDIA</b> <b class='flag-5'>CUDA</b> Tile簡化<b class='flag-5'>GPU</b>編程

    NVIDIA CUDA 13.1版本的新增功能與改進

    NVIDIA CUDA 13.1 是自 CUDA 二十年前發(fā)明以來,規(guī)模最大、內(nèi)容最全面的一次更新。
    的頭像 發(fā)表于 12-13 10:08 ?2504次閱讀

    NVIDIA RTX PRO 2000 Blackwell GPU性能測試

    越來越多的應(yīng)用正在使用 AI 加速,而無論工作站的大小或形態(tài)如何,都有越來越多的用戶需要 AI 性能。NVIDIA RTX PRO 2000 Blackwell 是全新 NVIDIA
    的頭像 發(fā)表于 11-28 09:39 ?7165次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 2000 Blackwell <b class='flag-5'>GPU</b><b class='flag-5'>性能</b>測試

    NVIDIA RTX PRO 4500 Blackwell GPU測試分析

    今天我們帶來全新 NVIDIA Blackwell 架構(gòu) GPU —— NVIDIA RTX PRO 4500 Blackwell 的測試,對比上一代產(chǎn)品 NVIDIA RTX 450
    的頭像 發(fā)表于 08-28 11:02 ?4463次閱讀
    <b class='flag-5'>NVIDIA</b> RTX PRO 4500 Blackwell <b class='flag-5'>GPU</b>測試分析

    NVIDIA桌面GPU系列擴展新產(chǎn)品

    NVIDIA 桌面 GPU 系列擴展,推出 NVIDIA RTX PRO 4000 SFF Edition GPU 和 RTX PRO 2000 Blackwell
    的頭像 發(fā)表于 08-18 11:50 ?1692次閱讀

    aicube的n卡gpu索引該如何添加?

    請問有人知道aicube怎樣才能讀取n卡的gpu索引呢,我已經(jīng)安裝了cuda和cudnn,在全局的py里添加了torch,能夠調(diào)用gpu,當(dāng)還是只能看到默認(rèn)的gpu0,顯示不了
    發(fā)表于 07-25 08:18

    NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場景中的性能紀(jì)錄

    本文將探討 NVIDIA TensorRT-LLM 如何基于 8 個 NVIDIA Blackwell GPU 的配置,打破 DeepSeek-R1 在最小延遲場景中的性能紀(jì)錄:在 G
    的頭像 發(fā)表于 07-02 19:31 ?3654次閱讀
    <b class='flag-5'>NVIDIA</b> Blackwell <b class='flag-5'>GPU</b><b class='flag-5'>優(yōu)化</b>DeepSeek-R1<b class='flag-5'>性能</b> 打破DeepSeek-R1在最小延遲場景中的<b class='flag-5'>性能</b>紀(jì)錄

    鴻蒙5開發(fā)寶藏案例分享---應(yīng)用性能優(yōu)化指南

    鴻蒙性能優(yōu)化實戰(zhàn)指南:讓你的應(yīng)用飛起來 ? 大家好!今天咱們聊聊鴻蒙(HarmonyOS)應(yīng)用性能優(yōu)化的實戰(zhàn)技巧。結(jié)合官方文檔和最佳實踐,我整理了8大核心
    發(fā)表于 06-12 17:17

    借助NVIDIA技術(shù)加速半導(dǎo)體芯片制造

    NVIDIA Blackwell GPU、NVIDIA Grace CPU、高速 NVIDIA NVLink 網(wǎng)絡(luò)架構(gòu)和交換機,以及諸如 NVIDI
    的頭像 發(fā)表于 05-27 13:59 ?1305次閱讀
    洱源县| 辽中县| 根河市| 建德市| 南汇区| 区。| 徐水县| 望奎县| 青冈县| 孟连| 南漳县| 安达市| 苏尼特右旗| 永春县| 虎林市| 曲阳县| 新郑市| 阳高县| 营山县| 嫩江县| 古丈县| 任丘市| 万州区| 新竹县| 延边| 司法| 房山区| 福海县| 岫岩| 习水县| 云龙县| 离岛区| 康保县| 木里| 南木林县| 延长县| 南汇区| 金堂县| 张北县| 许昌县| 新营市|