宋老師的SMT測試很有意思,但是編譯內(nèi)核涉及的因素太多了,包括訪問文件系統(tǒng)等耗時受到存儲器性能的影響,難以估算,因此很難評判SMT對性能的提升如何。
為了探究SMT對計算密集型workload的效果,我自己寫了一個簡單的測試程序。
使用pthread開多個線程,每個線程分別計算斐波那契數(shù)列第N號元素的值。每個線程計算斐波那契數(shù)列時除線程的元數(shù)據(jù)外只分配兩個unsigned long變量,由此避免過高的內(nèi)存開銷。
workload的詳細代碼和測試腳本在[https://github.com/HongweiQin/smt_test]
毫無疑問,這是一個計算密集型負載,我在自己的筆記本上運行,配置如下(省略了一些不重要的項目):
lscpuArchitecture: x86_64: 12CPU(s) list: 0-11per core: 2per socket: 6: 1NUMA node(s): 1Vendor ID: GenuineIntelModel name: Intel(R) Core(TM) i7-9750H CPU @ 2.60GHzL1d cache: 192 KiBL1i cache: 192 KiBL2 cache: 1.5 MiBL3 cache: 12 MiB
可以看到筆記本有一個Intel i7的處理器,6核12線程。經(jīng)查,CPU0和CPU6共用一個Core,CPU1和CPU7共用一個Core,以此類推。
以下的測試(Test 1-5)中,每個線程分別計算斐波那契數(shù)列第40億號元素的數(shù)值。
Test1:采用默認配置,開12線程進行測試。測試結(jié)果為總耗時45.003s。
qhw@qhw-laptop:~/develop/smt_test$ time ./smt_test -f 4000000000threads_num=12, fibonacci_max=4000000000, should_set_affinity=0, should_inline=1, alloc_granularity=32real0m45.003suser7m12.953ssys0m0.485s
Test2:把smt關掉,同樣的測試方法(12線程)??偤臅r為25.733s。
qhw@qhw-laptop:~/develop/smt_test$ cat turnoff_smt.shecho "turn off smt"sudo sh -c 'echo off > /sys/devices/system/cpu/smt/control'qhw@qhw-laptop:~/develop/smt_test$ ./turnoff_smt.shturn off smtqhw@qhw-laptop:~/develop/smt_test$ time ./smt_test -f 4000000000threads_num=12, fibonacci_max=4000000000, should_set_affinity=0, should_inline=1, alloc_granularity=32real0m25.733suser2m23.525ssys0m0.116s
對,你沒看錯。同樣的workload,如果關掉smt,總耗時還變少了。Intel誠不欺我!
Test3:再次允許smt,但是將程序限制在三個物理Core上運行,則總耗時為34.896s。
qhw@qhw-laptop:~/develop/smt_test$ ./turnon_smt.shturn on smtqhw@qhw-laptop:~/develop/smt_test$ time taskset -c 0-2,6-8 ./smt_test -f 4000000000threads_num=12, fibonacci_max=4000000000, should_set_affinity=0, should_inline=1, alloc_granularity=32real0m34.896suser3m17.033ssys0m0.028s
Test3相比于Test1用了更少的Core,反而更快了。
為什么在Test2和3會出現(xiàn)這樣違反直覺的結(jié)果?
猜想:Cache一致性在作怪!

圖1
測試程序的main函數(shù)會分配一個含有T(T=nr_threads)個元素的`struct thread_info`類型的數(shù)組,并分別將每個元素作為參數(shù)傳遞給每個計算線程使用。`struct thread_info`定義如下:
struct thread_info {pthread_t thread_id;int thread_num;unsigned long res[2];};
結(jié)構(gòu)體中的res數(shù)組用于計算斐波那契數(shù)列,因此會被工作線程頻繁地寫。
注意到,sizeof(struct thread_info)為32,而我的CPU的cacheline大小為64B!這意味著什么?
如果Thread 0在Core 0上運行,則它會頻繁寫tinfo[0],Thread 1在Core 1上運行,則它會頻繁寫tinfo[1]。
這意味著,當Thread 0寫tinfo[0]時,它其實是寫入了Core 0上L1 Cache的Cacheline。同樣的,當Thread 1寫tinfo[1]時,它其實是寫入了Core 1上L1 Cache的Cacheline。此時,由于Core 1上的Cacheline并非最新,因此CPU需要首先將Core 0中的Cacheline寫入多核共享的L3 Cache甚至是內(nèi)存中,然后再將其讀入Core 1的L1 Cache中,最后再將Thread 1的數(shù)據(jù)寫入。此時,由于Cache 0中的數(shù)據(jù)并非最新,Cacheline會被無效化。由此可見,如果程序一直這樣運行下去,這一組數(shù)據(jù)需要在Cache 0和1之間反復跳躍,占用較多時間。
這個猜想同樣可以解釋為什么使用較少的CPU可以加速程序運行。原因是當使用較少的CPU時,多線程不得不分時共用CPU,如果Thread 0和Thread 1分時共用了同一個CPU,則不需要頻繁將Cache無效化,程序運行時間也就縮短了。
驗證猜想:增加內(nèi)存分配粒度!
對程序進行修改后,可以使用`-g alloc_granularity`參數(shù)設定tinfo結(jié)構(gòu)體的分配粒度。使用4KB為粒度進行分配,再次進行測試:
Test4:12線程,開啟SMT,分配粒度為4096??偤臅r為13.193s,性能相比于Test1的45.003s有了質(zhì)的提升!
qhw@qhw-laptop:~/develop/smt_test$ time ./smt_test -f 4000000000 -g 4096threads_num=12, fibonacci_max=4000000000, should_set_affinity=0, should_inline=1, alloc_granularity=4096real0m13.193suser2m31.091ssys0m0.217s
Test5:在Test4的基礎上限制只能使用3個物理Core。總耗時為24.841s,基本上是Test4的兩倍。這說明在這個測試下,多核性能還是線性可擴展的。
qhw@qhw-laptop:~/develop/smt_test$ time taskset -c 0-2,6-8 ./smt_test -f 4000000000 -g 4096threads_num=12, fibonacci_max=4000000000, should_set_affinity=0, should_inline=1, alloc_granularity=4096real0m24.841suser2m26.253ssys0m0.032s
超線程SMT究竟可以快多少?
表格和結(jié)論:
| 測試名 | 硬件配置 | 運行時間(s) |
| Test6 | “真”6核 | 38.562 |
| Test7 | “假”6核 | 58.843 |
| Test8 | “真”3核 | 73.175 |
測試使用的是6個工作線程。為了減少誤差,增加一點運行時間,每個線程計算斐波那契數(shù)列第200億項的值。
對比Test6和7,可以看到SMT的提升大概在52.6%左右。
測試記錄:
Test6:別名“真”6核,使用6個關閉了SMT的物理核進行計算??偤臅r為38.562s。
Test7:別名“假”6核,使用3個開啟了SMT的物理核進行計算??偤臅r為58.843s。
Test8:別名“真”3核,使用3個關閉了SMT的物理核進行計算??偤臅r為1m13.175s。
qhw@qhw-laptop:~/develop/smt_test$ cat test.shfibonacci=20000000000sudo printf ""./turnoff_smt.shtime ./smt_test -f $fibonacci -g 4096 -t 6./turnon_smt.shtime taskset -c 0-2,6-8 ./smt_test -f $fibonacci -g 4096 -t 6./turnoff_smt.shtime taskset -c 0-2,6-8 ./smt_test -f $fibonacci -g 4096 -t 6./turnon_smt.shqhw@qhw-laptop:~/develop/smt_test$ ./test.shturn off smtthreads_num=6, fibonacci_max=20000000000, should_set_affinity=0, should_inline=1, alloc_granularity=4096real0m38.562suser3m50.786ssys0m0.000sturn on smtthreads_num=6, fibonacci_max=20000000000, should_set_affinity=0, should_inline=1, alloc_granularity=4096real0m58.843suser5m53.018ssys0m0.005sturn off smtthreads_num=6, fibonacci_max=20000000000, should_set_affinity=0, should_inline=1, alloc_granularity=4096real1m13.175suser3m39.486ssys0m0.008sturn on smt
責任編輯:haq
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
smt
+關注
關注
45文章
3218瀏覽量
77160 -
多線程
+關注
關注
0文章
279瀏覽量
21133
原文標題:超線程SMT究竟可以快多少?(斐波那契版)
文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關推薦
熱點推薦
固態(tài)變壓器(SST)在AIDC動態(tài)負載下的電壓穩(wěn)定性與諧波注入抑制
)的底層電力需求正經(jīng)歷從傳統(tǒng)的千瓦級機架向百千瓦乃至兆瓦級機架的劇烈擴張。在這一技術演進過程中,高性能圖形處理器(GPU)集群在執(zhí)行大規(guī)模同步訓練任務時,呈現(xiàn)出區(qū)別于傳統(tǒng)云計算負載的極端動態(tài)特性。這種由于計算密集型階段與通信
客戶案例 | 國創(chuàng)靈梭 IntarkDB 助力創(chuàng)維裝備從“經(jīng)驗驅(qū)動”向“數(shù)據(jù)驅(qū)動”躍遷
在制造業(yè)向數(shù)字化深度轉(zhuǎn)型的今天,“數(shù)據(jù)驅(qū)動”已成為企業(yè)降本、增效、提質(zhì)的核心密鑰,更是破解傳統(tǒng)制造痛點、激活產(chǎn)業(yè)新動能的關鍵抓手。注塑行業(yè)作為制造業(yè)的重要組成部分,兼具勞動密集型、技術密集型和資金
SQPI PSRAM為單片機提供RAM擴展方案
在嵌入式開發(fā)中,很多MCU由于引腳數(shù)量有限,無法直接支持并行SRAM或SDRAM的擴展接口,這在處理語音、圖像等數(shù)據(jù)密集型或算法密集型任務時,常常面臨內(nèi)存不足的瓶頸。
成功案例:象帝先計算技術與Imagination合作——面向現(xiàn)代圖形與計算工作負載的專業(yè)GPU
為專業(yè)計算設計桌面GPU桌面GPU不僅用于游戲,還能加速從專業(yè)可視化、高級模擬到數(shù)據(jù)密集型計算在內(nèi)的多種現(xiàn)代工作負載。專業(yè)用戶需要能在多種應用場景中穩(wěn)定運行的高性能、多功能平臺。構(gòu)建桌面級圖形
意法半導體與亞馬遜云計算服務深化戰(zhàn)略合作
的先進半導體技術與產(chǎn)品戰(zhàn)略供應商,助力AWS為客戶提供新一代高性能計算實例、降低運營成本,并更高效地擴展計算密集型工作負載。
物聯(lián)網(wǎng)和邊緣計算助力實現(xiàn)智慧農(nóng)業(yè)可持續(xù)發(fā)展
傳統(tǒng)農(nóng)業(yè)依賴代代相傳的經(jīng)驗,而現(xiàn)代農(nóng)業(yè)正在經(jīng)歷一場深刻的變革——“靠數(shù)據(jù)種地”,將農(nóng)業(yè)從“勞動密集型”升級為“智能決策型”。通過實時感知土壤水分、作物營養(yǎng)狀況和病蟲害跡象,在最恰當?shù)臅r機進行精準干預,不僅關乎產(chǎn)量提升,更可實現(xiàn)可持續(xù)發(fā)展——用最少的水、肥、農(nóng)藥,獲得最優(yōu)質(zhì)
Altera全新推出MAX 10 FPGA封裝新選擇
Altera 全新推出 MAX 10 FPGA 封裝新選擇,采用可變間距球柵陣列 (VPBGA) 技術并已開始批量出貨,可為空間受限及 I/O 密集型應用的設計人員帶來關鍵技術優(yōu)勢。
英飛凌推出專為高功率與計算密集型應用而設計的400V和440V MOSFET
。新的CoolSiC? MOSFET具有更優(yōu)的熱性能、系統(tǒng)效率和功率密度。其專為滿足高功率與計算密集型應用需求而設計,涵蓋了AI服務器電源、光伏逆變器、不
【產(chǎn)品介紹】Altair HPCWorks高性能計算管理平臺(HPC平臺)
AltairHPCWorksAltair高性能計算平臺最大限度地利用復雜的計算資源,并簡化計算密集型任務的工作流程管理,包括人工智能、建模和仿真,以及可視化應用。強大的
I/O密集型任務開發(fā)指導
使用異步并發(fā)可以解決單次I/O任務阻塞的問題,但是如果遇到I/O密集型任務,同樣會阻塞線程中其它任務的執(zhí)行,這時需要使用多線程并發(fā)能力來進行解決。
I/O密集型任務的性能重點通常不在于CPU的處理
發(fā)表于 06-19 07:19
CPU密集型任務開發(fā)指導
CPU密集型任務是指需要占用系統(tǒng)資源處理大量計算能力的任務,需要長時間運行,這段時間會阻塞線程其它事件的處理,不適宜放在主線程進行。例如圖像處理、視頻編碼、數(shù)據(jù)分析等。
基于多線程并發(fā)機制處理CPU
發(fā)表于 06-19 06:05
半導體芯片制造Fab工廠布局和結(jié)構(gòu)簡介-江蘇泊蘇系統(tǒng)集成有限公司
在半導體產(chǎn)業(yè)的核心地帶,芯片制造工廠以其高度自動化、超凈環(huán)境和復雜的工藝流程聞名。這些工廠不僅是技術密集型的象征,更是精密工程與空間設計的典范。
上海貝嶺推出全新DDR5 SPD芯片BL5118
隨著計算密集型任務的日益增長,DDR4內(nèi)存的性能瓶頸已逐步顯現(xiàn)。DDR5的出現(xiàn)雖解燃眉之急,但真正推動內(nèi)存發(fā)揮極致性能的背后“功臣”——正是 DDR5 SPD(Serial Presence Detect)芯片。
借助NVIDIA技術實現(xiàn)機器人裝配和接觸密集型操作
本期 NVIDIA 機器人研究與開發(fā)摘要 (R2D2) 將探討 NVIDIA 研究中心針對機器人裝配任務的多種接觸密集型操作工作流,以及它們?nèi)绾谓鉀Q傳統(tǒng)固定自動化在魯棒性、適應性和可擴展性等方面的關鍵挑戰(zhàn)。
探究SMT對計算密集型workload的效果
評論