日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

讓Attention提速9倍!FlashAttention燃爆顯存,Transformer上下文長度史詩級提升

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:未知 ? 2023-07-24 16:55 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

FlashAttention新升級!斯坦福博士一人重寫算法,第二代實現(xiàn)了最高9倍速提升。

繼超快且省內(nèi)存的注意力算法FlashAttention爆火后,升級版的2代來了。FlashAttention-2是一種從頭編寫的算法,可以加快注意力并減少其內(nèi)存占用,且沒有任何近似值。比起第一代,F(xiàn)lashAttention-2速度提升了2倍。

甚至,相較于PyTorch的標(biāo)準(zhǔn)注意力,其運行速度最高可達(dá)9倍。

一年前,StanfordAILab博士Tri Dao發(fā)布了FlashAttention,讓注意力快了2到4倍,如今,F(xiàn)lashAttention已經(jīng)被許多企業(yè)和研究室采用,廣泛應(yīng)用于大多數(shù)LLM庫。如今,隨著長文檔查詢、編寫故事等新用例的需要,大語言模型的上下文以前比過去變長了許多——GPT-4的上下文長度是32k,MosaicML的MPT上下文長度是65k,Anthropic的Claude上下文長度是100k。但是,擴大Transformer的上下文長度是一項極大的挑戰(zhàn),因為作為其核心的注意力層的運行時間和內(nèi)存要求,是輸入序列長度的二次方。Tri Dao一直在研究FlashAttention-2,它比v1快2倍,比標(biāo)準(zhǔn)的注意力快5到9倍,在A100上已經(jīng)達(dá)到了225 TFLOP/s的訓(xùn)練速度!

35a61e38-29ff-11ee-a368-dac502259ad0.png

論文鏈接:https://tridao.me/publications/flash2/flash2.pdf

項目鏈接:

https://github.com/Dao-AILab/flash-attention

35c3cc6c-29ff-11ee-a368-dac502259ad0.png ?

FlashAttention-2:更好的算法、并行性和工作分區(qū)

端到端訓(xùn)練GPT模型,速度高達(dá)225 TFLOP/s

雖說FlashAttention在發(fā)布時就已經(jīng)比優(yōu)化的基線快了2-4倍,但還是有相當(dāng)大的進步空間。比方說,F(xiàn)lashAttention仍然不如優(yōu)化矩陣乘法(GEMM)運算快,僅能達(dá)到理論最大FLOPs/s的25-40%(例如,在A100 GPU上的速度可達(dá)124 TFLOPs/s)。

35de6e1e-29ff-11ee-a368-dac502259ad0.png

▲ GEMM如何用于卷積在過去的幾個月里,研究人員一直在開發(fā)FlashAttention-2,它的性能指標(biāo)比第一代更強。研究人員表示,2代相當(dāng)于完全從頭重寫,使用英偉達(dá)的CUTLASS 3.x及其核心庫CuTe。從速度上看,F(xiàn)lashAttention-2比之前的版本快了2倍,在A100 GPU上的速度可達(dá)230 TFLOPs/s。當(dāng)使用端到端來訓(xùn)練GPT之類的語言模型時,研究人員的訓(xùn)練速度高達(dá)225 TFLOPs/s(模型的FLOP利用率為72%)。

對注意力計算重新排序

我們知道,F(xiàn)lashAttention是一種對注意力計算進行重新排序的算法,利用平鋪、重新計算來顯著加快計算速度,并將序列長度的內(nèi)存使用量從二次減少到線性。

3657c5d4-29ff-11ee-a368-dac502259ad0.png

研究人員將輸入塊從HBM(GPU內(nèi)存)加載到SRAM(快速緩存),并對該模塊執(zhí)行注意,更新HBM中的輸出。由于沒有將大型中間注意力矩陣寫入HBM,內(nèi)存的讀/寫量也跟著減少,進而帶來了2-4倍的執(zhí)行時間加速。下圖是FlashAttention的前向傳遞圖:通過平鋪和softmax重新縮放,研究人員人員按模塊進行操作,避免從HBM讀取或是寫入,同時獲得正確輸出,無需近似。369d1f26-29ff-11ee-a368-dac502259ad0.png

然而,F(xiàn)lashAttention仍然存在一些低效率的問題,這是由于不同線程塊之間的工作劃分并不理想,以及GPU上的warp——導(dǎo)致低占用率或不必要的共享內(nèi)存讀寫。

更少的non-matmulFLOP(非矩陣乘法浮點計算數(shù))

研究人員通過調(diào)整FlashAttention的算法來減少non-matmul FLOP的次數(shù)。這非常重要,因為現(xiàn)代GPU有專門的計算單元(比如英偉達(dá)GPU上的張量核心),這就使得matmul的速度更快。例如,A100 GPU FP16/BF16 matmul的最大理論吞吐量為312 TFLOPs/s,但non-matmul FP32的理論吞吐量僅為 19.5 TFLOPs/s。另外,每個非matmul FLOP比matmul FLOP要貴16倍。所以為了保持高吞吐量,研究人員希望在matmul FLOP上花盡可能多的時間。研究人員還重新編寫了FlashAttention中使用的在線softmax技巧,以減少重新縮放操作的數(shù)量,以及邊界檢查和因果掩碼操作,而無需更改輸出。

更好的并行性

FlashAttention v1在批大小和部數(shù)量上進行并行化處理。研究人員使用1個線程塊來處理一個注意力頭,共有 (batch_size * head number) 個線程塊。

36cb68b8-29ff-11ee-a368-dac502259ad0.png

▲在前向處理(左圖)中,研究者將Worker(線程塊)并行化,每個Worker負(fù)責(zé)處理注意力矩陣的一個行塊。在后向處理過程中(右圖),每個Worker處理注意力矩陣的一個列塊

每個線程塊都在流式多處理器 (SM)運行,例如,A100 GPU上有108個這樣的處理器。當(dāng)這個數(shù)字很大(比如 ≥80)時,這種調(diào)度是有效的,因為在這種情況下,可以有效地使用GPU上幾乎所有的計算資源。在長序列的情況下(通常意味著更小批或更少的頭),為了更好地利用GPU上的多處理器,研究人員在序列長度的維度上另外進行了并行化,使得該機制獲得了顯著加速。

更好的工作分區(qū)

即使在每個線程塊內(nèi),研究人員也必須決定如何在不同的warp(線程束)之間劃分工作(一組32個線程一起工作)。研究人員通常在每個線程塊使用4或8個warp,分區(qū)方案如下圖所示。研究人員在FlashAttention-2中改進了這種分區(qū),減少了不同warp之間的同步和通信量,從而減少共享內(nèi)存讀/寫。36fb00e6-29ff-11ee-a368-dac502259ad0.png對于每個塊,F(xiàn)lashAttention將K和V分割到4個warp上,同時保持Q可被所有warp訪問。這稱為「sliced-K」方案。然而,這樣做的效率并不高,因為所有warp都需要將其中間結(jié)果寫入共享內(nèi)存,進行同步,然后再將中間結(jié)果相加。而這些共享內(nèi)存讀/寫會減慢FlashAttention中的前向傳播速度。在FlashAttention-2中,研究人員將Q拆分為4個warp,同時保持所有warp都可以訪問K和V。在每個warp執(zhí)行矩陣乘法得到Q K^T的一個切片后,它們只需與共享的V切片相乘,即可得到相應(yīng)的輸出切片。這樣一來,warp之間就不再需要通信。共享內(nèi)存讀寫的減少就可以提高速度。 3739797a-29ff-11ee-a368-dac502259ad0.png ?新功能:頭的維度高達(dá)256,多查詢注意力

FlashAttention僅支持最大128的頭的維度,雖說適用于大多數(shù)模型,但還是有一些模型被排除在外。FlashAttention-2現(xiàn)在支持256的頭的維度,這意味著GPT-J、CodeGen、CodeGen2以及Stable Diffusion 1.x等模型都可以使用FlashAttention-2來獲得加速和節(jié)省內(nèi)存。v2還支持多查詢注意力(MQA)以及分組查詢注意力(GQA)。

377ca1d2-29ff-11ee-a368-dac502259ad0.png

GQA為每組查詢頭共享單個key和value的頭,在多頭和多查詢注意之間進行插值

這些都是注意力的變體,其中多個查詢頭會指向key和value的同一個頭,以減少推理過程中KV緩存的大小,并可以顯著提高推理的吞吐量。 379d9464-29ff-11ee-a368-dac502259ad0.png ?

注意力基準(zhǔn)

研究人員人員在A100 80GB SXM4 GPU 上測量不同設(shè)置(有無因果掩碼、頭的維度是64或128)下不同注意力方法的運行時間。37c79eee-29ff-11ee-a368-dac502259ad0.png研究人員發(fā)現(xiàn)FlashAttention-2比第一代快大約2倍(包括在xformers庫和Triton中的其他實現(xiàn))。與PyTorch中的標(biāo)準(zhǔn)注意力實現(xiàn)相比,F(xiàn)lashAttention-2的速度最高可達(dá)其9倍。

37e91a92-29ff-11ee-a368-dac502259ad0.png

▲A100 GPU上的前向+后向速度

只需在H100 GPU上運行相同的實現(xiàn)(不需要使用特殊指令來利用TMA和第四代Tensor Core等新硬件功能),研究人員就可以獲得高達(dá)335 TFLOPs/s的速度。

3843bcb8-29ff-11ee-a368-dac502259ad0.png

▲H100 GPU上的前向+后向速度

當(dāng)用于端到端訓(xùn)練GPT類模型時,F(xiàn)lashAttention-2能在A100 GPU上實現(xiàn)高達(dá)225TFLOPs/s的速度(模型FLOPs利用率為72%)。與已經(jīng)非常優(yōu)化的FlashAttention模型相比,端到端的加速進一步提高了1.3倍。3884eab2-29ff-11ee-a368-dac502259ad0.png ?38a7e814-29ff-11ee-a368-dac502259ad0.png ?

未來的工作

速度上快2倍,意味著研究人員可以用與之前訓(xùn)練8k上下文模型相同的成本,來訓(xùn)練16k上下文長度的模型。這些模型可以理解長篇書籍和報告、高分辨率圖像、音頻和視頻。同時,F(xiàn)lashAttention-2還將加速現(xiàn)有模型的訓(xùn)練、微調(diào)和推理。在不久的將來,研究人員還計劃擴大合作,使FlashAttention廣泛適用于不同類型的設(shè)備(例如H100 GPU、AMD GPU)以及新的數(shù)據(jù)類型(例如fp8)。下一步,研究人員計劃針對H100 GPU進一步優(yōu)化FlashAttention-2,以使用新的硬件功能(TMA、第四代Tensor Core、fp8等等)。將FlashAttention-2中的低級優(yōu)化與高級算法更改(例如局部、擴張、塊稀疏注意力)相結(jié)合,可以讓研究人員用更長的上下文來訓(xùn)練AI模型。研究人員也很高興與編譯器研究人員合作,使這些優(yōu)化技術(shù)更好地應(yīng)用于編程。 38c13b84-29ff-11ee-a368-dac502259ad0.png ?作者介紹

Tri Dao曾在斯坦福大學(xué)獲得了計算機博士學(xué)位,導(dǎo)師是Christopher Ré和Stefano Ermon。根據(jù)主頁介紹,他將從2024年9月開始,任職普林斯頓大學(xué)計算機科學(xué)助理教授。

Tri Dao的研究興趣在于機器學(xué)習(xí)和系統(tǒng),重點關(guān)注高效訓(xùn)練和長期環(huán)境:- 高效Transformer訓(xùn)練和推理 - 遠(yuǎn)程記憶的序列模型 - 緊湊型深度學(xué)習(xí)模型的結(jié)構(gòu)化稀疏性。

值得一提的是,Tri Dao今天正式成為生成式AI初創(chuàng)公司Together AI的首席科學(xué)家。

3920ef98-29ff-11ee-a368-dac502259ad0.png

參考資料:https://princeton-nlp.github.io/flash-atttention-2/


原文標(biāo)題:讓Attention提速9倍!FlashAttention燃爆顯存,Transformer上下文長度史詩級提升

文章出處:【微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:讓Attention提速9倍!FlashAttention燃爆顯存,Transformer上下文長度史詩級提升

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    華為昇騰超節(jié)點系列產(chǎn)品全面支持DeepSeek V4模型

    2026年4月24日,DeepSeek V4-Pro和DeepSeek V4-Flash正式發(fā)布并開源,模型上下文處理長度由原有的128K顯著擴展至1M,實現(xiàn)近10的容量提升,首次增
    的頭像 發(fā)表于 04-28 17:00 ?472次閱讀

    安信可AI語音模組支持MCP模型上下文協(xié)議

    安信可 PalChat 系列(V1/V2)支持 MCP(模型上下文協(xié)議),工程師只需寫幾十行 C 代碼,就能讓 AI 模型直接控制硬件設(shè)備。V1 基于 Ai-WB2-12F,適合快速驗證;V2
    的頭像 發(fā)表于 04-15 09:54 ?518次閱讀

    儲能BMS遭遇“史詩”加強

    該產(chǎn)品在儲能中只是一個純成本投入,但隨著新政策到來,BMS有望從成本變?yōu)椤袄麧欀行摹保@對BMS而言,將是“史詩”的加強。 ? 行政分時電價的漸退 與 BMS的崛起 ? 2026年開年,全國統(tǒng)一電力市場繼續(xù)深化,而電力現(xiàn)貨市場進一步普及,電
    的頭像 發(fā)表于 03-16 13:55 ?5080次閱讀

    Ultrahuman使用Android Studio中的Gemini解決技術(shù)障礙并提升性能

    Android Studio 中 Gemini 的上下文感知工具,Ultrahuman 團隊得以簡化和加速其開發(fā)流程。
    的頭像 發(fā)表于 03-12 09:31 ?338次閱讀

    大模型服務(wù)為什么總是爆顯存

    、上下文長度、框架預(yù)留與碎片。只盯參數(shù)量,很多故障會越修越貴:明明是請求畫像變了,卻被誤判成卡不夠;明明是參數(shù)貼邊,卻被誤判成框架不穩(wěn)。
    的頭像 發(fā)表于 03-11 09:54 ?556次閱讀

    NVIDIA BlueField-4為推理上下文記憶存儲平臺提供強大支持

    隨著代理式 AI 工作流將上下文窗口擴展到數(shù)百萬個 token,并將模型規(guī)模擴展到數(shù)百萬億個參數(shù),AI 原生企業(yè)正面臨著越來越多的擴展挑戰(zhàn)。這些系統(tǒng)目前依賴于智能體長期記憶來存儲跨多輪、工具和會話持續(xù)保存的上下文,以便智能體能夠基于先前的推理進行構(gòu)建,而不是每次請求都從頭
    的頭像 發(fā)表于 02-02 10:29 ?1332次閱讀
    NVIDIA BlueField-4為推理<b class='flag-5'>上下文</b>記憶存儲平臺提供強大支持

    深入解析NVIDIA Nemotron 3系列開放模型

    這一全新開放模型系列引入了開放的混合 Mamba-Transformer MoE 架構(gòu),使多智能體系統(tǒng)能夠進行快速長上下文推理。
    的頭像 發(fā)表于 12-24 10:34 ?4373次閱讀
    深入解析NVIDIA Nemotron 3系列開放模型

    大語言模型如何處理上下文窗口中的輸入

    本博客介紹了五個基本概念,闡述了大語言模型如何處理上下文窗口中的輸入。通過明確的例子和實踐中獲得的見解,本文介紹了多個與上下文窗口有關(guān)的基本概念,如詞元化、序列長度和注意力等。
    的頭像 發(fā)表于 12-03 13:48 ?793次閱讀
    大語言模型如何處理<b class='flag-5'>上下文</b>窗口中的輸入

    執(zhí)行脫離上下文的威脅分析與風(fēng)險評估

    作為WITTENSTEIN high integrity system(WHIS)公司的核心產(chǎn)品,SAFERTOS專為安全關(guān)鍵型嵌入式系統(tǒng)設(shè)計,使其成為確保聯(lián)網(wǎng)車輛環(huán)境可靠防護的理想選擇。在本文中,我們將討論如何開展SAFERTOS安全分析,結(jié)合威脅評估與風(fēng)險評估(TARA)結(jié)果,以及這些實踐方法的具體實施,最終推動SAFERTOS增強型安全模塊的開發(fā)。遵循行業(yè)標(biāo)準(zhǔn),該方法為管理風(fēng)險并保護互聯(lián)車輛組件免受不斷演變的威脅提供了一個結(jié)構(gòu)化的框架。
    的頭像 發(fā)表于 11-28 09:11 ?664次閱讀
    執(zhí)行脫離<b class='flag-5'>上下文</b>的威脅分析與風(fēng)險評估

    請問riscv中斷還需要軟件保存上下文和恢復(fù)嗎?

    以下是我拷貝的文檔里的說明,這個中斷處理還需要軟件來寫上下文保存和恢復(fù),在使用ARM核的單片機都不需要考慮這些的,使用過的小伙伴能解答嗎? 3.8. 進出中斷的上下文保存和恢復(fù) RISC-V架構(gòu)
    發(fā)表于 10-20 09:56

    米爾RK3576部署端側(cè)多模態(tài)多輪對話,6TOPS算力驅(qū)動30億參數(shù)LLM

    當(dāng) GPT-4o 用毫秒響應(yīng)處理圖文混合指令、Gemini-1.5-Pro 以百萬 token 上下文 “消化” 長文檔時,行業(yè)的目光正從云端算力競賽轉(zhuǎn)向一個更實際的命題:如何智能 “落地
    發(fā)表于 09-05 17:25

    HarmonyOSAI編程智能問答

    多線程? 指定上下文問答 在對話框中輸入@符號,或點擊上方@Add Context按鈕,可指定對單個或多個代碼文件進行分析。點擊圖標(biāo)開啟光標(biāo)上下文功能,該功能可識別光標(biāo)位置和選中的代碼片段,CodeGenie分析指定文件和選
    發(fā)表于 09-03 16:17

    【「DeepSeek 核心技術(shù)揭秘」閱讀體驗】+看視頻+看書籍+國產(chǎn)開源大模型DeepSeekV3技術(shù)詳解--1

    大小的潛在向量 (Latent Vector) c_t 中。同時,為了保證對近期上下文的精確感知,它依然會實時計算當(dāng)前 token 的 K 和 V。 最終,注意力機制的計算將同時作用于“壓縮的歷史
    發(fā)表于 08-23 15:20

    鴻蒙NEXT-API19獲取上下文,在class中和ability中獲取上下文,API遷移示例-解決無法在EntryAbility中無法使用最新版

    摘要:隨著鴻蒙系統(tǒng)API升級至16版本(modelVersion5.1.1),多項API已廢棄。獲取上下文需使用UIContext,具體方法包括:在組件中使用getUIContext(),在類中使
    的頭像 發(fā)表于 07-01 10:57 ?920次閱讀
    鴻蒙NEXT-API19獲取<b class='flag-5'>上下文</b>,在class中和ability中獲取<b class='flag-5'>上下文</b>,API遷移示例-解決無法在EntryAbility中無法使用最新版

    Transformer架構(gòu)中編碼器的工作流程

    編碼器是Transformer體系結(jié)構(gòu)的基本組件。編碼器的主要功能是將輸入標(biāo)記轉(zhuǎn)換為上下文表示。與早期獨立處理token的模型不同,Transformer編碼器根據(jù)整個序列捕獲每個token的
    的頭像 發(fā)表于 06-10 14:27 ?1234次閱讀
    <b class='flag-5'>Transformer</b>架構(gòu)中編碼器的工作流程
    汶上县| 信丰县| 深泽县| 桦南县| 吐鲁番市| 大足县| 安乡县| 西安市| 白朗县| 建始县| 庆阳市| 蚌埠市| 盐池县| 大姚县| 钦州市| 赤水市| 齐齐哈尔市| 惠来县| 锦州市| 观塘区| 尚义县| 晴隆县| 和政县| 航空| 浦东新区| 梨树县| 塔河县| 海门市| 贵港市| 奉化市| 广饶县| 五华县| 滨海县| 锡林郭勒盟| 梁平县| 阿巴嘎旗| 枣强县| 和静县| 大同市| 无极县| 石柱|