日B视频 亚洲,啪啪啪网站一区二区,91色情精品久久,日日噜狠狠色综合久,超碰人妻少妇97在线,999青青视频,亚洲一区二卡,让本一区二区视频,日韩网站推荐

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

英特爾通過軟硬件為LIama 2大模型提供加速,持續(xù)發(fā)力推動AI發(fā)展

英特爾中國 ? 來源:未知 ? 2023-07-21 18:15 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

英特爾廣泛的AI硬件組合及開放的軟件環(huán)境,為Meta發(fā)布的Llama 2模型提供了極具競爭力的選擇,進一步助力大語言模型的普及,推動AI發(fā)展惠及各行各業(yè)。

大語言模型(LLM)在生成文本、總結(jié)和翻譯內(nèi)容、回答問題、參與對話以及執(zhí)行復(fù)雜任務(wù)(如解決數(shù)學(xué)問題或推理)方面表現(xiàn)出的卓越能力,使其成為最有希望規(guī)?;旄I鐣?a href="http://m.sdkjxy.cn/soft/data/42-102/" target="_blank">AI技術(shù)之一。大語言模型有望解鎖更豐富的創(chuàng)意和洞察,并激發(fā)AI社區(qū)推進技術(shù)發(fā)展的熱情。

Llama 2旨在幫助開發(fā)者、研究人員和組織構(gòu)建基于生成式AI的工具和體驗。Meta發(fā)布了多個Llama 2的預(yù)訓(xùn)練和微調(diào)版本,擁有70億、130億和700億三種參數(shù)。通過Llama 2,Meta在公司的各個微調(diào)模型中采用了三項以安全為導(dǎo)向的核心技術(shù):安全的有監(jiān)督微調(diào)、安全的目標(biāo)文本提取以及安全的人類反饋強化學(xué)習(xí)(RLHF)。這些技術(shù)相結(jié)合,使Meta得以提高安全性能。隨著越來越廣泛的使用,人們將能夠以透明、公開的方式不斷識別并降低生成有害內(nèi)容的風(fēng)險。

英特爾致力于通過提供廣泛的硬件選擇和開放的軟件環(huán)境,推動AI的發(fā)展與普及。英特爾提供了一系列AI解決方案,為AI社區(qū)開發(fā)和運行Llama 2等模型提供了極具競爭力和極具吸引力的選擇。英特爾豐富的AI硬件產(chǎn)品組合與優(yōu)化開放的軟件相結(jié)合,為應(yīng)對算力挑戰(zhàn)提供了可行的方案。

英特爾提供了滿足模型的開發(fā)和部署的AI優(yōu)化軟件。開放生態(tài)系統(tǒng)是英特爾得天獨厚的戰(zhàn)略優(yōu)勢,在AI領(lǐng)域亦是如此。我們致力于培育一個充滿活力的開放生態(tài)系統(tǒng)來推動AI創(chuàng)新,其安全、可追溯、負(fù)責(zé)任以及遵循道德,這對整個行業(yè)至關(guān)重要。此次發(fā)布的大模型進一步彰顯了我們的核心價值觀——開放,為開發(fā)人員提供了一個值得信賴的選擇。Llama 2模型的發(fā)布是我們行業(yè)向開放式AI發(fā)展轉(zhuǎn)型邁出的重要一步,即以公開透明的方式推動創(chuàng)新并助力其蓬勃發(fā)展。

--李煒

英特爾軟件與先進技術(shù)副總裁

人工智能和分析部門總經(jīng)理

-- Melissa Evers

英特爾軟件與先進技術(shù)副總裁

兼執(zhí)行戰(zhàn)略部總經(jīng)理

在Llama 2發(fā)布之際,我們很高興地分享70億和130億參數(shù)模型的初始推理性能測試結(jié)果。這些模型在英特爾AI產(chǎn)品組合上運行,包括HabanaGaudi2 深度學(xué)習(xí)加速器、第四代英特爾至強可擴展處理器、英特爾至強CPU Max系列和英特爾數(shù)據(jù)中心GPU Max系列。我們在本文中分享的性能指標(biāo)是我們當(dāng)前軟件提供的“開箱即用”的性能,并有望在未來的軟件中進一步提升。我們還支持700億參數(shù)模型,并將很快分享最新相關(guān)信息。

HabanaGaudi2 深度學(xué)習(xí)加速器

Habana Gaudi2旨在為用戶提供高性能、高能效的訓(xùn)練與推理,尤其適用于諸如Llama和Llama 2的大語言模型。Gaudi2加速器具備96GB HBM2E的內(nèi)存容量,可滿足大語言模型的內(nèi)存需求并提高推理性能。Gaudi2配備HabanaSynapseAI軟件套件,該套件集成了對PyTorch和DeepSpeed的支持,以用于大語言模型的訓(xùn)練和推理。此外,SynapseAI近期開始支持HPU Graphs和DeepSpeed推理,專門針對時延敏感度高的推理應(yīng)用。Gaudi2還將進行進一步的軟件優(yōu)化,包括計劃在2023年第三季度支持FP8數(shù)據(jù)類型。此優(yōu)化預(yù)計將在執(zhí)行大語言模型時大幅提高性能、吞吐量,并有效降低延遲。

大語言模型的性能需要靈活敏捷的可擴展性,來突破服務(wù)器內(nèi)以及跨節(jié)點間的網(wǎng)絡(luò)瓶頸。每張Gaudi2芯片集成了21個100Gbps以太網(wǎng)接口,21個接口專用于連接服務(wù)器內(nèi)的8顆Gaudi2,該網(wǎng)絡(luò)配置有助于提升服務(wù)器內(nèi)外的擴展性能。

在近期發(fā)布的MLPerf基準(zhǔn)測試中,Gaudi2在大語言模型上展現(xiàn)了出色的訓(xùn)練性能,包括在384個Gaudi2加速器上訓(xùn)練1750億參數(shù)的GPT-3模型所展現(xiàn)的結(jié)果。Gaudi2經(jīng)過驗證的高性能使其成為Llama和Llama 2模型訓(xùn)練和推理的高能效解決方案。

圖1顯示了70億參數(shù)和130億參數(shù)Llama 2模型的推理性能。模型分別在一臺Habana Gaudi2設(shè)備上運行,batch size=1,輸出token長度256,輸入token長度不定,使用BF16精度。報告的性能指標(biāo)為每個token的延遲(不含第一個)。該測試使用optimum-habana文本生成腳本在Llama模型上運行推理。optimum-habana庫能夠幫助簡化在Gaudi加速器上部署此類模型的流程,僅需極少的代碼更改即可實現(xiàn)。如圖1所示,對于128至2000輸入token,在70億參數(shù)模型上Gaudi2的推理延遲范圍為每token 9.0-12.2毫秒,而對于130億參數(shù)模型,范圍為每token 15.5-20.4毫秒1。

wKgZomToEiGAUXfFAAGHaOrFSeA660.png

圖1基于Habana Gaudi2,70億和130億參數(shù)Llama 2模型的推理性能

若想訪問Gaudi2,可按照此處(https://developer.habana.ai/intel-developer-cloud/)在英特爾開發(fā)者云平臺上注冊一個實例,或聯(lián)系超微(Supermicro)了解Gaudi2服務(wù)器基礎(chǔ)設(shè)施。

英特爾至強可擴展處理器

第四代英特爾至強可擴展處理器是一款通用計算處理器,具有英特爾高級矩陣擴展(英特爾AMX)的AI加速功能。具體而言,該處理器的每個核心內(nèi)置了BF16和INT8通用矩陣乘(GEMM)加速器,以加速深度學(xué)習(xí)訓(xùn)練和推理工作負(fù)載。此外,英特爾至強CPU Max系列,每顆CPU提供64GB的高帶寬內(nèi)存(HBM2E),兩顆共128GB,由于大語言模型的工作負(fù)載通常受到內(nèi)存帶寬的限制,因此,該性能對于大模型來說極為重要。

目前,針對英特爾至強處理器的軟件優(yōu)化已升級到深度學(xué)習(xí)框架中,并可用于PyTorch*、TensorFlow*、DeepSpeed*和其它AI庫的默認(rèn)發(fā)行版。英特爾主導(dǎo)了torch.compile CPU后端的開發(fā)和優(yōu)化,這是PyTorch 2.0的旗艦功能。與此同時,英特爾還提供英特爾PyTorch擴展包*(IntelExtension for PyTorch*),旨在PyTorch官方發(fā)行版之前,盡早、及時地為客戶提供英特爾CPU的優(yōu)化。

第四代英特爾至強可擴展處理器擁有更高的內(nèi)存容量,支持在單個插槽內(nèi)實現(xiàn)適用于對話式AI和文本摘要應(yīng)用的、低延遲的大語言模型執(zhí)行。對于BF16和INT8,該結(jié)果展示了單個插槽內(nèi)執(zhí)行1個模型時的延遲。英特爾PyTorch擴展包*支持SmoothQuant,以確保INT8精度模型具有良好的準(zhǔn)確度。

考慮到大語言模型應(yīng)用需要以足夠快的速度生成token,以滿足讀者較快的閱讀速度,我們選擇token延遲,即生成每個token所需的時間作為主要的性能指標(biāo),并以快速人類讀者的閱讀速度(約為每個token 100毫秒)作為參考。如圖2、3所示,對于70億參數(shù)的Llama2 BF16模型和130億參數(shù)的Llama 2 INT8模型,第四代英特爾至強單插槽的延遲均低于100毫秒2

得益于更高的HBM2E帶寬,英特爾至強CPU Max系列為以上兩個模型提供了更低的延遲。而憑借英特爾AMX加速器,用戶可以通過更高的批量尺寸(batch size)來提高吞吐量。

wKgZomToEiKACI8YAAH9J10fRew832.png

圖2 基于英特爾至強可擴展處理器,70億參數(shù)和130億參數(shù)Llama 2模型(BFloat16)的推理性能

wKgZomToEiKAW4KxAAH4BE-DLCg438.png

圖3 基于英特爾至強可擴展處理器,70億參數(shù)和130億參數(shù)Llama 2模型(INT8)的推理性能

對于70億和130億參數(shù)的模型,每個第四代至強插槽可提供低于100毫秒的延遲。用戶可以分別在兩個插槽上同時運行兩個并行實例,從而獲得更高的吞吐量,并獨立地服務(wù)客戶端。亦或者,用戶可以通過英特爾PyTorch擴展包*和DeepSpeed* CPU,使用張量并行的方式在兩個第四代至強插槽上運行推理,從而進一步降低延遲或支持更大的模型。

關(guān)于在至強平臺上運行大語言模型和Llama 2,開發(fā)者可以點擊此處(https://intel.github.io/intel-extension-for-pytorch/llm/cpu/)了解更多詳細(xì)信息。第四代英特爾至強可擴展處理器的云實例可在AWS和Microsoft Azure上預(yù)覽,目前已在谷歌云平臺和阿里云全面上線。英特爾將持續(xù)在PyTorch*和DeepSpeed*進行軟件優(yōu)化,以進一步加速Llama 2和其它大語言模型。

英特爾數(shù)據(jù)中心GPU Max系列

英特爾數(shù)據(jù)中心GPU Max系列提供并行計算、科學(xué)計算和適用于科學(xué)計算的AI加速。作為英特爾性能最為出色、密度最高的獨立顯卡,英特爾數(shù)據(jù)中心GPU Max系列產(chǎn)品中封裝超過1000億個晶體管,并包含多達(dá)128個Xe內(nèi)核,Xe是英特爾GPU的計算構(gòu)建模塊。

英特爾數(shù)據(jù)中心GPU Max系列旨在為AI和科學(xué)計算中使用的數(shù)據(jù)密集型計算模型提供突破性的性能,包括:

●408 MB基于獨立SRAM技術(shù)的L2緩存、64MB L1緩存以及高達(dá)128GB的高帶寬內(nèi)存(HBM2E)。

●AI增強型的Xe英特爾矩陣擴展(英特爾XMX)搭載脈動陣列,在單臺設(shè)備中可實現(xiàn)矢量和矩陣功能。

英特爾Max系列產(chǎn)品統(tǒng)一支持oneAPI,并基于此實現(xiàn)通用、開放、基于標(biāo)準(zhǔn)的編程模型,釋放生產(chǎn)力和性能。英特爾oneAPI工具包括高級編譯器、庫、分析工具和代碼遷移工具,可使用SYCL輕松將CUDA代碼遷移到開放的C++。

英特爾數(shù)據(jù)中心Max系列GPU通過當(dāng)今框架的開源擴展來實現(xiàn)軟件支持和優(yōu)化,例如面向PyTorch*的英特爾擴展、面向TensorFlow*的英特爾擴展和面向DeepSpeed*的英特爾擴展。通過將這些擴展與上游框架版本一起使用,用戶將能夠在機器學(xué)習(xí)工作流中實現(xiàn)快速整合。

我們在一個600瓦OAM形態(tài)的GPU上評估了Llama 2的70億參數(shù)模型和Llama 2的130億參數(shù)模型推理性能,這個GPU上封裝了兩個tile,而我們只使用其中一個tile來運行推理。圖4顯示,對于輸入長度為32到2000的token,英特爾數(shù)據(jù)中心GPU Max系列的一個tile可以為70億參數(shù)模型的推理提供低于20毫秒的單token延遲,130億參數(shù)模型的單token延遲為29.2-33.8毫秒3。因為該GPU上封裝了兩個tile,用戶可以同時并行運行兩個獨立的實例,每個tile上運行一個,以獲得更高的吞吐量并獨立地服務(wù)客戶端。

wKgZomToEiKAd_RoAAG1kNPZfKk365.png

圖4英特爾數(shù)據(jù)中心GPUMax1550上的Llama2的70億和130億參數(shù)模型的推理性能

關(guān)于在英特爾GPU平臺上運行大語言模型和Llama 2,可以點擊此處(https://intel.github.io/intel-extension-for-pytorch/llm/xpu/)獲取詳細(xì)信息。目前英特爾開發(fā)者云平臺上已發(fā)布英特爾GPU Max云實例測試版。

英特爾平臺上的大語言模型微調(diào)

除了推理之外,英特爾一直在積極地推進微調(diào)加速,通過向Hugging Face Transformers、PEFT、Accelerate和Optimum庫提供優(yōu)化,并在面向Transformers的英特爾擴展中提供參考工作流。這些工作流支持在相關(guān)英特爾平臺上高效地部署典型的大語言模型任務(wù),如文本生成、代碼生成、完成和摘要。

總結(jié)

上述內(nèi)容介紹了在英特爾AI硬件產(chǎn)品組合上運行Llama 2的70億和130億參數(shù)模型推理性能的初始評估,包括Habana Gaudi2深度學(xué)習(xí)加速器、第四代英特爾至強可擴展處理器、英特爾至強CPU Max系列和英特爾數(shù)據(jù)中心GPU Max系列。我們將繼續(xù)通過軟件發(fā)布提供優(yōu)化,后續(xù)會再分享更多關(guān)于大語言模型和更大的Llama 2模型的評估。

參考資料

Intel / intel-extension-for-pytorch:一個用于擴展官方PyTorch的PyTorch軟件包,可以輕松地獲取英特爾平臺的性能(github.com)

使用英特爾神經(jīng)壓縮器進行模型壓縮:huggingface/optimum-habana:在Habana Gaudi處理器(HPU)上輕松地極速訓(xùn)練Transformers(github.com)

面向英特爾數(shù)據(jù)中心GPU Max系列的開發(fā)工具

Meta Llama2論文:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

Meta Llama2博客:https://ai.meta.com/llama/

產(chǎn)品和性能信息

1HabanaGaudi2深度學(xué)習(xí)加速器:所有測量使用了一臺HLS2 Gaudi2服務(wù)器上的Habana SynapseAI 1.10版和optimum-habana 1.6版,該服務(wù)器具有八個Habana Gaudi2 HL-225H Mezzanine卡和兩個英特爾至強白金8380 CPU@2.30GHz以及1TB系統(tǒng)內(nèi)存。2023年7月進行測量。

2第四代英特爾至強可擴展處理器

·第四代英特爾至強8480:第四代英特爾至強白金8480+2插槽系統(tǒng),112核/224線程,啟用睿頻,啟用超線程,內(nèi)存:16x32GB DDR5 4800MT/s,存儲:953.9GB;操作系統(tǒng):CentOS Stream 8;內(nèi)核:5.15.0-spr.bkc.pc.16.4.24.x86_64;批處理大?。?;在1個插槽上測量:1;PyTorch nightly build0711;IntelExtensions for PyTorch* tag v2.1.0.dev+cpu.llm;模型:Llama 2 70億和Llama 2 130億參數(shù);數(shù)據(jù)集LAMBADA;令牌長度:32/128/1024/2016(in),32(out);Beam Width 4;精度:BF16和INT8;英特爾在2023年7月12日測試。

·英特爾至強Max 9480:英特爾至強Max 9480 2插槽系統(tǒng),112核/224線程,啟用睿頻,啟用超線程,內(nèi)存:16x64GB DDR5 4800MT/s;8x16GB HBM2 3200 MT/s,存儲:1.8TB;操作系統(tǒng):CentOS Stream 8;內(nèi)核:5.19.0-0812.intel_next.1.x86_64+server;批處理大?。?;在1個插槽上測量;PyTorch nightly build0711;IntelExtensions for PyTorch* llm_feature_branch;模型:Llama 2 70億和Llama 2 130億參數(shù),數(shù)據(jù)集LAMBADA;令牌長度:32/128/1024/2016(in),32(out);Beam Width 4;精度:BF16和INT8;英特爾在2023年7月12日測試。

3英特爾數(shù)據(jù)中心GPU Max系列:1節(jié)點,2個英特爾至強白金8480+,56核,啟用超線程,啟用睿頻,NUMA 2,總內(nèi)存1024GB(16x64GB DDR5 4800 MT/s [4800 MT/s]),BIOS:SE5C7411.86B.9525.D19.2303151347,微代碼0x2b0001b0,1個用于10GBASE-T的以太網(wǎng)控制器X710,1個1.8T WDC WDS200T2B0B,1個931.5G英特爾SSDPELKX010T8,Ubuntu 22.04.2 LTS,5.15.0-76-generic,4個英特爾數(shù)據(jù)中心GPU Max 1550(僅使用單個OAM GPU卡的一個區(qū)塊測量),IFWI PVC 2_1.23166,agama驅(qū)動程序:agama-ci-devel-627.7,英特爾oneAPI基礎(chǔ)工具包2023.1,PyTorch* 2.0.1 + IntelExtension for PyTorch* v2.0.110+xpu(dev/LLM分支),AMC固件版本:6.5.0.0,模型:Meta AI Llama 2 70億和Llama 2 130億參數(shù),數(shù)據(jù)集LAMBADA;令牌長度:32/128/1024/2016(in),32(out);Greedy搜索;精度FP16;英特爾在2023年7月7日測試。

4性能因用途、配置和其它因素而異。更多信息請見www.Intel.com/PerformanceIndex。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關(guān)注

    關(guān)注

    61

    文章

    10327

    瀏覽量

    181153
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    11337

    瀏覽量

    226009

原文標(biāo)題:英特爾通過軟硬件為LIama 2大模型提供加速,持續(xù)發(fā)力推動AI發(fā)展

文章出處:【微信號:英特爾中國,微信公眾號:英特爾中國】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    英特爾“智能體PC”登場:AI硬件革命邁入混合架構(gòu)新紀(jì)元

    近日,在AI技術(shù)從云端向終端加速滲透的轉(zhuǎn)折點上,英特爾在北京舉辦的混合AI部署方案分享會上拋出一枚重磅炸彈——正式提出“智能體PC”概念。這一被定義
    的頭像 發(fā)表于 04-22 10:36 ?579次閱讀

    英特爾與華陽通用聯(lián)手推出全新AI Box解決方案

    英特爾宣布推出基于最新英特爾 酷睿 Ultra 架構(gòu)的AI Box解決方案,將PC級旗艦算力引入汽車、工業(yè)自動化、軌道交通、機器人等多種工業(yè)環(huán)境,各行各業(yè)接入
    的頭像 發(fā)表于 03-02 14:15 ?792次閱讀

    香港科技大學(xué)與英特爾共建聯(lián)合實驗室,聚焦高能效智能計算

    軟硬件協(xié)同設(shè)計創(chuàng)新,雙方旨在為智能設(shè)備與可持續(xù)人工智能系統(tǒng)的未來發(fā)展提供技術(shù)參考。 在香港科技大學(xué)首席副校長郭毅可教授、英特爾中國區(qū)董事長王
    的頭像 發(fā)表于 02-05 16:30 ?803次閱讀
    香港科技大學(xué)與<b class='flag-5'>英特爾</b>共建聯(lián)合實驗室,聚焦高能效智能計算

    英特爾開發(fā)者年度盛會智潮涌動,推動AI創(chuàng)新走向產(chǎn)業(yè)縱深

    ,榮獲一等獎。期間,《2025英特爾平臺開發(fā)者AI創(chuàng)新實踐報告》重磅首發(fā),報告整合眾多開發(fā)者的實踐反饋,輔以豐富真實案例與深度解析,全方位展現(xiàn)AI應(yīng)用創(chuàng)新趨勢與開發(fā)者群體特征,并繪出AI
    的頭像 發(fā)表于 01-19 16:14 ?524次閱讀

    英特爾創(chuàng)新引領(lǐng)AI NAS:軟硬結(jié)合引領(lǐng)本地數(shù)據(jù)智慧管理與多場景創(chuàng)新應(yīng)用

    2025年12月3日,西安 —— 2025英特爾AI NAS 解決方案峰會今日成功舉行。圍繞“芯生萬象 智存未來”的主題,英特爾攜手生態(tài)伙伴及三十余家渠道客戶,共同展望 AI NAS未
    的頭像 發(fā)表于 12-12 15:45 ?756次閱讀
    <b class='flag-5'>英特爾</b>創(chuàng)新引領(lǐng)<b class='flag-5'>AI</b> NAS:<b class='flag-5'>軟硬</b>結(jié)合引領(lǐng)本地數(shù)據(jù)智慧管理與多場景創(chuàng)新應(yīng)用

    軟硬件協(xié)同技術(shù)分享 - 任務(wù)劃分 + 自定義指令集

    Level , ESL)得到催生,然而ESL設(shè)計依賴于復(fù)雜的高層次建模以及龐大的數(shù)據(jù)支持,且其工具鏈的發(fā)展仍不是十分完善。 在現(xiàn)階段的開發(fā)氛圍中,軟硬件協(xié)同開發(fā)是一種能夠縮短開發(fā)周期,并提升總體性能的高效
    發(fā)表于 10-28 08:03

    從云到端:英特爾展示全棧AI能力,覆蓋云、邊、PC多場景

    通用算力型實例u2i,內(nèi)存增強型實例re8和第九代企業(yè)級ECS實例g9i,以及磐久AI高性能存儲服務(wù)器(文件存儲服務(wù)器)和磐久高密存儲服務(wù)器(對象存儲服務(wù)器)。通過軟硬件協(xié)同優(yōu)化與底層
    的頭像 發(fā)表于 09-26 17:27 ?1792次閱讀
    從云到端:<b class='flag-5'>英特爾</b>展示全棧<b class='flag-5'>AI</b>能力,覆蓋云、邊、PC多場景

    英特爾Gaudi 2E AI加速DeepSeek-V3.1提供加速支持

    英特爾? Gaudi 2EAI加速器現(xiàn)已為DeepSeek-V3.1提供深度優(yōu)化支持。憑借出色的性能和成本效益,英特爾Gaudi
    的頭像 發(fā)表于 08-26 19:18 ?3366次閱讀
    <b class='flag-5'>英特爾</b>Gaudi <b class='flag-5'>2</b>E <b class='flag-5'>AI</b><b class='flag-5'>加速</b>器<b class='flag-5'>為</b>DeepSeek-V3.1<b class='flag-5'>提供</b><b class='flag-5'>加速</b>支持

    硬件與應(yīng)用同頻共振,英特爾Day 0適配騰訊開源混元大模型

    于OpenVINO? 構(gòu)建的 AI 軟件平臺的可擴展性,英特爾助力ISV生態(tài)伙伴率先實現(xiàn)應(yīng)用端Day 0 模型適配,大幅加速了新模型的落地進
    的頭像 發(fā)表于 08-07 14:42 ?1567次閱讀
    <b class='flag-5'>硬件</b>與應(yīng)用同頻共振,<b class='flag-5'>英特爾</b>Day 0適配騰訊開源混元大<b class='flag-5'>模型</b>

    主控CPU全能選手,英特爾至強6助力AI系統(tǒng)高效運轉(zhuǎn)

    2025年3月,英偉達(dá)發(fā)布了DGX B300 AI加速計算平臺。2025年5月,英特爾發(fā)布了三款全新英特爾至強6性能核處理器,其中一款6776P被用作是DGX B300的主控CPU,這
    的頭像 發(fā)表于 06-27 11:44 ?1062次閱讀
    主控CPU全能選手,<b class='flag-5'>英特爾</b>至強6助力<b class='flag-5'>AI</b>系統(tǒng)高效運轉(zhuǎn)

    英特爾發(fā)布邊緣AI控制器與邊緣智算一體機,創(chuàng)造“AI新視界”

    在2025北京機器視覺展覽會(VisionChina)以“AI 視界:英特爾推動智能制造革新浪潮”為主題的英特爾論壇中,英特爾與諾達(dá)佳聯(lián)合發(fā)
    發(fā)表于 06-24 17:50 ?1584次閱讀
    <b class='flag-5'>英特爾</b>發(fā)布邊緣<b class='flag-5'>AI</b>控制器與邊緣智算一體機,創(chuàng)造“<b class='flag-5'>AI</b>新視界”

    英特爾銳炫Pro B系列,邊緣AI的“智能引擎”

    CTO、高級首席AI工程師張宇博士 英特爾客戶端計算事業(yè)部邊緣計算CTO、高級首席AI工程師張宇博士在MWC AI終端峰會上指出,邊緣將崛起
    的頭像 發(fā)表于 06-20 17:32 ?1083次閱讀
    <b class='flag-5'>英特爾</b>銳炫Pro B系列,邊緣<b class='flag-5'>AI</b>的“智能引擎”

    直擊Computex 2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    電子發(fā)燒友原創(chuàng)? 章鷹 5月19日,在Computex 2025上,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發(fā)表于 05-21 00:57 ?7807次閱讀
    直擊Computex 2025:<b class='flag-5'>英特爾</b>重磅發(fā)布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    直擊Computex2025:英特爾重磅發(fā)布新一代GPU,圖形和AI性能躍升3.4倍

    5月19日,在Computex 2025上,英特爾發(fā)布了最新全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括全新英特爾銳炫? Pro B系列GPU——
    的頭像 發(fā)表于 05-20 12:27 ?5715次閱讀
    直擊Computex2025:<b class='flag-5'>英特爾</b>重磅發(fā)布新一代GPU,圖形和<b class='flag-5'>AI</b>性能躍升3.4倍

    英特爾發(fā)布全新GPU,AI和工作站迎來新選擇

    Computex 2025上,英特爾發(fā)布了專業(yè)人士和開發(fā)者設(shè)計的全新圖形處理器(GPU)和AI加速器產(chǎn)品系列。包括: 全新英特爾銳炫 ?
    發(fā)表于 05-20 11:03 ?1932次閱讀
    西贡区| 麦盖提县| 保德县| 彭泽县| 贞丰县| 弥渡县| 恭城| 桑日县| 阿克| 中江县| 忻州市| 宣恩县| 仁寿县| 南溪县| 德清县| 岗巴县| 钦州市| 盈江县| 锡林浩特市| 井冈山市| 白银市| 密云县| 平邑县| 都安| 平和县| 博爱县| 大渡口区| 皮山县| 拉孜县| 读书| 厦门市| 白山市| 嵩明县| 莆田市| 吐鲁番市| 禄丰县| 廊坊市| 太谷县| 定陶县| 清水县| 吐鲁番市|