AI科技儼然成為各大公司爭相研究的領(lǐng)域,而近日Stability AI宣布,旗下文字生成圖片模型SDXL 0.9已經(jīng)正式發(fā)布。
據(jù)悉,SDXL 0.9是在所有開源圖像模型中參數(shù)數(shù)量位居前茅,并且可以在消費(fèi)級GPU上運(yùn)行,還具備一個(gè)35億參數(shù)的基礎(chǔ)模型和一個(gè)66億參數(shù)的附加模型。
另外Stability AI還表示,SDXL0.9中使用了兩個(gè)CLIP模型,其中包括OpenCLIP vitg /14,這是迄今為止體積最大的OpenCLIP模型。憑借該模型,Stable Diffusion 可以創(chuàng)建深度更廣、分辨率更高的逼真圖像。
Stability AI同時(shí)表示,SDXL詳細(xì)介紹SDXL 0.9的模規(guī)范和更多ERP(www.multiable.com.cn)參數(shù)細(xì)節(jié),預(yù)計(jì)該模型將在7月迎來1.0正式版本,并將在GitHub開源。
審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報(bào)投訴
-
gpu
+關(guān)注
關(guān)注
28文章
5283瀏覽量
136105 -
AI
+關(guān)注
關(guān)注
91文章
41326瀏覽量
302722
發(fā)布評論請先 登錄
相關(guān)推薦
熱點(diǎn)推薦
AI Ceph 分布式存儲教程資料大模型學(xué)習(xí)資料2026
瓶頸:從傳統(tǒng)存儲向 AI 專用架構(gòu)演進(jìn)
在大模型訓(xùn)練場景下,計(jì)算節(jié)點(diǎn)(GPU)的運(yùn)算速度極快,往往在毫秒級就能完成一輪數(shù)據(jù)的處理。如果后端存儲無法跟上這一速度,
發(fā)表于 05-01 17:35
黑馬-Java+AI新版V16零基礎(chǔ)就業(yè)班百度云網(wǎng)盤下載+Java+AI全棧開發(fā)工程師
抖動(dòng)。這一層設(shè)計(jì)妥善時(shí),Java+AI 系統(tǒng)的數(shù)據(jù)吞吐能力與擴(kuò)展性可超越許多純 Python 方案,成為架構(gòu)上的差異化優(yōu)勢。
四、模型版本管理與熱加載:解決更新停機(jī)之痛
企業(yè)級應(yīng)用中,
發(fā)表于 05-01 11:29
使用瑞薩電子Reality AI Utilities工具加速嵌入式AI開發(fā)
為嵌入式處理器開發(fā)AI模型面臨幾個(gè)獨(dú)特的挑戰(zhàn)。與基于云的AI不同,大型模型可以利用海量數(shù)據(jù)集和服務(wù)器級
PB332在PB331基礎(chǔ)上增加了搶占避讓和按優(yōu)先級隊(duì)列上 傳功能,并可以完全并網(wǎng)PB331系統(tǒng)進(jìn)行透傳通訊
PB332是POWERBUS-C 技術(shù)的從站通訊芯片。PB332在PB331基礎(chǔ)上增加了搶占避讓和按優(yōu)先級隊(duì)列上傳功能,并可以完全并網(wǎng)PB331系統(tǒng)進(jìn)行透傳通訊。POWERBUS-C屬于低壓供電總線
發(fā)表于 01-30 13:03
NVIDIA攜手Mistral AI發(fā)布全新開源大語言模型系列
全新 Mistral 3 系列涵蓋從前沿級到緊湊型模型,針對 NVIDIA 平臺進(jìn)行了優(yōu)化,助力 Mistral AI 實(shí)現(xiàn)云到邊緣分布式智能愿景。
一文了解Mojo編程語言
CPU、GPU 和其他加速器的支持,簡化了并行編程模型。
漸進(jìn)式類型系統(tǒng)
結(jié)合靜態(tài)類型檢查和類型推導(dǎo),既保證編譯時(shí)安全性,又保留動(dòng)態(tài)類型的靈活性。
應(yīng)用場景
AI 與機(jī)器學(xué)習(xí)
用于訓(xùn)練大型模
發(fā)表于 11-07 05:59
【「AI芯片:科技探索與AGI愿景」閱讀體驗(yàn)】+第二章 實(shí)現(xiàn)深度學(xué)習(xí)AI芯片的創(chuàng)新方法與架構(gòu)
Transformer 模型
通過簡化Transformer 模型而不影響其收斂性能和下游任務(wù)性能來加速GPU中的Transformer 網(wǎng)絡(luò)。簡化Transformer 模型在
發(fā)表于 09-12 17:30
關(guān)于NanoEdge AI用于n-Class的問題求解
,但把模型的靜態(tài)庫加到Keil5的工程中編譯后運(yùn)行在STM32F407G-DISC1的開發(fā)板上仿真測試時(shí),我輸入的數(shù)據(jù)不管怎么變,AI模型輸
發(fā)表于 08-11 06:44
Cognizant加速AI模型企業(yè)級開發(fā)
-Cognizant推出AI Training Data Services,助力企業(yè)級AI模型加速開發(fā) Cognizant是數(shù)據(jù)與AI
使用Openvino? GenAI運(yùn)行Sdxl Turbo模型時(shí)遇到錯(cuò)誤怎么解決?
使用 OpenVINO? GenAI 運(yùn)行 SDXL Turbo 模型。
遇到的錯(cuò)誤: RuntimeError :- Check ov_tokenizer || ov_detokenizer
Neither tokenizer
發(fā)表于 06-24 06:38
為什么無法在GPU上使用INT8 和 INT4量化模型獲得輸出?
安裝OpenVINO? 2024.0 版本。
使用 optimum-intel 程序包將 whisper-large-v3 模型轉(zhuǎn)換為 int 4 和 int8,并在 GPU 上使用 OpenVINO?
發(fā)表于 06-23 07:11
openEuler 22.03為什么無法運(yùn)行在VisionFive2上?
(求助)openEuler 22.03無法運(yùn)行在VisionFive2上
發(fā)表于 06-19 07:13
運(yùn)行在嵌入式系統(tǒng)上的emApps
在當(dāng)今快節(jié)奏的嵌入式系統(tǒng)世界中,靈活性和適應(yīng)性是嵌入式系統(tǒng)實(shí)現(xiàn)的關(guān)鍵。SEGGER推出了其最新創(chuàng)新:Embedded apps(emApps)應(yīng)用,類似于手機(jī)上的應(yīng)用程序,可以運(yùn)行在嵌入式系統(tǒng)上。
Docker運(yùn)行GPUStack的詳細(xì)教程
GPUStack 是一個(gè)用于運(yùn)行 AI 模型的開源 GPU 集群管理器。它具有廣泛的硬件兼容性,支持多種品牌的 GPU,并能在 Apple
Stability AI發(fā)布大型模型SDXL 0.9,并可以運(yùn)行在消費(fèi)級GPU上
評論