據(jù)報道,OpenAI近期推出的文本生成視頻模型Sora可以根據(jù)用戶給出的提示詞,生成真實有力的視頻內(nèi)容。然而,根據(jù)網(wǎng)友所述,Sora在生成1分鐘視頻時,所需渲染時間超過1小時。
根據(jù)Reddit社區(qū)網(wǎng)友的反映,研究人員僅展示了預設的示例,并不允許廣大用戶使用自定義提示詞;觀賞到的最長的演示視頻也只有短短17秒。此外,有不少人推測了渲染時間過長可能隱藏的原因,其中一名用戶也提到了OpenAI首席執(zhí)行官山姆-阿爾特曼曾提到過的巨額資金需求。
其中一名用戶理性分析道:“制作90分鐘的影片,往往需要90多個小時的拍攝時間??紤]到典型的動畫制作工作時間計算,Sora的渲染時間也并非不可思議。
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。
舉報投訴
-
模型
+關注
關注
1文章
3847瀏覽量
52300 -
OpenAI
+關注
關注
9文章
1256瀏覽量
10301 -
Sora
+關注
關注
0文章
88瀏覽量
855
發(fā)布評論請先 登錄
相關推薦
熱點推薦
OpenAI正式發(fā)布ChatGPT Images 2.0版本
在人工智能技術迅猛發(fā)展的浪潮中,OpenAI始終是引領行業(yè)變革的先鋒力量。近日,OpenAI正式發(fā)布ChatGPT Images 2.0版本,這一消息如同一顆重磅炸彈,在科技圈引發(fā)了強烈反響,在
昆侖萬維天工AI大模型SkyReels V4登上Artificial Analysis榜單全球第一
、Google Veo 3.1、Vidu Q3、OpenAI Sora 2等全球主流模型,成為全球AI視頻生成能力最強的大模型,標志中國AI
工作流大模型節(jié)點說明
大模型節(jié)點是平臺提供的基礎節(jié)點之一,開發(fā)者可以在該節(jié)點使用大語言模型處理任務。
節(jié)點說明
大模型節(jié)點可以調用大型語言模型,根據(jù)輸入?yún)?shù)和提示詞生成
發(fā)表于 03-19 14:56
萬里紅文本生成算法通過國家網(wǎng)信辦備案
近日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了第十四批深度合成服務算法備案信息,北京萬里紅科技有限公司(以下簡稱:萬里紅)自主研發(fā)的“萬里紅文本生成算法”正式通過備案。該算法致力于通過自動化的方式,提升知識問答、RAG分類、預測、文檔生成的準
GPT-5.1發(fā)布 OpenAI開始拼情商
OpenAI正式上線了 GPT-5.1 Instant 以及 GPT-5.1 Thinking 模型;有網(wǎng)友實測發(fā)現(xiàn)OpenAI新發(fā)布的GPT-5.1大
OpenAI Sora 2模型上線微軟Azure AI Foundry國際版
我們非常激動地宣布,OpenAI 的新一代多模態(tài)視頻生成模型 Sora 2 現(xiàn)已在 Azure AI Foundry(國際版)上線,進入公共預覽階段。
看點:谷歌Veo 3.1迎來重大更新硬剛Sora 2 12英寸硅片國產(chǎn)龍頭西安奕材今日申購
給大家?guī)硪恍I(yè)界資訊: 谷歌Veo 3.1迎來重大更新硬剛Sora 2 據(jù)外媒報道,在10月16日,谷歌發(fā)布了AI視頻生成模型Veo 3.1,升級音頻集成與敘事控制能力;以及更逼真的
OpenAI或在周五凌晨發(fā)布GPT-5 OpenAI以低價向美國政府提供ChatGPT
期待的大模型。 OpenAI可能在周五凌晨發(fā)布GPT-5,源自OpenAI在社交媒體上發(fā)布的太平洋時間
亞馬遜云科技現(xiàn)已上線OpenAI開放權重模型
客戶現(xiàn)可通過Amazon Bedrock和Amazon SageMaker AI使用OpenAI開放權重模型,實現(xiàn)將先進的開放權重模型與全球最廣泛云服務的深度集成。 亞馬遜云科技首次上線Ope
OpenAI發(fā)布2款開源模型
OpenAI開源了兩款高性能權重語言模型gpt-oss-120b和gpt-oss-20b,OpenAI CEO Sam Altman表示:「gpt-oss 發(fā)布了!我們做了一個開放
速看!EASY-EAI教你離線部署Deepseek R1大模型
和自然語言推理等復雜任務。作為國產(chǎn)AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術,在全球人工智能領域引發(fā)廣泛關注。本文主要說明DeepSeek-R1
飛書開源“RTV”富文本組件 重塑鴻蒙應用富文本渲染體驗
近日,飛書正式將其自研的富文本組件庫?RichTextVista(簡稱“RTV”)開源,并上線OpenHarmony?三方庫中心倉。該組件以領先的性能、流暢的渲染體驗與高度的開放性,為鴻蒙生態(tài)提供了
關于鴻蒙App上架中“AI文本生成模塊的資質證明文件”的情況說明
檢查結果為“通過”或審核狀態(tài)為“審核通過”。
那么對于這個問題,我也是嘗試去解決……這里分享一下我了解到的情況和方法
首先,這個政策雖然說是針對AI文本生成模塊,但實際上,針對的是所有調用了AI大模型
發(fā)表于 06-30 18:37
將Whisper大型v3 fp32模型轉換為較低精度后,推理時間增加,怎么解決?
將 openai/whisper-large-v3 FP32 模型轉換為 FP16、INT8 和 INT4。
推理所花費的時間比在 FP32 上花費的時間要多
發(fā)表于 06-24 06:23
4K、多模態(tài)、長視頻:AI視頻生成的下一個戰(zhàn)場,誰在領跑?
電子發(fā)燒友網(wǎng)報道(文/李彎彎) 6月11日,豆包App上線視頻生成模型豆包Seedance 1.0 pro。這是字節(jié)跳動最新視頻模型,支持文字與圖片輸入,可
OpenAI發(fā)布Sora視頻文本生成模型,但長渲染時間引關注
評論