近日,字節(jié)跳動新一代AI視頻生成模型Seedance2.0上線內(nèi)測,憑借多模態(tài)創(chuàng)作方式、自帶運鏡的呈現(xiàn)效果,迅速在全球范圍內(nèi)引發(fā)高度關注。海外社交平臺上,不少用戶稱贊其生成效果媲美好萊塢大片,相關話題迅速沖上熱門,多條演示視頻播放量破百萬。
一名海外專業(yè)創(chuàng)作者使用該模型制作短片后,很快引爆關注:畫面中,一名男子在人群中狂奔,猛地撞翻路邊水果攤,橙子四散飛落。在一段極具張力的慢鏡頭之后,男子掙扎起身,繼續(xù)奔跑。評論區(qū)不少網(wǎng)友對短片效果感到驚訝,“等會兒,從哪兒開始是AI做的?”
據(jù)悉,目前Seedance2.0僅在國內(nèi)部分產(chǎn)品小范圍開啟內(nèi)測。還用不上新模型的海外創(chuàng)作者,已經(jīng)迫不及待地開始分享國內(nèi)AI創(chuàng)作者發(fā)布的測評視頻。無論是用漫畫分鏡鏡頭生成動作電影場景,還是僅憑一個文字指令生成多鏡頭完整片段……Seedance2.0都有不俗表現(xiàn),許多海外創(chuàng)作者感慨“一鍵生成電影”可能并不遙遠。
國內(nèi)創(chuàng)作者對于該模型的表現(xiàn)能力也十分驚艷。游戲科學CEO馮驥試用后評價說,Seedance2.0是“當前地表最強的視頻生成模型”,其在多模態(tài)信息理解與整合能力上實現(xiàn)了飛躍,并稱“慶幸這款頂尖模型來自中國”。
隨著模型能力的突破,Seedance2.0在內(nèi)容安全上也做了一些積極探索。用戶在即夢APP、豆包APP體驗模型時,需要完成錄音錄像,通過真人校驗后才能生成自己的專屬分身,在AI短片中出鏡。
近年來,中國在人工智能領域持續(xù)加大研發(fā)投入,從基礎算法到應用落地實現(xiàn)全鏈條突破,Seedance2.0的誕生正是中國AI技術創(chuàng)新能力的生動體現(xiàn)。據(jù)模型內(nèi)測介紹文檔顯示,Seedance2.0搭載雙分支擴散變換器架構(gòu),用戶只需輸入文字提示詞或上傳參考圖像,即可產(chǎn)出帶有完整原生音軌的多鏡頭視頻內(nèi)容。其最具突破性的“單指令生成連貫多場景”能力,能讓AI自動解析敘事邏輯,生成環(huán)環(huán)相扣的鏡頭序列,在角色、光影、風格與氛圍上保持高度統(tǒng)一,實現(xiàn)近乎“零后期”的成片效果,徹底突破了早期AI視頻工具僅能生成碎片化片段的局限,大幅降低了專業(yè)視頻創(chuàng)作的門檻與成本。(來源:新華網(wǎng))