從盧米埃爾兄弟用35mm攝影機拍攝世界第一部影片《火車進站》到《星球大戰(zhàn)》的數字革命,視頻內容史的每次躍遷都在拓展敘事邊界。
7月8日,記者獲悉,生數科技AI視頻模型Vidu Q1推出參考生功能,顛覆傳統(tǒng)內容生產流程,從想象到視頻素材生成只需一步。生數科技表示,這不僅是一次產品功能的升級,更是全新內容生產方式重構。
據業(yè)內人士介紹,傳統(tǒng)視頻制作流程為:腳本—角色設定—分鏡—攝影—后期特效—剪輯—成片;AI圖生視頻主要的步驟為:腳本—文生圖/P圖/融圖—圖片生成—圖生視頻—剪輯—成片;而Vidu Q1參考生功能則實現了從參考圖—視頻生成—剪輯—成片的極簡流程,省去了分鏡制作和拍攝、特效的過程,重構了傳統(tǒng)的視頻生產方式,重新定義了基于AI原生的內容敘事。
首先,參考生功能的核心優(yōu)勢是實現了零分鏡生成。對于創(chuàng)作者來說,若想獲得理想視頻畫面,圖生視頻更多依賴于分鏡,分鏡越多,制作得越精致,產出的視頻的質量也就越高。但分鏡制作本身需要非常多的專業(yè)技能,比如文生圖需要掌握很多提示詞技巧,而P圖或者將生成的圖和角色融合到一起,同樣需要很強的圖片編輯的專業(yè)技能,光是這些就已經將很多人擋在門外了。
此外,通常一個場景需要十幾個分鏡,包括遠景、近景、特寫等,制作一部短片可能分鏡就得上百張,每一個分鏡都得重新P圖或者生成新的圖片,即使是專業(yè)創(chuàng)作者也會在這個環(huán)節(jié)耗費非常多的時間,影響視頻制作效率。
Vidu Q1參考生直接跳過中間復雜度較高的分鏡制作環(huán)節(jié),僅需上傳人物、道具、場景等參考圖,Vidu Q1基于參考生功能對于人物、場景、道具等元素的深層理解和各元素之間的互動關系,即可直接將多個參考元素融合為一段視頻素材,真正實現零分鏡生成。
相較于文生視頻的不可控和圖生視頻對分鏡的重度依賴,參考生兼具可控性與靈活性的雙重優(yōu)勢。不過更為重要的創(chuàng)新在于,文生視頻與圖生視頻仍是基于傳統(tǒng)視頻制作方式,而Vidu Q1參考生不只是對于原有傳統(tǒng)制作效率的顯著提升,更是打破了固有的傳統(tǒng)內容創(chuàng)作方式,打造了AI原生工作流,從參考圖元素到視頻素材生成,中間僅需一步,創(chuàng)作門檻大幅降低。
不僅如此,Vidu Q1參考生功能的推出,也給予創(chuàng)作者更多靈活性。上傳的人物、道具、場景等素材分別是創(chuàng)作者強大的演員庫、道具庫和場景庫,作為永不疲憊的“數字演員”,組成了龐大且任意調配的“虛擬劇組”。
創(chuàng)作者可以利用Vidu Q1參考生功能隨時調用其中的任意素材,可以是多個人物同一場景,或者同一場景,不同人物或道具,或者不同場景,同一人物等,將有無數種排列組合,排列組合不同,生成的視頻內容也不同。這無疑提高了素材的可復用性,只需變換單個或者多個元素,保持其他主體不變 ,即可實現鏡頭敘事的自然轉換與情節(jié)發(fā)展。
值得注意的是,Vidu Q1參考生此次還在主體一致性上有了大幅提升,更加適用于對主體一致性要求較高的電商、廣告、短片等專業(yè)類場景。目前Vidu Q1可最多支持七個主體同時輸入并始終保持一致,這意味著創(chuàng)作者可以真正像導演一樣指定想要的多個角色、道具、場景,讓視頻生成的內容更為精準。