給我一張臉,影片背景隨你換,林黛玉都被清華理工男玩廢了|免費開放
衡宇 發自 凹非寺
量子位 | 公眾號 QbitAI
讓AI影片中任意主體保持一致!就在剛剛,人人都可輕鬆做到了。
而且只需一張圖片,就能實現。
——上面的每一個馬斯克影片,都來自同一張照片。
想玩的話,只需要用上清華系AI影片玩家生數科技旗下Vidu的最新功能,主體參照(Subject Consistency)。
該功能能夠實現對任意主體的一致性生成,讓影片生成更加穩定,也更加可控。
「現在生成AI影片內容,想要做到‘言出法隨’其實還很難,不確定性讓影片內容對運鏡、光效等的精細控制還是得不斷抽卡。」生數科技CEO唐家渝表示,「角色一致性只能讓人臉保持一致,而主體參照讓主體整體造型都能保持一致,給了更大的創作空間。」
這是繼今年7月,生數Vidu面向全球用戶上線文生影片與圖生影片能力(單影片最長生成8s)後的再次更新。
這次功能上新依然非常友好:
面向用戶免費開放,註冊即可體驗。
僅需一張圖片實現主體可控
先來看看Vidu是怎麼定義這個新功能的。
主體參照:允許用戶上傳任意主體的一張圖片,然後由Vidu夠鎖定該主體形象,通過描述詞任意切換場景,輸出主體一致的影片。
劃重點:任意主體。
也就是說,無論是人還是動物,無論是真人還是動漫形象or虛構主體,無論是傢俱還是商品,都能通過這個功能在影片生成中實現一致性和可控性。
目前,所有的影片大模型中,僅有Vidu率先支持這種玩法。
不必光說不練,我們來看看真實效果。
人物主體
首先來看看以人物為主體。
上傳一張87版《紅樓夢》林妹妹的照片:
以畫面中林妹妹為主體,利用主體參照功能,生成兩條影片。
突然,林妹妹上台演講了:
又一眨眼,妹妹已經坐在星爸爸喝咖啡了:
當然啦,真人可以作為生成影片的主體參照,虛擬角色/動漫人物同樣可以。
比如輸入一張漫畫女孩:
生成影片效果是醬紫的:
這裏附上一些官方給的小tips:
-
如需重點保持主體面容一致,需僅截取單一主體的清晰面容圖
-
如需重點保持主體半身一致(面容+上半身服飾),僅需截取單一主體的清晰半身圖
-
如需重點保持主體全身一致(全身特徵),僅需截取單一主體的清晰全身圖
動物主體
誰能不愛可愛狗狗!
把這張照片丟給Vidu,就能實現狗狗走草地上,一步一步靠近你。
鏡頭後拉和主體運動幅度表現都還不錯。
商品主體
當把商品作為需要參照的主體時,在生成的影片中,商品外觀和細節能在不同於圖片的場景中保持一致。
就像下面這樣:
沙發所在的場景,說變就變。
上面還能睡一個蓋了毯子的小女孩,遮擋住沙發原有部分。
需要注意的是,當前版本僅支持單一主體的可控。
如果上傳的圖片有多個人物/物體,需要框選出單一主體進行生成。
Be Like:
不再「兩步走」了
無論是製作短影片、動畫作品還是廣告片,「主體一致、場景一致、風格一致」都是共同的追求。
因此,AI影片生成內容想要有敘事效果,就需要不斷往三個一致方面盡力靠攏。
尤其是就現實情況而言,實際的影片創作,內容往往圍繞特定的對象展開——這往往也是影片生成內容最容易變形、崩壞的一點,尤其在涉及複雜動作和交互的情況下。
撓頭,腦闊痛。
業界首先想到的辦法是先AI生圖、再圖生影片。
說人話,就是用Midjourney、SD什麼的,生成分鏡鏡頭畫面,讓每張圖里的主體保持一致,然後再進行圖生影片,最後把每個影片片段拚接剪輯。
但一聽就發現了,這樣搞,無論是保持AI畫圖的一致性,還是後期拚拚剪剪,工作量都很大。
生數Vidu「主體參照」跟這個思路的不一樣之處,就是不再兩步走了。
而是通過「上傳主體圖+輸入場景描述詞」的方式,直接生成影片素材。
最後,我們來釐清以及區分三個概念:
-
圖生影片(Image to Video)
-
角色一致性(Character to Video)
-
主體參照(Subject Consistency)
圖生影片基本是現在AI影片生成的基操了。
它把輸入的圖片作為影片首幀,然後基於首幀畫面的連續生成。
Bug是無法直接輸出目標場景,限制了影片內容的多樣性和場景的自由度。
角色一致性,主要集中在人物形象上起效果。
它能保證人物面部特徵在動態影片中保持一致,但一般來說「一致性」只顧臉,不顧整體形象。
主體參照,面向任意主體。
同時在面向人物主體時,既可選擇保持面部一致,也可選擇保持人物整體形象的高度一致。
最後附上生數科技影片試玩鏈接,感興趣的朋友可趁排隊人不多,趕緊衝一波!
畢竟,免費的就是香,對吧(doge)。
體驗直通車:
www.vidu.studio
— 聯繫作者 —