南科大黑科技:一鍵消除視頻人物,特效師的救星來了!
來自南方科技大學的這款視頻分割模型,可以追蹤視頻中的任意事物。
不僅會“看”,還會“剪”,從視頻中去掉個人,對它來說也是輕輕松松的事。
而操作上,你唯一需要做的就是點幾下鼠標。
這位特效藝術(shù)家看到消息后仿佛找到了救星,直言這一產(chǎn)品將改變CGI行業(yè)的游戲規(guī)則。
這款模型叫做TAM(Track Anything Model),是不是和Meta的圖像分割模型SAM名字很像?
的確,TAM就是將SAM擴展到了視頻領(lǐng)域,點亮了動態(tài)物體追蹤的技能樹。
視頻分割模型其實不是新技術(shù)了,但傳統(tǒng)的分割模型并沒有減輕人類的工作。
這些模型使用的訓練數(shù)據(jù)全部需要人工標注,甚至在使用時還需要先用特定物體的遮罩參數(shù)進行初始化。
SAM的出現(xiàn)為解決這一問題提供了前提——至少初始化數(shù)據(jù)不再需要人工獲取。
當然,TAM也并不是逐幀使用SAM再疊加,還需要構(gòu)建對應(yīng)的時空關(guān)系。
團隊將SAM與名為XMem的記憶模塊進行了集成。
只需要在第一幀中用SAM生成初始參數(shù),XMem便可以指導接下來的追蹤過程。
追蹤的目標還可以是很多個,比如下面的清明上河圖:
甚至場景發(fā)生改變,也不影響TAM的表現(xiàn):
我們體驗了一番發(fā)現(xiàn),TAM采用了交互式用戶界面,操作上十分簡單友好。
硬實力方面,TAM的追蹤效果的確也不錯:
但是,消除功能在一些細節(jié)上的精確度還有待提高。
從SAM到TAM
前文已經(jīng)提到,TAM是在SAM的基礎(chǔ)之上結(jié)合記憶能力建立時空關(guān)聯(lián)實現(xiàn)的。
具體而言,第一步是借助SAM的靜態(tài)圖像分割能力對模型進行初始化。
只需一次點擊,SAM就能生成目標物體的初始化遮罩參數(shù),代替了傳統(tǒng)分割模型中的復雜初始化過程。
有了初始參數(shù),團隊就可以將它交給XMem,進行半人工干預訓練,大大減少了人類工作量。
在這一過程中,會有一些人工預測結(jié)果被用于和XMem的輸出進行比較。
實際過程中,隨著時間的增長,得到準確的分割結(jié)果對XMem變得越來越困難。
當結(jié)果與預期差距過大時,將進入再分割環(huán)節(jié),這一步還是由SAM完成。
經(jīng)過SAM的再優(yōu)化,大部分輸出結(jié)果已比較準確,但還有一部分需要人工再調(diào)整。
TAM的訓練過程大致就是這樣,而開頭提到的物體消除的技能是TAM與E2FGVI結(jié)合形成的。
E2FGVI本身也是一個視頻元素消除工具,在TAM精準分割的加持下,其工作更加有的放矢。
為了測試TAM,團隊使用了DAVIS-16和DAVIS-17數(shù)據(jù)集對其進行了評估。
直觀感受還是很不錯的,從數(shù)據(jù)上看也的確如此。
TAM雖然無需手工設(shè)置遮罩參數(shù),但其J(區(qū)域相似度)和F(邊界準確度)兩項指標已十分接近手工模型。
甚至在DAVIS-2017數(shù)據(jù)集上的表現(xiàn)還略勝于其中的STM。
其他初始化方式中,SiamMask的表現(xiàn)根本無法和TAM相提并論;
另一種名為MiVOS方法雖然表現(xiàn)好于TAM,但畢竟已經(jīng)進化了8輪……
團隊簡介
TAM來自南方科技大學視覺智能與感知(VIP)實驗室。
該實驗室研究方向包括文本-圖像-聲音多模型學習、多模型感知、強化學習和視覺缺陷檢測等。
目前團隊已發(fā)表論文30余篇,獲得專利5項。
團隊領(lǐng)導人是南方科技大學鄭鋒副教授,博士畢業(yè)于英國謝菲爾德大學,先后供職于中科院深研院、騰訊優(yōu)圖等機構(gòu),于2018年進入南科大,2021年晉升為副教授。