【逼真得恐怖】AI 嘴型模仿技術 偽造言論影片幾可亂真

【逼真得恐怖】AI 嘴型模仿技術 偽造言論影片幾可亂真

有時會看到網上流傳某某明星說一些荒謬的言論,但原來全是炒作,純為毫無根據的假新聞。現在這些假對白傳言都只是以文字方式呈現,但如果你確實看到名人在影片中道出言論,就很難相信是假影片。美國華盛頓大學最近研究出一個人工智能系統,能根據錄音語句,製出對嘴型的超逼真影片,到時候要哪位名人說甚麼都可以。 PS 假相年代已演變成假影片年代,大家上網不要輕信虛構內容哦(編按:如果你分得出的話⋯)。

這個 AI 製造出的假演說影片,嘴型與真實影片無異。

這個 AI 製造出來的假演說影片,嘴型與真實影片無異。

把預錄的音訊檔放進 AI 系統後,系統便能切合錄音裡的語句製造出相應的嘴型,再把嘴型「Key」到另一條影片上,當然那個假嘴型的唇色要與目標影片裡的人物一致,也要配合臉部肌肉動作啦。至於造出來的影片逼真度,大家可以參考以下這條影片,研究人員把奧巴馬某段演說言詞,複製到奧巴馬其他影片上。比較原片和假影片,雖然兩條片的眼神表情和場景都不同,但單看著假影片的話,你不會覺得嘴型對不上錄音,就像奧巴馬在另一個情景說同一番話,效果完美無瑕。試想想,如果有人想該誣衊一位明星說出仇恨言論,破壞他的名聲,或想政治人物宣布人神共憤的政策,製造社會恐慌及混亂,使用這個 AI 便能製造嘴型,再結合如 Lyrebird 這類把原聲檔轉成某人聲音的 AI 系統,便能製造幾可亂真的假影片,是多麼的恐怖啊。真的希望這個系統不要落入那些居心叵測的人手中。

今次研究用了奧巴馬的影片作為示範,是因為網上及電視節目有大量高質的奧巴馬影片,供 AI 學習他的嘴型。在這次實驗中,AI 「看」了十七小時的奧巴馬影片來分析掌握他說各個生字的嘴型變化,不過技術發展成熟的話,未來的 AI 只需看一小時的影片就足夠。要拿到一個人的一小時影片其實不難,現時流行的直播、視像對話、社交網絡發佈的生活影片等,都可以成為 AI 模仿嘴型的材料,基本上是唾手可得。但大家若為了避免這個問題而不拍短片,明星不接受訪問不拍劇,名人不出席活動,是不切實際的,所以最重要的是這個系統能給甚麼人有使用權限,以及大家懂得保護自己的網上私隱,限制個人影片的分享對象。

AI 學習嘴型的過程。

AI 學習嘴型的過程。

雖然這個嘴型模仿技術令人毛骨悚然,但其實背後有個正當的應用目的。研究人員表示,他們希望能透過這個技術來改善視像對話的畫面質素。例如 Skype 的用戶能收集自己說話的錄像,讓 AI 看片學習,當進行視像通話而網絡不穩定時,就可對著 Skype 錄音,然後 AI 就自動製作相應的嘴型,解決畫質差而令嘴型含糊不清的問題,也能節省數據。