當前位置:首頁>一起惠資訊>購物資訊>AI換臉術技術一步步升級 眼見已經(jīng)未必為實
AI換臉術技術一步步升級 眼見已經(jīng)未必為實
一起惠2017-12-25 09:35:26414 次

在座的各位,是不是已經(jīng)試過人臉解鎖手機了?是不是嘗試過刷臉購物了?玩過人臉識別的動物表情小游戲了沒?如果都有的話,那么想必咱們可以達成一個共識:AI在人臉這件事上已經(jīng)越來越精通了。

如果說識別只是AI對人臉做出的第一件事,那么第二件事是什么呢?從種種跡象來看,答案只有一個,那就是給人換臉。

當然,AI不會真的去給人整容(至少目前不會),它能做的是在視頻里給人換臉。比如最近刷屏級的小視頻可能大家都已經(jīng)看過了。

視頻中的女主角(確切的說是女主角的臉)是《神奇女俠》的扮演者蓋爾·加朵。但這當然不是其本人出演了什么令人羞恥的小電影。而是有人用深度學習技術把蓋爾·加朵的臉替換到了原片女主角的身體上。乍看之下基本沒什么破綻,但其實兩個人是不怎么像的。

這個ID叫做deepfakes的網(wǎng)友,始終致力于在Reddit上分享其利用AI技術制作的明星換臉小視頻。差不多所有當紅的好萊塢女星都被他“炮制”了一遍。

各位同學是不是感覺有點興奮?以后想看哪位明星的片子自己動手做就是了,甚至可以把自己的臉替換上去演對手戲,各種YY皆能成真。

可是,如果是你親戚朋友的臉被替換了呢?如果把犯罪現(xiàn)場所拍攝嫌疑人的臉換成你呢?如果在你不知情的情況下,不法分子發(fā)給你家人一段有你露臉的綁架視頻呢?

當我們不能相信自己的眼睛,各種混亂和罪惡的重量,絕對會大于那一點點違法的“福利”。

換臉的恐怖之處,在于AI很簡單

其實視頻換臉這件事也并不出奇了。耳熟能詳?shù)目赡芤獙佟端俣扰c激情7》里為了讓保羅·沃克回歸,片方用了替身+動態(tài)捕捉+CGI動畫的方式,以保羅的兩位弟弟為替身,最終讓觀眾的老朋友重新回到了大屏幕上。

這樣的換臉技術雖然高超,卻并不讓我們擔憂。因為這是電影的藝術需要,必須要耗費大量人工與后期特效成本,并且要求專業(yè)的視頻剪輯技術才能實現(xiàn)。這意味著,這種精準的換臉并不能出現(xiàn)在日常生活中,也不會給普通人帶來威脅。

但AI在瓦解這一切。

讓我們重新回到前面提到制作女星換臉小電影的deepfakes。這哥們不僅是個老司機,還是一位熱愛分享的“技術型活雷鋒”。他不僅免費發(fā)布了他的成果,還不厭其煩的分享了自己制作換臉視頻的教程,以及自己編寫的深度學習代碼和相關數(shù)據(jù)集……大概他的意思是,別再問我要誰誰的視頻了,你們自己做去吧……

當然,這哥們也不是專注女明星,上邊這張就是他分享的如何把尼古拉斯·凱奇換成川普的教程,大概其內(nèi)心深處也深諳中國的“表情包之道”。

根據(jù)他的分享,制作一個明星換臉視頻非常簡單。以蓋爾·加朵的視頻為例,他首先會在谷歌、YouTube以及各種網(wǎng)絡圖集中收集蓋爾·加朵的各個角度的視頻和圖片。組成一個能滿足深度學習任務進行臉部替換的素材庫。

然后他會通過TensorFlow上提供的機器視覺相關模型,學習和理解原版小電影中女主角的面部特征、輪廓、動作和嘴型等等。繼而讓模型在素材庫中尋找各種角度、各種表情下AI認為合適的圖片與視頻,對原本視頻進行替換。

雖然可以看到,他做的視頻在很多細節(jié)上還是有瑕疵,不夠自然。但是大體一看已經(jīng)可以蒙混過關,并且制作效果在日漸提高。

這里隱藏的真正問題,在于利用開源的AI架構(gòu)進行視頻換臉這件事,不是太復雜太前衛(wèi)了,而是太簡單太容易了!

為了驗證這點,我先后把deepfakes分享的視頻和代碼發(fā)給了三位從事機器視覺相關工作的朋友,得到的反饋基本一致:這東西毫無技術難度。只要會用TensorFlow的基礎功能,電腦顯卡不至于太爛,差不多幾個小時就可以搞出來一個。

哪怕連編程基礎都沒有的人,跟著教程一步步走,搜集足夠多的素材,也可以自己搞出來換臉視頻。

設想一下,當你身邊某個仇人想要陷害你的時候,只要收集你的照片和自拍,就可以隨意把你和任何罪惡甚至骯臟的視頻結(jié)合到一起,然后在你的社交圈里散播的到處都是,那場面何其令人膽寒?這就像槍支可以無審查、無監(jiān)管的隨意買賣,并且價格低廉。

在機器視覺開發(fā)的底層技術日益完善后,視頻換臉必然繼續(xù)在三個層面加強它的普及化:

1.近乎無門檻使用。換臉相關的數(shù)據(jù)集、源代碼和架構(gòu),在今天只要有心就可以輕易找到,隨著技術的成熟,這種趨勢大概只會愈演愈烈。

2.可以工具化。由于技術并不復雜,這個功能被工具化的可能性很大。也就是說不法分子可以把它做成一個應用,購買了之后只要按要求添加視頻和希望替換人的圖像,就可以自動生成換臉視頻,達成真正的無門檻。

3.欺騙性不斷增強:有相關AI從業(yè)者認為,deepfakes的視頻僅僅經(jīng)歷了初步的學習和替換過程,沒有進行修補和細節(jié)雕琢,就已經(jīng)獲得了很高的完成度。那么假如進一步結(jié)合對抗生成網(wǎng)絡進行修飾,大概就可以生成真?zhèn)坞y辨的視頻了。

總之,當我們知道照片可以PS之后,視頻也不再可信了。而且,不僅僅是視頻。

山雨欲來:下一站是直播+換臉

去年年初的時候,德國紐倫堡大學的相關團隊發(fā)布了一個應用,也就是非常出名的Face2Face。這款應用的能力,是通過攝像頭進行臉部追蹤,從而讓視頻里的人跟著你說話。

由于其精準的捕捉效果和實時化能力,F(xiàn)ace2Face在誕生之日起就引起了軒然大波。在其演示視頻下,無數(shù)網(wǎng)友質(zhì)疑這項技術將成為網(wǎng)絡詐騙、綁架勒索的幫兇,質(zhì)疑如果視頻電話的另一端,竟然不是你認識的那個人,那將會是多么恐怖的一件事。

當然了,F(xiàn)ace2Face目前是個封閉狀態(tài),用戶只能扮演其提供的角色嘗嘗鮮而已。但經(jīng)過了一年多的發(fā)展,直播中的臉部捕捉和替換技術也已經(jīng)大幅度提升。如今我們可以在直播平臺上看到實時替換的背景和道具,而利用AI在直播中進行臉部替換,也已經(jīng)是近在咫尺的一件事。

與之相配合的,是AI進行聲紋識別與聲音合成技術也在突飛猛進。比如Adobe在近兩年陸續(xù)發(fā)布了新的聲音合成技術。普通人用AI來進行柯南用蝴蝶結(jié)完成的換聲,已經(jīng)不是多困難的事情。

借助AI,直播中換臉和換聲正在同步向前跨越。那么帶來的影響會是什么呢?

雙頭人開播?川普坐在白宮辦公室里跟你連麥?某當紅小鮮肉在直播中跪著給你唱《征服》?沒問題,統(tǒng)統(tǒng)都可以。

有沒有很開心?當然,你跟直播平臺可能都開心了,小鮮肉卻不開心了。

而換個角度想想,假如同樣的技術運用在視頻電話里呢?假如你接到的親人/朋友的視頻電話,套取你的隱私或者跟你借錢,事后竟然發(fā)現(xiàn)是陌生人處心積慮偽造的。假如一個人可以徹底偽裝成另一個人,還會有人開心嗎?

當我們打開手機電腦,發(fā)現(xiàn)一切都不是真的。真是挺喪心病狂的一件事。

AI換臉并不難,由于多種應用場景的存在和超高的娛樂性,我們也很難阻止它的到來。于是真正該讓我們頭疼的,大概就是深藏其中的法律問題與倫理陷阱。

基本可以很靠譜的說,今天國內(nèi)外的很多直播與視頻平臺,都在研發(fā)直播換臉技術。并且某些解決方案已經(jīng)相當成熟。試想一下,換臉之后的當紅女神與小鮮肉,整晚開直播說一些迎合獵奇心理的話,禮物還不多到把平臺擠爆了?——即使用戶明知是假的。

當然,正規(guī)直播平臺大概不敢這么做,使用這種技術會非常克制。但是假如有第三方插件可以做這件事呢?或者在缺乏監(jiān)管的地下直播/半地下直播平臺上呢?畢竟利益和獵奇可以驅(qū)使人去做各種事情,技術的門檻一旦解禁,滾滾而來的法律問題很可能決堤。

這里隱藏的倫理陷阱,是肖像權(quán)這個東西可能會前所未有的復雜化。無論是明星還是普通人,大概都不希望被別人“易容”成自己的樣子來進行直播。

但問題是,你如何證明ta易容的是你呢?或者說你如何證明你是你?我們知道,肖像權(quán)是指你本人拍攝的圖像和視頻。但是用你的面部數(shù)據(jù)搭建起來的AI模型還屬于你的肖像權(quán)范疇嗎?

更困難的是,你根本無從證明AI搭建出來的肖像模型跟你有直接關系。畢竟深度學習訓練是在看不見的后端完成的,制作者大可以說是臆想出來,或者用跟你很像的人來搭建的。再或者只比你臉上多一顆痣,是不是就不是你了呢?

更復雜的倫理情況還有很多,比如一個人享有故去親人的肖像權(quán)嗎?假如一個人希望用AI來重現(xiàn)已故的親屬,與亡者進行視頻通話,但另一個親屬卻堅決認為這是違法行為,那么到底該聽誰的?

這還是基礎的倫理與法律矛盾,在這之外,是大把可以用AI換臉術進行的非法勾當。比如詐騙、勒索、誣陷等等等等。

總而言之,AI換臉術這件事在今天可以歸納為三句話:

一、火是肯定要火的。

二、亂是一定要亂的。

三、如何監(jiān)管,大概是不知道的。

哦對了,最后應該說一下如何防止別人做出你的AI換臉視頻:不要發(fā)太多自拍。

上一篇:阿里全球戰(zhàn)略“要上天” 宣布合作東航集團

下一篇:【公告】國美在線PC&WAP端 12.25-12.26 自營3C品類返利翻倍通知


聲明:本站部分信息來自互聯(lián)網(wǎng),轉(zhuǎn)載的目的在于傳遞更多信息及用于網(wǎng)絡分享,并不代表本站贊同其觀點和對其真實性負責,也不構(gòu)成任何其他建議。如果您發(fā)現(xiàn)網(wǎng)站上有侵犯您的知識產(chǎn)權(quán)的作品,請與我們?nèi)〉寐?lián)系,我們會及時修改或刪除