香港警方近日披露,一家跨國公司香港分部的職員受邀參加了一場總部的“多人視頻會議”,按領(lǐng)導(dǎo)要求匯款被騙2億港元,后發(fā)現(xiàn)多人視頻會議只有自己是真人;陜西西安從事財(cái)務(wù)工作的張女士在與老板視頻通話時(shí),被要求轉(zhuǎn)賬186萬元到一個(gè)指定賬號,見面后老板表示未與她進(jìn)行該視頻通話……近來,新型的視頻“AI換臉”詐騙案件出現(xiàn),警方經(jīng)過調(diào)查發(fā)現(xiàn),這些跟受害者視頻溝通的“同事”,全部是經(jīng)過“AI換臉”后的詐騙人員。
“AI技術(shù)的快速發(fā)展,特別是‘AI換臉’技術(shù)的出現(xiàn),不僅改變著我們的生活,也開始顛覆人們的認(rèn)知。就連一直被人們奉為圭臬的成語‘耳聽為虛,眼見為實(shí)’,也變成‘耳聽為虛,眼見也不一定為實(shí)’了。”南京航空航天大學(xué)計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院/人工智能學(xué)院副教授李博涵告訴科普時(shí)報(bào)記者。
基于動態(tài)視頻的“AI換臉”詐騙,技術(shù)上是怎么實(shí)現(xiàn)的?
“其實(shí)只需一張目標(biāo)人物的臉部照片,導(dǎo)入到AI軟件就可實(shí)現(xiàn)。”李博涵說,“AI換臉”技術(shù)的原理在于將預(yù)先訓(xùn)練好的深度學(xué)習(xí)模型應(yīng)用于人臉識別和替換。這些模型基于大量的人臉數(shù)據(jù)進(jìn)行特征標(biāo)注和生成訓(xùn)練,通過檢測和提取源視頻中的人臉,模型就可以將目標(biāo)人臉嵌入到源視頻中,然后合成逼真的新視頻場景。
電科網(wǎng)安AI團(tuán)隊(duì)負(fù)責(zé)人吳杰告訴記者,雖然AI處理換臉的過程瞬間就可完成,但在技術(shù)層面上也包括人臉位置檢測與追蹤、人臉特征抽取等多個(gè)步驟。
隨著Sora的問世,技術(shù)上已經(jīng)可以用更少的人臉數(shù)據(jù),構(gòu)造出高逼真的特定人臉模型。“AI技術(shù)發(fā)展已經(jīng)讓‘換臉’的門檻變得越來越低,這肯定會導(dǎo)致深度偽造內(nèi)容更加泛濫,進(jìn)而增加被用于違法活動的風(fēng)險(xiǎn)和隱患。”李博涵說。
那么,我們又該如何防范呢?
吳杰提醒,首先要謹(jǐn)慎對待陌生鏈接與視頻要求,切勿輕易點(diǎn)擊或提供個(gè)人信息。此外,個(gè)人信息安全是防范“AI換臉”詐騙的關(guān)鍵,要強(qiáng)化對人臉、聲紋等生物特征數(shù)據(jù)防護(hù),不要過度公開或分享動圖、視頻等含有這些信息的資料。“如果實(shí)在無法避免,那么在視頻對話時(shí),我們可以要求對方在臉部前方進(jìn)行揮手等動作,以觀察其面部是否存在異常情況,也可以問一些只有對方知道的問題,以確保對方身份的真實(shí)性。”
當(dāng)然,完全依靠公眾自己來判斷真?zhèn)慰隙y以杜絕詐騙的發(fā)生。吳杰介紹,“‘用AI打敗AI’是應(yīng)對這一問題的技術(shù)趨勢。”目前在技術(shù)防范層面,主要是通過加入不可見水印等方法進(jìn)行主動防御,以及用AI分析唇部運(yùn)動、圖像重建放大偽造痕跡等進(jìn)行被動檢測。