近日,“某科技公司老板遭遇AI換臉詐騙”一事引發網友熱議。
據報道,當事人突然接到好友的微信視頻,經過短暫聊天,好友開口借錢。基于視頻聊天及信任對方的前提下,他毫無懷疑把錢轉了過去,沒想到卻是不法分子通過AI換臉技術,佯裝好友進行詐騙。
(資料圖)
魔幻一幕令人吃驚,但這并非AI換臉第一次作惡了。
除了詐騙錢財,此前還有女子被人利用AI“一鍵脫衣”造黃謠,某男子利用視頻合成技術,將電視劇中與某知名女星親吻的男主角換成自己以蹭流量,效果都到了以假亂真的地步。如上案件細節不盡相同,但無不直觀展示了一些人利用AI作惡的可怖之處。
10分鐘內被騙430萬元
AI換臉被用于詐騙
近日,“平安包頭”公眾號發布一起利用人工智能(AI)實施電信詐騙的典型案例。
“平安包頭”的警情通報顯示,4月20日中午,郭先生的好友突然通過微信視頻聯系他,稱自己的朋友在外地競標,需要430萬保證金,且需要公對公賬戶過賬,想要借郭先生公司的賬戶走賬。
基于對好友的信任,加上已經視頻聊天“核實”了身份,郭先生沒有核實錢款是否到賬,就分兩筆把430萬轉到了好友朋友的銀行卡上。
事后,郭先生撥打好友電話才知道被騙,原來騙子通過智能AI換臉和擬聲技術,佯裝好友對他實施了詐騙。
AI換臉冒充女星帶貨
網上還有相關教程
AI換臉除了被用于詐騙,還經常出現在直播帶貨中。
近日,有網友點開直播間,發現正在賣貨的竟是當紅女星。然而再定睛一看,這些帶貨“明星”很快露出了馬腳——身穿中式服裝,正在賣力帶貨的“明星”們,其實只是使用了AI實時換臉技術的普通主播。
利用人工智能(AI)手段為視頻中的人物“換臉”,這項技術已經發展到可以實時動態修改直播畫面。
記者在網上瀏覽相關AI換臉直播教程發現,這些教程通過視頻、文章等形式傳播,并提供換臉直播工具的下載渠道。有的需要付費,有的通過點贊、關注、評論就能獲取。
教程發布者聲稱實時變臉軟件可以幫助用戶輕松變臉,打造特效直播間,極大地助力引流賣貨。同時他們表示有很多模型可供選擇,這些模型用中外明星藝人、影視角色或政商名人的名字命名。
在一個展示換臉直播效果的視頻中,使用者把名為“成龍”的模型載入相關軟件后,攝像頭前的人在直播畫面中就有了與成龍相似的五官,但臉型和發型還保持原樣。記者發現,使用者歪頭或變換表情時,五官動效切換得自然順滑,只有手掌從臉前劃過時,出現了比較明顯的破綻。
△發布者展示“換臉”為“成龍”的實時效果和軟件界面(視頻截圖)
北京岳成律師事務所高級合伙人岳屾山律師表示,換臉直播用于公開傳播可能涉嫌侵犯相關明星藝人的肖像權。如果涉及直播帶貨等商業行為,會成為加重情節。
在知名藝人工作室從事宣傳工作的袁女士表示,擔心相關技術被用于推銷假冒偽劣產品,損害消費者權益,也影響藝人的形象。
△發布者展示實時“換臉”效果(視頻截圖)
記者注意到,一些使用換臉技術的直播并不會直接提到相關明星藝人的名字,但也不會主動聲明或者否認。
岳律師認為,這個行為涉嫌欺詐或是虛假宣傳,讓公眾誤以為就是明星在帶貨。如果貨品本身質量不好,或者主播在帶貨過程中說的話或一些行為導致公眾對被換臉的明星產生負面評價,明星可以主張名譽權的侵權責任。
近期,已經有平臺和企業發布了“關于人工智能生成內容的平臺規范暨行業倡議”,明確禁止利用生成式人工智能技術創作、發布侵權內容,包括但不限于肖像權、知識產權等,一經發現,平臺將嚴格處罰;同時還提出“發布者應對人工智能生成內容進行顯著標識,幫助其他用戶區分虛擬與現實”“發布者需對人工智能生成內容產生的相應后果負責”等要求。
岳律師建議,平臺可以更加主動地識別相關內容,作標簽化的處理,從而限制侵權行為。
技術濫用風險在加劇
為了規范人工智能發展,尤其是規避AI換臉帶來的系列問題,去年12月,《互聯網信息服務深度合成管理規定》正式發布,對數據和技術管理規范進行了明確。
比如,關于授權同意的原則提到,深度合成服務提供者和技術支持者提供人臉、人聲等生物識別信息編輯功能的,“應當提示深度合成服務使用者依法告知被編輯的個人,并取得其單獨同意”。
簡單來說,這些技術服務公司,不能隨便使用普通人的人臉來換臉,必須經過本人同意,換臉不是想換就能隨便換,也不是騙子給錢就能隨便換。如果就此案深挖下去,不排除能揪出一條非法利用人工智能技術的黑產業鏈。
當然,人工智能開發還是一個高速成長的領域,規則的健全完善還需要時間。但不管怎么說,此次案件都提醒我們,技術被濫用的風險,對普通人造成的安全隱患和威脅,絕對不容低估。
對大眾來說,在人工智能時代,我們得更加警惕,不要隨意泄露個人信息,需要轉賬時應更加謹慎地核實。而對行業而言,必須盡快立規,明確信息保護紅線,加強對技術服務商行為的規范引導,等等。
只有AI換臉、AI擬聲等在每一個環節有據可依、嚴格授權,提升造假詐騙難度,才能更好地保護每個人的信息和財產安全。
標簽: