(相關資料圖)
眼見耳聽也不一定為真!近期,利用人工智能(AI)換臉換聲詐騙的典型案例沖上熱搜,引發了社會對于AI新型詐騙的關注與警覺。
伴隨著AI技術應用的逐步成熟以及應用門檻的降低,通過換臉換聲以假亂真實施詐騙成了不法分子作案的新趨勢。AI新型詐騙就是喬裝后的“狼外婆”,詐騙團伙如同一只只變色龍在人群中悄然潛伏,搜集個人隱私數據和行為習慣。待到作案時機成熟,便采用人工智能技術將自己的形象置換成受害人身邊熟人,連聲音也模擬得惟妙惟肖。騙子披上數字偽裝后,受害者難以辨別對話對象的真偽,被假象蒙蔽,造成個人財產的損失。
AI新型詐騙手段極具迷惑性,對公眾的防范意識提出了更高的要求,視頻驗證的方式已不再萬無一失。這提醒我們,個人反詐意識需要與AI技術的發展同步升級。
在日常生活中,除了要注意個人信息保護,不輕易提供人臉、指紋等個人生物信息給他人,不過度公開或分享動圖、視頻外,還要增強網絡信息的全渠道核實意識。尤其是涉及財務往來,僅從網絡渠道核實容易掉入騙子的圈套,務必要通過電話、見面等多渠道核實確認無誤后再進行轉賬。如不慎被騙或遇可疑情形,請注意保護證據立即報警。
除了公眾個人的防范,政府和技術監管部門也應當加強對人工智能技術的監管,提出針對AI新型詐騙的有效應對措施。國家互聯網信息辦公室近期發布的《生成式人工智能服務管理辦法(征求意見稿)》對數據合規性、生成內容合法性提出進一步要求。對于社會中出現的技術濫用問題,需要進一步制定更加嚴格的法律法規來規范,如明確劃定違法行為的責任和懲罰措施,以及提出維護公民隱私和安全的具體措施。
科技企業也理應加強內部監管,技術研發方面需要加強自律和倫理規范。在對外輸出AI技術應用時,須遵循道德和法律的底線,確保技術的合法使用。主動配合相關部門,和社會各界加強合作,共同打造一個安全可靠的AI技術生態,加強跨領域的合作與交流,共同研究和應對技術的潛在風險。同時,加強投資和支持安全技術的研發,共同打擊AI換臉和換聲技術濫用行為,為行業健康有序發展付出努力。
加強公眾的防騙意識和教育也是非常重要的一環。公眾需要進一步了解AI換臉和換聲技術的原理和風險,提高對網絡詐騙和個人信息安全的警惕性,培養大眾的科技素養,不輕易相信和傳播AI生成式等未經證實的信息。(本文來源:經濟日報 作者:張 倩)
標簽: