近日,一段張文宏直播帶貨的視頻在網上引起廣泛關注,視頻中“張文宏”正在直播間出售一款蛋白棒。隨后,張文宏本人通過媒體公開表示,自己“被AI”了。
記者了解到,AI合成視頻近來有愈演愈烈之勢,通過AI合成技術假冒名人的事例時有發生,比如前不久的假靳東詐騙案、假小米CEO雷軍辣評、假黃百鳴代言等。應用AI合成技術的法律邊界在哪?一旦被侵權,當事人應當如何保護自己?相關監管又該如何跟上?記者專門采訪了有關專家和一線司法人員。
AI合成技術應用門檻降低
“如今眼見真的不一定為實。”一位AI合成技術從業人士告訴記者。最初,AI合成技術被應用在生成圖片、音頻上,慢慢地,AI合成技術滲透到了短視頻制作以及直播領域;隨著人工智能技術的發展,AI合成技術應用門檻一再降低,只需要一張照片、一段音頻,任何人都可以造出一個他想要模仿的樣子。
“AI合成人像可能會侵犯公民的肖像權、名譽權和隱私權,具體需要結合實際情形來認定。”華東政法大學刑事法學院教授、博士生導師,華東政法大學經濟犯罪與刑民一體化研究所所長張勇向記者介紹道,認定AI合成內容是否構成侵犯肖像權,關鍵在于是否經過被合成者的授權。法律保護個人肖像權,他人未經同意不得使用。若AI合成的他人肖像未經當事人同意,且該合成內容被用于商業或公開場合傳播,可能構成侵犯肖像權。同時,我國民法典明確將聲音權益作為特殊的人格權益予以保護。民法典第1023條規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。
“如果AI合成的他人形象或聲音被用于虛假、惡意或誤導性的內容,導致公眾對該人物產生負面評價或誤解,進而影響其名譽,則可能構成侵犯名譽權。”張勇說,模擬明星音樂風格,制作“翻唱”作品,還可能導致侵犯著作權等民事糾紛。
除了可能引發民事侵權糾紛,AI合成人臉或聲音的技術,也可能被不法分子利用,成為犯罪的“幫兇”。浙江省杭州市蕭山區檢察院檢察官章蕾結合辦理的案件告訴記者:“‘AI換臉’等深度合成技術被廣泛應用后,一些不法分子利用從互聯網等渠道收集到的他人人臉信息等敏感個人信息,制作成虛假的換臉視頻在網絡平臺進行傳播售賣,不僅可能侵犯公民個人信息,威脅公共信息安全,而且極易引發電信網絡詐騙、敲詐勒索、虛假宣傳等多種關聯違法犯罪,給不特定群眾的人身財產安全帶來重大隱患。”
“被AI”后維權面臨取證難
就被AI冒名一事,張文宏在接受央視采訪時回應道:“除了向平臺方投訴,也曾考慮向公安機關報案,但對方賬號不斷變化,只能寄希望于相關部門加強監管。”記者了解到,實踐中,當事人遭遇AI合成技術侵權時,維權路上遇到的最大障礙就是“取證難”。
“侵權方的匿名性、隱蔽性等特點,給受害方取證帶來不小挑戰,不僅關乎時間成本,甚至可能耗費巨大的人力財力等資源。為此,部分受害方遇到該情況往往會迫于無奈,放棄以訴訟方式維權。”章蕾說。
即便對于司法辦案機關來說,證據也是個難啃的“硬骨頭”。章蕾介紹,在司法實踐中,AI合成類案件調查取證難度較大。一方面,辦案人員需要對信息處理者、處理方式、信息獲取、信息處理加工是否違法等進行舉證,需要同時具備精通數據處理、算法、證據固定方式等方面的能力,從而證明侵權違法事實的存在;另一方面,利用AI合成技術從事違法犯罪行為往往通過網絡渠道進行,而網絡犯罪具有高度隱蔽性,如果犯罪分子反偵查能力較強,那么犯罪鏈條將異常復雜、涉及面更廣,給案件偵破、證據收集固定帶來較大難度。
“同時,與AI合成技術快速發展不相匹配的是,目前鑒定AI合成作品的技術水平還不高,鑒定難度大,且沒有統一的鑒定標準。”北京市豐臺區檢察院二級檢察官助理王喬補充道。
盡管對AI合成內容的取證存在困難,但司法機關并未就此止步,而是積極完善證據審核鏈條。據一位從事電子證據審查的業務專家透露,目前司法領域正在使用圖像真實性鑒定等方法對AI合成技術生成的視頻進行鑒定,同時組合使用多種鑒偽算法識別AI合成內容,鑒別相應的內容是否由AI生成,為破解AI合成技術侵權提供了技術支持?!?strong> 把AI合成技術關進制度的籠子里
“AI合成技術并不能因為可能存在侵權風險就按下否定鍵,在允許其發展的前提下,明確技術應用邊界顯得尤為重要。”張勇說。
記者了解到,2022年11月25日國家互聯網信息辦公室、工業和信息化部、公安部聯合公布的《互聯網信息服務深度合成管理規定》明確,不得利用深度合成服務從事法律、行政法規禁止的活動,要求深度合成服務提供者要落實信息安全主體責任。2023年7月,國家網信辦聯合多部門再次推出《生成式人工智能服務管理暫行辦法》,對生成式人工智能產業的法律邊界,作出了列舉式規定。2024年9月,國家網信辦公布了《人工智能生成合成內容標識辦法(征求意見稿)》以及配套強制性國家標準《網絡安全技術 人工智能生成合成內容標識方法(征求意見稿)》,公開征求公眾意見……這表明,我國對人工智能生成合成行為的法律規制在不斷完善。
張勇建議,在織密制度籠子的同時,要加大普法宣傳力度,讓更多AI合成技術應用者知道哪些方式可能觸犯法律,在應用AI合成技術時要依法依規進行。通過有針對性的宣傳教育,提醒公眾自覺保護人臉、指紋、聲音等個人信息,促使公眾更好防范人工智能技術不當應用帶來的潛在法律風險。
章蕾提醒,公眾要增強防范意識,不要輕信求助的語言或視頻。一旦遭遇AI侵權或不法分子利用AI合成技術詐騙時,對于觀看或者接收的視頻要做好截屏等信息留存,積極尋求家人或者社區的支持幫助,通過報警、向相關部門投訴、尋求法律援助等方式維護自己的合法權益。
“平臺方面要加強責任意識,對于上傳的AI合成內容進行嚴格審查,確保這些內容不含虛假信息、誤導消費者或侵犯他人權益。此外,當侵權行為發生時,平臺方要立即下架問題內容,及時阻斷問題內容的進一步傳播。對于傳播問題內容的賬號,也應采取封號等措施,及時固定侵權證據。”張勇說。
這一觀點也得到其他幾位受訪者的贊成。他們表示,平臺要充分利用自身的數據資源優勢,為權益受到侵害的當事人維權提供證據支持,配合司法機關依法懲治不法行為,這既是平臺的法律責任,也是平臺的社會責任。
標簽: