天天看點

花十元就能讓照片開口“說話”?專家提醒來了!

作者:法治雁塔

  AI換臉實施詐騙、AI翻唱明星歌曲、AI“複活”逝者……随着AI技術的不斷發展,在網上“克隆”他人的容貌、聲音已非難事,相關糾紛也屢見不鮮。

  前不久,北京網際網路法院一審開庭宣判全國首例AI生成聲音人格權侵權案,明确認定在具備可識别性的前提下,自然人聲音權益的保護範圍可及于AI生成聲音。AI生成聲音可識别性的認定應綜合考慮行為人使用情況,并以相關領域普通聽衆能否識别作為判斷标準。

  接受記者采訪的專家認為,對于AI技術的研發和應用,需在保護個人權益的基礎上進行。應提高AI技術的安全性和可靠性,防止聲音被非法擷取和使用;還要加強行業自律,建立完善的監管機制,規範AI技術的使用行為,確定AI技術循着以人為本和技術向善的理念發展。

語音合成以假亂真

冒充熟人實施詐騙

  記者在多款AI軟體中搜尋發現,有不少模仿知名藝人聲音的情況。去年,“AI孫燕姿”翻唱《發如雪》等歌曲,迅速走紅網絡,多平台播放量破百萬,熱度居高不下。之後又出現一批其他“AI歌手”,其中不乏已故歌手的AI。随後,大批AI翻譯作品湧現,如郭德綱用英語說相聲等。

  據了解,“AI孫燕姿”使用的核心技術來源于Sovits4.0模型。它是基于AI技術的免費學唱軟體,使用者隻需輸入歌詞和曲調,就可以精準模拟人聲,自動生成一首翻唱歌曲。

  記者在某短視訊平台搜尋發現,關于此類技術的學習教程不在少數。有業内專家指出,目前,通過AI技術,可以實作對圖像、聲音、視訊的篡改、僞造和自動生成,産生以假亂真的效果,一些不法分子很可能利用這類技術實施違法犯罪行為,危害社會公共利益。

  其中,最為常見的手法是冒充熟人實施電信詐騙。不久前,江蘇句容的楊女士在收到自己“女兒”多條要求繳納報名費的語音後,向騙子賬戶轉賬3.5萬元。對此,辦案民警反複提醒:“遇到轉賬一定要慎之又慎,眼見不一定為實。”

  “自然人的聲音也是人格權的一種,受民法典保護。任何人不得醜化、污損或者僞造他人聲音,更不可以未經本人許可,模仿他人聲音獲利。”北京市京師律師事務所律師許浩說。

  許浩介紹,和著作權不同,自然人的聲音有獨特性,在音色、語調以及發音風格等多元度,可識别性較強,使用人工智能工具對其加工,并進行傳播獲利,則構成對人格權的侵權。

  “特定人的聲音可以産生一定經濟價值的屬性,被侵犯不僅會造成人格損失,更可能造成經濟損失。”北京京本律師事務所主任連大有說,但實踐中這類案件通常面臨維權難的困境,存在驗證難、舉證難、認定難等問題。

未獲得權利人同意

擅自使用構成侵權

  AI“複活”逝者也是頗受争議的話題之一。

  記者在某電商平台上看到,不少網店專門從事AI“複活”逝者的生意,稱可以“讓動态照片開口說話,修複合成微笑定制懷念視訊”,一般标價為10元。但産品詳情頁中寫道,拍前請與客服溝通需求,具體價格根據難易程度決定。

  客服介紹,簡單地讓照片動起來隻需幾十元錢,稍微複雜點有表情的要上百元。如果需要采用AI換臉技術,根據相似度不同,價格在幾百元至上萬元不等,其聲音、相貌的相似度可達95%以上。

  據了解,AI“複活”逝者是基于大資料分析、語音合成、機器學習等先進技術,通過對逝者生前的文字、音頻、視訊資料進行深度學習,創造出與其音容笑貌極為相似的虛拟形象。

  在中國政法大學傳播法研究中心副主任朱巍看來,是否獲得權利人的合法授權,是判定是否構成聲音權益侵權的關鍵。近年來,AI語音合成技術的應用日益普遍,但編輯、使用某一自然人的聲音,需要當事人單獨同意。如果當事人已經去世,應當獲得相關權利人的授權,但此舉也有可能引發倫理問題。

  朱巍認為,所謂的“複活”,本質上是利用深度合成技術生成所謂的虛拟人或者數字人,需要使用逝者的人臉、聲音等各種資料,配合自己的目的制作相應的内容。如果行為人為了悼念目的,“複活”自己的親人,原則上不構成侵權,但若是出于營利、博眼球、詐騙等違法目的,則可能構成侵權,甚至是刑事犯罪。

  “如歌迷、粉絲出于對已故偶像的喜愛,用AI技術複活偶像,這種行為涉嫌違法。”連大有說,根據民法典第九百九十四條,死者的姓名、肖像、名譽、榮譽、隐私、遺體等受到侵害的,其配偶、子女、父母有權依法請求行為人承擔民事責任;死者沒有配偶、子女且父母已經死亡的,其他近親屬有權依法請求行為人承擔民事責任。

  連大有說,利用技術“複活”死者的行為還可能涉及知識産權問題,如“複活”已故偶像,往往會使用相關的歌曲、影視、著作等知識産權。相關的知識産權可能屬于其他公司、企業等,也需要獲得其授權才能使用。

明确侵權賠償責任

制定技術标準規範

  對于AI語音合成技術背後的侵權風險,相關部門和網絡平台已着手監管和規範,嘗試在技術發展和法律保障之間達到平衡。

  2022年11月,國家網信辦等部門釋出《網際網路資訊服務深度合成管理規定》,要求任何組織和個人不得利用深度合成服務制作、複制、釋出、傳播法律、行政法規禁止的資訊;可能導緻公衆混淆或者誤認的,應當在生成或者編輯的資訊内容的合理位置、區域進行顯著辨別。

  2023年7月,國家網信辦等部門釋出《生成式人工智能服務管理暫行辦法》,此舉标志着生成式AI有了專門性行政法規。

  該辦法第七條規定,生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練資料處理活動,要求必須使用具有合法來源的資料和基礎模型;涉及知識産權的,不得侵害他人依法享有的知識産權;涉及個人資訊的,應當取得個人同意或者符合法律、行政法規規定的其他情形;采取有效措施提高訓練資料品質,增強訓練資料的真實性、準确性、客觀性、多樣性。

  2023年9月,科技部等10部門印發的《科技倫理審查辦法(試行)》,列出了需要開展倫理審查複核的科技活動清單,其中就包括具有社會動員能力和社會意識引導能力的算法模型、應用程式及系統研發等。

  與此同時,相關平台也在嘗試加強治理。2023年5月,抖音釋出關于人工智能生成内容的平台規範暨行業倡議。對于創作者、主播、使用者、商家、廣告主等平台生态參與者在抖音應用生成式人工智能技術提出要求,對于違規使用AI技術的行為,一經發現,平台将嚴格處罰。

  連大有認為,AI領域的法治化仍有進一步細化的空間。可加快人工智能方面的法律供給,推動國家層面生成式人工智能規範的确立。對已有案例出現的疑難法律問題,要通過學術讨論和司法實踐,逐漸形成共識,總結确立法律适用規則。

  “在AI技術不斷發展的背景下,要更加注重保護個人隐私和聲音權益,同時也要規範AI語音合成技術的應用範圍和使用方式。”許浩認為,對于相關的公司和個人來說,應當加強對于AI技術的了解和應用,遵循法律法規和行業标準,避免侵犯他人權益。

  朱巍呼籲,技術供應方應當重視技術倫理問題,制定統一的技術标準和規範,確定技術應用有底線。在法律監管方面,提升防控措施的精準性、透明性和穩定性。

  連大有建議,在司法實踐中,要進一步細化相關法律規定,明确聲音權的範圍、侵權行為的認定标準以及賠償責任、承擔方式等。同時,還要加強宣傳教育,提高公衆對聲音權的認識和重視,營造全社會共同維護聲音權的良好氛圍。

來源:中國普法

繼續閱讀