随着AI技術的發展,變臉、拟聲的深度僞造現象也随處可見。一些人利用這樣的先進技術,實施針對老年人的詐騙。有哪些AI新型詐騙方式?如何防範?一起了解。
AI變臉拟聲 新型技術針對老年人實施詐騙
9月1日,北京大學國家發展研究院教授李玲釋出了一份公開聲明,稱“近期網上出現了大量假冒本人推銷醫藥書籍和治療手段的虛假視訊,大多是人工智能AI合成。本人從未在任何平台推銷過醫藥書籍和醫療産品,請大家不要上當受騙”。
随後,李玲教授向警方報警。
北京大學國家發展研究院教授 李玲:我覺得這個,不僅損害我的利益,更多的其實是損害了公衆的利益。因為老年人更關注健康,會實施一些養生的方法、治療的方式。是以特别希望我們老年朋友們一定要識别,要看清楚,你買他的東西,他是不是這一行的專家?像我是搞政策的,這個治療,我不是行家,不會推薦的。
除了賣東西給老年人,更可怕的,還有利用這種深度僞造的技術,實施針對老年人的詐騙。
武漢市警察局漢陽分局琴斷口派出所民警接到轄區銀行報警,稱先後有兩位老人,要求提前支取定期存款,疑似遭到了詐騙。而兩位老人并不認識,隻是碰巧在同一個銀行取錢。
武漢市警察局漢陽區分局琴斷口派出所民警 胡楚文:肖婆婆接到電話,說她上大學的孫子跟别人起了沖突,把對方打傷了,現在正在派出所調解。楊爹爹接到電話,說他的孫子,在路上出了交通事故,需要跟對方私了,因為擔心影響後面的工作。
民警向老人解釋了AI詐騙的套路,老人都聲稱,電話裡的聲音和自己的孫子一模一樣。經民警聯系家屬确認,兩位老人的孫子,并沒有電話裡的情況發生。
武漢市警察局漢陽區分局琴斷口派出所民警 胡楚文:目前這兩個案例,已經非常充分說明,現在的AI技術已經可以模拟聲紋、人的面容,是以你所看到的、聽到的,都不一定是真的。
還有更極端的事情。一位母親正和女兒視訊聊天,女兒在視訊裡抱怨“生活費不夠用了”,就在這時,家門打開了,她的“真女兒”走了進來。而另一頭,視訊裡的“假女兒”還在央求母親“給生活費”。
加強治理 幫助老年人防範新型詐騙
在利用新技術進行的新型詐騙中,老年人是弱勢群體。他們分辨力低,但平時也離不開手機的使用。如何幫助老年人防範這樣的陷阱,也成為大家關心的問題。
在上海和平公園,虹口公安分局民警為現場老年人講解了目前常見的投資理财詐騙、網絡貸款詐騙等電信網絡詐騙手段。
在遼甯大連,一場包含AI互動、反詐宣傳、知識科普等主題的反詐宣傳活動也吸引了不少老年人前來,沉浸式學習預防電信網絡詐騙犯罪的相關知識,提升防騙能力。
9月8日開幕的2024年國家網絡安全宣傳周上,就專門設定了關于AI換臉、換聲等對個人隐私侵害的反詐宣傳展位。
中國網絡空間安全協會人工智能安全治理專業委員會委員 張博:除了換臉之外,如果再結合換背景環境、換聲音等等,那樣逼真度就會更高,更加難以分辨。
近幾年,大陸對于規範人工智能生成、合成、使用上一直在采取積極措施。
- 2022年12月,國家網信辦等三部門釋出《網際網路資訊服務深度合成管理規定》,旨在加強網際網路資訊服務深度合成管理。
- 2023年7月,國家網信辦等七部門聯合公布《生成式人工智能服務管理暫行辦法》,在鼓勵創新與發展的同時,進一步完善人工智能管理體系。
- 2024年7月,國家金融監督管理總局金融消費者權益保護局釋出風險提示,提醒公衆防範“共享螢幕”“AI換臉拟聲”等新型電信網絡詐騙。
- 2024年9月14日,國家網信辦釋出《人工智能生成合成内容辨別辦法(征求意見稿)》。
《人工智能生成合成内容辨別辦法(征求意見稿)》中提出:
- 人工智能生成合成内容辨別包括顯式辨別和隐式辨別。
- 網絡資訊服務提供者在提供生成合成内容下載下傳、複制、導出等方式時,應當確定檔案中含有滿足要求的顯式辨別。
來源:央視新聞 編輯:牛中振