天天看點

張平:“AI競賽”加劇安全風險需要分層治理 | 學者評論

作者:上海法治報

【作者】張平,北京大學法學院教授、博導,北京大學人工智能研究院雙聘教授,北京大學武漢人工智能研究院副院長,中國科學技術法學會常務副會長兼秘書長,中國法學會知識産權法學研究會副會長。

今年3月,又一則關于AI安全與治理的行業共識達成,包括圖靈獎得主約書亞·本吉奧、傑弗裡·辛頓、姚期智等在内的數十位的中外專家在北京聯合簽署了《北京AI安全國際共識》(以下簡稱“《北京共識》”)。自2022年末,以ChatGPT為代表的生成式AI 技術快速崛起,掀起産業界的新一輪科技革命的同時,也引發了全球範圍對于其安全風險的深切擔憂。2023年3月,美國生命未來研究所(Future of Life)釋出了一封《暫停大型人工智能研究》的公開信,呼籲所有AI實驗室立即暫停比ChatGPT 4.0更強大的AI系統的訓練,暫停時間至少為6個月,以呼籲在此期間各國能共同制定全球範圍内相關的技術共享安全協定。此後的一年時間中,世界各國政府、學界、企業界均從各自角度出發提出應對AI安全風險的各類解決方案。無論是聯合國最新通過的首個關于AI的全球決議,抑或28個國家及歐盟共同簽署的《布萊切利宣言》、大陸提出的《全球人工智能治理倡議》,以及歐盟最新立法《歐盟人工智能法案》(草案),均強調AI的治理應當重視安全風險,無底線運用AI将會給人類社會帶來毀滅性危機。

AI安全風險治理是一項綜合性工作,應當分層級、分領域、分階段、分重點開展。具體而言,“人類安全——國家安全——個體安全”這三個次元的潛在安全風險都不容忽視,應予重點關注,三層風險的解決方案也應“對症下藥”。

“人類安全”即從全人類角度出發,強調AI技術應以尊重人類權益為前提,其目标應是為人類服務而非取代甚至危害人類。其核心要點即AI技術應當“以人為本”和“科技向善”,打造“可信”人工智能(Trustworthy AI)。這其中主要涉及AI相關倫理風險,如深度僞造(Deepfake)、真實性與準确性、歧視與偏見、AI欺詐等。而這些問題的解決之道主要涉及兩方面措施,不僅在AI研發開始就需要“人類幹預”和“人類監督”,也即《北京共識》中所強調的“任何AI系統都不應在人類沒有明确準許和協助的情況下複制或改進自身”;另一方面,還需保證相關“人類參與”是“善意和正确的”,即需要保障AI研發過程中的透明度和監督機制。AI猶如利刃,若是被邪惡或帶有毀滅人類意圖的人利用幹預,則會成為“殺傷性武器”。故而,AI的發展首先要進行科技倫理審查和承諾,這不僅需要來自技術領域的專家參與,還需要社會科學、人文科學等多領域專家的共同治理和監督。實踐中,監管機構可以通過設立标準化評測平台、評估架構或采用沙盒測試等進行AI技術的監管。

“國家安全”即從各國角度出發,保障各國在這場“AI競賽”中權利平等、機會平等、規則平等,彌合智能鴻溝和治理能力差距。其重點是保障各國在AI的發展和治理過程中擁有平等的權利,不會被“智能鴻溝”淘汰。首先應認識到,不同國家有其不同的立場和利益考量。例如,美國作為已擁有先進AI産品的“領先者”,其目的是確定不喪失領先地位。但對于大多數開發中國家而言,“國家安全”的重點是“防守”,即不被數字鴻溝所淘汰。因而,在目前發展不平衡的格局之下,有必要倡導“人類命運共同體”的理念,應當從地球村的利益出發,本着互助互利精神給欠發達國家留有一定的發展空間。

“個體安全”則是從宏觀視角的群體概念轉向關注AI對個體權益的影響。其中最突出的問題便是AI應用對個人隐私安全的影響,AI訓練資料對個人知識産權的影響、AI欺詐對個人财産安全的影響、AI替代人類部分工作引發的群體性失業風險等。例如,作者們已經在全球範圍内開始了對Open AI、Stability AI、DeviantArt和MidJourney等生成式AI服務提供者的訴訟,指控其訓練資料侵害了他們的版權。目前各方主要關注的還是前兩層風險,而對于“個體安全”則需要各國監管機構、AI服務提供者、AI服務使用者多方合力共治。例如,微軟公司已在其Azure AI Studio中推出新工具,并且在AI Studio中推出了AI輔助安全評估、風險和安全監控功能,旨在加強AI模型的安全性。

資料顯示,在2023年,基于AI的深度僞造欺詐暴增了3000%,基于AI的釣魚郵件數量增長了1000%,已有多個有國家背景的黑客組織利用AI實施了十餘起網絡攻擊事件。生成式AI的安全威脅正在急劇增長。而已經出現的大模型幻覺問題,随着資訊智能大規模應用延伸至實體智能、生物智能時,風險也會規模化疊加。故而,無論是《暫停大型人工智能研究》還是《北京共識》,這些來自科學家的呼籲雖然不具有法律強制性,但卻為世界敲響了警鐘。在這場如火如荼的“AI競賽”中,各方需要保持冷靜與克制,加強對AI安全風險的重視,警惕在未做好充分的安全評估和保障之前釋放“猛獸出籠”。

張平:“AI競賽”加劇安全風險需要分層治理 | 學者評論

(原文刊載于《上海法治報》2024年4月10日B3版“學者評論”,執行編輯|朱非,責任編輯|徐慧)