導讀
2021年5月,歐洲議會準許通過了《人工智能法案》草案,此為全球首個人工智能法案,旨在制定在歐盟範圍内統一的人工智能治理體系。該法案充分考慮了當時人工智能的技術水準,并由此确立了以風險為基準的人工智能治理架構。
然而,以ChatGPT為代表的生成式人工智能的問世,标志着人工智能技術的發展已經進入到一個新的階段。鑒于生成式人工智能濫用帶來的資料洩露、虛假資訊等風險,歐盟亟需修訂《人工智能法案》,以加強對生成式人工智能的監管。
背景圖:Pixel★文章作者:斯科特·馬庫斯(Scott Marcus),比利時布魯蓋爾研究所(Bruegel)資深研究員
正文
生成式人工智能的未來不可估量,但我們依然不可忽視其潛在風險,其中包括:
(1)通過制造虛假資訊(例如深僞技術、假新聞)來操縱輿論;
(2)歧視少數族裔和弱勢群體;
(3)如果生成式人工智能的訓練資料存在某種程度的偏見或者歧視,那麼在使用生成式人工智能的過程中會進一步放大此種負面效果;
(4)唆使使用者從事非法活動;
(5)取代某些職業,導緻失業率上升;
(6)存在“人工智能幻覺”,即編造令人信服的錯誤資訊;
(7)推動算力需求迅速增長,進而加速能源消耗;
(8)淪為犯罪分子實施犯罪的工具;
(9)盜竊受版權保護的資訊。
針對上述潛在風險,我們有必要對生成式人工智能的基礎模型進行更深入的研究。
在通常情況下,生成式人工智能的所有基礎模型接受的均是“無監督學習”的訓練,即使用無标記的資料來訓練模型,讓模型自動去尋找資料中隐藏的關系或者規律。這表明生成式人工智能基礎模型的能力要遠大于其紙面能力。
完善對生成式人工智能的監管
《人工智能法案》是根據人工智能模型的預期用途進行風險等級劃分的。該做法在很大程度上反映了歐盟産品責任立法的一貫做法,即隻有在産品用途明确的情況下,才能夠對産品進行責任立法。然而,基礎模型具有許多潛在用途,其帶來的風險也必須重視。
對此,歐洲議會要求基礎模型研發者評估其産品的潛在風險,具體建議如下:
第一,基礎模型研發者即使無法确定模型的所有潛在風險,他們也應當注意到某些風險向量。
例如,美國人工智能研究公司(OpenAI)了解GPT-4存在語言偏差的問題,因為其訓練資料主要以英語為主。在此情況下,基礎模型研發者應當聘請外部專家就識别和減輕潛在風險提供對策建議。
第二,基礎模型作為下遊人工智能模型的參照物,是以基礎模型研發者應當對其産品進行綜合測試,以確定性能、可預測性、可解釋性、安全性和網絡安全能力達到合理的水準。
第三,基礎模型研發者應當為其産品提供詳細且淺顯易懂的使用說明,這将有利于下遊企業更深入地了解基礎模型的工作原理,進而促使更多的企業遵守監管要求。
《人工智能法案》仍有待完善
雖然上述建議能夠對優化人工智能監管架構産生積極的影響,但是缺乏細節。若要得到采納,
制定統一的标準和規範是一個重要前提,但由此會産生繁文缛節的弊端。
本文提出了多項對《人工智能法案》的修訂建議。
第一,要求所有科技公司承擔同樣的監管義務,這樣可能會削弱中小型科技公司的創新動力,無形中鞏固了科技巨頭的主導地位。
由此可見,《人工智能法案》的修訂應當根據系統的重要性來确定科技公司履行監管義務的多少,例如系統重要性越高的科技公司,履行的監管義務就越多,反之亦然。該建議與《歐盟數字服務法案》的規定相符,即監管義務應當根據數字服務的類型、規模和性質進行調整。此外,《歐盟數字服務法案》明确規定,大型科技公司(例如超大型線上平台和搜尋引擎提供商)必須履行更多的監管義務。
要求系統重要性高的科技公司履行更多的監管義務有兩個原因。首先,具備研發基礎模型能力的科技公司普遍為科技巨頭,是以比其他科技公司更有能力承擔履行監管義務産生的費用。其次,系統重要性低的科技公司,即使履行較少的監管義務,也無傷大雅。
根據現有文獻,我們可以根據資料源、計算資源和投資額度來判斷科技公司研發的模型是否屬于基礎模型的範疇。此外,開源程度也是一個重要的判斷标準,例如是否同意開放應用程式程式設計接口和接受外部審查。模型的下載下傳量及其産生的營收也同等重要,但營收資料隻有模型在市場上站穩腳跟後才能夠獲得。更重要的是,上述資訊不僅能夠反映科技公司的系統重要性,而且能夠反映科技公司履行監管義務的能力。
第二,基于風險的規制思路雖然有不少可圈可點之處,但是中小型科技公司也可能會研發高風險模型。是以,評估産品潛在風險的義務應當适用于所有科技公司。
對于系統重要性低的科技公司,對模型進行綜合測試、讓模型接受外部審查和提供模型使用說明的條款可以有所放寬。至于如何放寬,歐盟應當為此專門制定一套标準。
對科技公司進行系統重要性分類是實作漸進、動态監管措施的重要一步。随着市場需求的變化,對基礎模型的定義會不斷變化。在該過程中,歐盟可以将不再符合基礎模型定義的模型從監管名單中移除。
第三,《數字化單一市場版權指令》提出了有限制的文本與資料挖掘行為,即允許行為主體在不受版權法的限制下合理地使用現有的文本和資料。
然而,該指令并未對使用受版權保護的文本和資料訓練基礎模型的行為做出明确規定。有鑒于此,歐盟應當制定強制性法規(例如收取版稅)來限制使用可用于訓練基礎模型的文本和資料。
第四,如何對基礎模型進行第三方監管,一直是一個棘手的難題。如果企業内部品質管理體系不足以承擔風險評估任務,那麼企業就需要聘請外部專家來開展相關的工作。
鑒于外部專家的稀缺,企業應當與民間攜手合作,共同承擔風險評估任務。此外,歐盟應當參照經濟合作與發展組織(OECD)正在拟議中的“人工智能突發事件報告機制”來制定一套類似的法規。
第五,大規模基礎模型的研發需要消耗大量的電力,并由此産生大量的碳足迹。确立針對基礎模型的共性名額是實作可比性的一個必要步驟,這将有助于提高模型的能源效率。
科技公司應當投入大量的資金,用于確定基礎模型的安全。随着全球基礎模型投資的不斷增長,日趨頻繁的網絡攻擊對基礎模型的研發構成了重大風險。然而,對人工智能安全性和校準研究的投資依然不足。確定基礎模型的安全是防止基礎模型輸出有害資訊的關鍵。除此之外,歐盟還應當打擊通過不法手段獲得基礎模型的行為。
結語
目前來看,歐盟有望成為生成式人工智能領域的上司者。這将有助于確定該領域以符合歐盟利益和價值觀的方式發展。
《人工智能法案》雖然具有開創性的意義,但是需要在不削弱中小型科技公司創新動力的前提下,精準地管控基礎模型帶來的風險。如果無法做到這一點,就可能會阻礙歐盟人工智能産業的發展。
★本文編譯:
曾輝,華南理工大學公共政策研究院研究助理IPP-Review 編輯 | Aleutian,周浩锴話題讨論
如何看待歐盟以立法實作規範人工智能的行為?
歡迎在評論區分享您的經驗和觀點。
關于IPP
華南理工大學公共政策研究院(IPP)是一個獨立、非營利性的知識創新與公共政策研究平台。IPP圍繞中國的體制改革、社會政策、中國話語權與國際關系等開展一系列的研究工作,并在此基礎上形成知識創新和政策咨詢協調發展的良好格局。IPP的願景是打造開放式的知識創新和政策研究平台,成為領先世界的中國智庫。