了解不斷變化的法規是應對人工智能風險的關鍵。這對網絡安全上司者意味着什麼。
譯自 How evolving AI regulations impact cybersecurity,作者 Ram Movva; Aviral Verma。
雖然他們的商業和技術同僚忙于嘗試和開發新的應用程式,但網絡安全上司者正在尋找方法來預測和應對新的、由人工智能驅動的威脅。
人工智能對網絡安全的影響一直很明顯,但這是一個雙向的過程。人工智能越來越多地被用于預測和緩解攻擊,但這些應用程式本身也容易受到攻擊。每個人都興奮的自動化、規模和速度也同樣适用于網絡犯罪分子和威脅行為者。雖然距離主流應用還很遠,但人工智能的惡意使用一直在增長。從生成對抗網絡到大型僵屍網絡和自動化的 DDoS 攻擊,人工智能有可能産生一種新型的網絡攻擊,這種攻擊可以适應和學習以逃避檢測和緩解。
在這種環境下,我們如何防禦人工智能系統免受攻擊?攻擊性人工智能将采取什麼形式?威脅行為者的 AI 模型将是什麼樣的?我們能對 AI 進行滲透測試嗎?我們應該何時開始以及為什麼?随着企業和政府擴充其 AI 管道,我們将如何保護他們依賴的大量資料?
正是這些問題促使美國政府和歐盟将網絡安全置于首位,因為它們都在努力制定指導方針、規則和法規來識别和緩解新的風險環境。這并非第一次出現明顯不同的方法,但這并不意味着沒有重疊。
讓我們簡要了解一下其中涉及的内容,然後再繼續考慮這對網絡安全上司者和 CISO 的意義。
美國人工智能監管方法概述
除了行政指令,美國對人工智能監管的分散式方法也展現在加州等州制定自己的法律指南。作為矽谷的所在地,加州的決定可能會極大地影響科技公司開發和實施人工智能的方式,一直到用于訓練應用程式的資料集。雖然這絕對會影響所有參與開發新技術和應用程式的人,但從純粹的 CISO 或網絡安全上司者的角度來看,重要的是要注意,雖然美國的環境強調創新和自我監管,但總體方法是基于風險的。 美國的監管環境強調創新,同時解決與人工智能技術相關的潛在風險。法規側重于促進負責任的人工智能開發和部署,重點是行業自我監管和自願合規。
對于 CISO 和其他網絡安全上司者來說,重要的是要注意,行政指令訓示美國國家标準與技術研究院 (NIST) 制定标準 用于對 AI 系統進行紅隊測試。還呼籲“最強大的 AI 系統”必須進行滲透測試并将結果與政府共享。
歐盟人工智能法案概述
歐盟更加謹慎的方法從一開始就将網絡安全和資料隐私納入其中,并制定了強制性标準和執行機制。與其他歐盟法律一樣,人工智能法案是基于原則的:組織有責任通過支援其實踐的文檔來證明合規性。
對于 CISO 和其他網絡安全上司者來說,第 9.1 條引起了很多關注。它指出
高風險人工智能系統應按照以下原則設計和開發安全設計和預設安全。鑒于其預期用途,它們應達到适當的準确性、穩健性、安全性、網絡安全水準,并在其整個生命周期内始終如一地保持這些水準。遵守這些要求應包括根據特定市場細分或應用範圍實施最先進的措施。
從最根本的層面上講,第 9.1 條意味着關鍵基礎設施和其他高風險組織的網絡安全上司者将需要進行 AI 風險評估并遵守網絡安全标準。該法案第 15 條涵蓋了可以采取的網絡安全措施來保護、緩解和控制攻擊,包括試圖操縱訓練資料集(“資料中毒”)或模型的攻擊。對于 CISO、網絡安全上司者和 AI 開發人員來說,這意味着任何建構高風險系統的人都需要從一開始就考慮網絡安全的影響。
歐盟人工智能法案與美國人工智能監管方法的關鍵差別
特征 | 歐盟人工智能法案 | 美國方法 |
監管方法 | 基于原則的,強制性标準和執行機制 | 基于風險的,強調創新和自我監管 |
重點 | 網絡安全和資料隐私 | 創新和負責任的 AI 開發 |
合規性 | 組織有責任證明合規性 | 自願合規 |
滲透測試 | 要求對高風險 AI 系統進行滲透測試 | 鼓勵對“最強大的 AI 系統”進行滲透測試 |
資料隐私 | 嚴格的資料隐私規定 | 資料隐私保護較少 |
實施 | 已經實施 | 正在制定中 |
總體理念 | 預防性,基于風險 | 市場驅動,以創新為中心 |
--- | --- | --- |
法規 | 對“高風險”人工智能的具體規則,包括網絡安全方面 | 廣泛的原則,部門指南,重點關注自我監管 |
資料隐私 | 适用 GDPR,嚴格的使用者權利和透明度 | 沒有全面的聯邦法律,各州法規拼湊而成 |
網絡安全标準 | 對高風險人工智能的強制性技術标準 | 鼓勵自願最佳實踐,行業标準 |
執行 | 對不遵守規定處以罰款、禁令和其他制裁 | 機構調查,潛在的貿易限制 |
透明度 | 對高風險人工智能的可解釋性要求 | 要求有限,重點關注消費者保護 |
問責制 | 由人工智能造成的損害的明确責任架構 | 責任不明确,通常歸咎于使用者或開發人員 |
人工智能法規對 CISO 和其他網絡安全上司者的意義
盡管方法不同,但歐盟和美國都主張采取基于風險的方法。而且,正如我們在 GDPR 中所見,随着我們朝着全球标準的合作和共識邁進,存在着大量協調的空間。
從網絡安全上司者的角度來看,很明顯,人工智能法規和标準處于成熟度的早期階段,并且随着我們對技術和應用的了解不斷加深,幾乎肯定會發生變化。正如美國和歐盟的監管方法所強調的那樣,網絡安全和治理法規要成熟得多,這至少是因為網絡安全社群已經投入了大量資源、專業知識和努力來提高意識和知識。
人工智能和網絡安全之間的重疊和互相依賴意味着網絡安全上司者更加敏銳地意識到新出現的後果。畢竟,許多人一直在使用人工智能和機器學習來進行惡意軟體檢測和緩解、惡意 IP 阻止和威脅分類。目前,CISO 将負責制定全面的 AI 戰略,以確定整個業務的隐私、安全和合規性,包括以下步驟:
- 确定 AI 帶來最大收益的用例。
- 确定成功實施 AI 所需的資源。
- 建立一個治理架構來管理和保護客戶/敏感資料,并確定遵守您組織開展業務的每個國家/地區的法規。
- 清晰地評估和評估 AI 實施對整個業務(包括客戶)的影響。
與人工智能威脅形勢保持同步
随着人工智能法規不斷發展,目前唯一真正确定的是,美國和歐盟将在制定标準方面發揮關鍵作用。快速的變化意味着我們肯定會看到法規、原則和指南的變化。無論是自主武器還是自動駕駛汽車,網絡安全都将在解決這些挑戰的方式中發揮核心作用。
速度和複雜性都表明,我們很可能從特定國家/地區的規則演變為圍繞關鍵挑戰和威脅達成更廣泛的全球共識。從迄今為止的美國-歐盟合作來看,已經存在明确的共同基礎可以借鑒。GDPR(通用資料保護條例)表明,歐盟的方法最終對其他司法管轄區的法律産生了重大影響。某種程度的協調似乎不可避免,這至少是因為挑戰的嚴重性。
與 GDPR 一樣,這更多是一個時間和合作的問題。同樣,GDPR 提供了一個有用的案例曆史。在這種情況下,網絡安全從技術規定提升到了要求。安全将成為人工智能應用中不可或缺的要求。在開發人員或企業可能對其産品承擔責任的情況下,網絡安全上司者必須及時了解其組織中使用的架構和技術至關重要。
在接下來的幾個月裡,我們将看到歐盟和美國法規如何影響正在建構人工智能應用程式和産品的組織,以及新興的人工智能威脅形勢如何演變。