这里是摘要部分
作者 | Kevin Roose
编译 | 靖宇
来源:NYT
链接:https://www.nytimes.com/2023/07/22/technology/ai-regulation-white-house.html
原标题:How Do the White House’s A.I. Commitments Stack Up?
(ChinaIT.com讯)就在 Meta 公布了新一代开源大语言模型 Llama 2 三天之后,公司高层就和微软、OpenAI、亚马逊、Anthropic 等七家目前在 AI 行业中的巨头和炙手可热的创业公司管理人员,再次聚首美国白宫。
在这次的活动中,七家公司签订了一份「自愿承诺书」(Voluntary Commitments),就 AI 技术和研发的安全、透明、以及风险等做出「8 大承诺」。
AI 公司「求监管」的戏码,到此达到了一个小高潮。
NYT 专栏作者 Kevin Roose 撰文,详解了这「8 大承诺」到底都说了什么,以及因此带来的改变。
研究的结果是,这 8 项承诺,例如安全测试、分享 AI 安全信息、报告漏洞以及「优先用 AI 解决社会挑战」,看起来都是一些大问题,而对应的承诺也缺乏细节,其中不少问题本身就是 AI 公司已经「公示」给大众的。
此份「资源承诺书」,更像是过去半年美国监管层对 AI 公司数次问询的一次间接性的「成果展示」,很可能不具备太多执行层面的意义。但是,监管对于 AI 数次表示关切,标明政府对于 AI 技术应用的立场,才是这场秀最大的意义。
以下为 Kevin Roose 对于「自愿承诺书」中 8 项承诺的解读:
承诺 1:公司承诺在发布人工智能系统之前,对其进行内部和外部安全测试。
这些人工智能公司在发布之前都已经对其模型进行了安全测试——通常称为「红队测试」。从某种程度上来说,这并不是一个真正的新承诺,它很模糊。没有提供有关需要进行何种测试或由谁进行测试的详细信息。
在随后一份声明中,白宫仅表示,人工智能模型的测试「将部分由独立专家进行」,并重点关注「生物安全和网络安全等人工智能风险,及其更广泛的社会影响」。
让人工智能公司公开承诺继续进行此类测试,并鼓励测试过程更加透明,这是一个好主意。还有一些类型的人工智能风险——例如人工智能模型可用于开发生物武器的危险——政府和军事官员可能比公司更适合评估。
我很高兴看到 AI 行业就一系列标准安全测试达成一致,例如 Alignment 研究中心对 OpenAI 和 Anthropic 预发布的模型进行的「自主复制」测试。我还希望看到联邦政府资助此类测试,这些测试可能成本很高,并且需要具有重要技术专业知识的工程师。目前,许多安全测试都是由公司资助和监督的,这引发了明显的利益冲突问题。
承诺 2:公司承诺在整个行业以及与政府、民间社会和学术界分享有关管理人工智能风险的信息。
这个承诺也有点模糊。其中一些公司已经发布了有关其人工智能模型的信息——通常是在学术论文或企业博客文章中。其中一些公司,包括 OpenAI 和 Anthropic,还发布了名为「系统卡片」(System Cards)的文档,其中概述了他们为使这些模型更安全而采取的步骤。
但他们有时也会以安全问题为由隐瞒信息。当 OpenAI 今年发布最新的人工智能模型 GPT-4 时,它打破了行业惯例,选择不透露其训练数据量或模型有多大(称为「参数」的指标)。该公司表示,出于对竞争和安全的担忧,拒绝透露这一信息。这也恰好是科技公司喜欢远离竞争对手的数据类型。
根据这些新的承诺,人工智能公司是否会被迫公开此类信息?如果这样做有加速人工智能军备竞赛的风险怎么办?
我怀疑白宫的目标不是强迫公司披露其参数数量,而是鼓励他们相互交换有关其模型确实(或不)构成风险的信息。
但即使是这种信息共享也可能存在风险。如果谷歌的人工智能团队,在预发布测试期间阻止新模型被用来设计致命的生物武器,那么它是否应该在谷歌之外分享这些信息?这是否会给不良行为者,带来关于如何让一个较少保护的模型来执行相同任务的想法?
承诺 3:公司承诺投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重。
这个问题非常简单,在我采访过的人工智能内部人士中也没有争议。「模型权重」(Model Weights)是一个技术术语,指的是赋予人工智能模型运行能力的数学指令。如果你是外国政府(或竞争对手公司)的代理人,想要构建自己版本的 ChatGPT 或其他人工智能产品,那么权重就是你想要窃取的东西。人工智能公司严格控制这一点符合既得利益。
模型权重泄露的问题已经广为人知。
例如,Meta 的原始 LLaMA 语言模型的权重,在模型公开发布几天后就在 4chan 和其他网站上泄露。考虑到更多泄密的风险,以及其他国家可能有兴趣从美国公司窃取这项技术,要求人工智能公司在自身安全方面进行更多投资似乎是理所当然的事情。
承诺 4:两家公司承诺促进第三方发现,和报告其人工智能系统中的漏洞。
我不太确定这意味什么。每家人工智能公司在发布模型后,都会发现其模型中的漏洞,通常是因为用户试图用模型做坏事,或以公司未预见到的方式规避「越狱」。
白宫承诺要求公司针对这些漏洞建立「强大的报告机制」,但尚不清楚这可能意味着什么。
应用内反馈按钮,类似于允许 Facebook 和 Twitter 用户举报违规帖子的按钮?一个漏洞赏金计划,就像 OpenAI 今年启动的奖励在其系统中发现缺陷的用户的计划?还有别的事吗?我们将不得不等待更多细节。
承诺 5:公司致力于开发强大的技术机制,以确保用户知道内容何时由人工智能生成,例如水印系统。
这是一个有趣的想法,但留下了很大的解释空间。
到目前为止,人工智能公司一直在努力设计工具,让人们能够判断他们是否正在查看人工智能生成的内容。这有很好的技术原因,但当人们可以将人工智能生成的工作,冒充为自己的工作时,这就是一个真正的问题(问问任何一位高中老师。)
目前许多被宣传为能够检测人工智能输出的工具实际上无法以任何程度的准确性做到这一点。
我对这个问题能够完全解决并不乐观,但很高兴各公司承诺为此努力。
承诺 6:公司承诺公开报告其人工智能系统的功能、局限性以及适当和不适当使用的领域。
另一个听起来很明智的承诺,有很大的回旋余地。
公司多久需要报告其系统的功能和限制?这些信息必须有多详细?考虑到许多构建人工智能系统的公司在事后都对自己系统的功能感到惊讶,那么他们真的能在多大程度上提前描述这些系统呢?
承诺 7:公司承诺优先研究人工智能系统可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私。
致力于「优先考虑研究」是一种模糊的承诺。尽管如此,我相信这一承诺会受到人工智能道德人群中许多人的欢迎,他们希望人工智能公司,将预防偏见和歧视等近期伤害作为优先事项,而不是担心世界末日场景,就像人工智能安全人士所做的那样。
如果您对「人工智能伦理」和「人工智能安全」之间的差异感到困惑,请了解人工智能研究界内存在两个敌对派系,每个派系都认为对方专注于防止错误的伤害。
承诺 8:两家公司致力于开发和部署先进的人工智能系统,以帮助解决社会面临的最大挑战。
我认为没有多少人会认为,先进的人工智能不应该被用来帮助解决社会面临的最大挑战。白宫将「癌症预防」和「缓解气候变化」列为希望人工智能公司重点关注的两个领域,我对此不会有异议。
然而,让这个目标变得有些复杂的是,在人工智能研究中,一开始看起来无聊的事情往往会产生更严重的影响。
DeepMind 的 AlphaGo(一种经过训练可以玩棋盘游戏围棋的人工智能系统)所采用的一些技术在预测蛋白质的三维结构方面非常有用,这是一项促进基础科学研究的重大发现。
总体而言,白宫与人工智能公司的交易似乎更具象征意义,而不是实质性的。没有执行机制来确保公司遵守这些承诺,其中许多承诺反映了人工智能公司已经采取的预防措施。
尽管如此,这仍然是合理的第一步。
同意遵守这些规则表明人工智能公司,已经从早期科技公司的失败中吸取了教训,这些公司等到遇到麻烦才与政府接触。在华盛顿,至少在科技监管方面,尽早出现是值得的。
*头图来源:视觉中国
来源:极客公园