本周,白宫 宣布 它已获得七家领先人工智能公司的“自愿承诺”,以管理人工智能带来的风险。
让亚马逊、Anthropic、谷歌、Inflection、Meta、微软和 OpenAI 等公司就任何事情达成一致就是向前迈出的一步。 它们包括激烈的竞争对手,在人工智能研究和开发的方式上存在微妙但重要的差异。
例如,Meta 非常渴望将其人工智能模型交到开发人员手中,以至于它已经 其中许多都是开源的,将他们的代码公开给任何人使用。 其他实验室,例如 Anthropic,已经采取了 更加谨慎 方法,以更有限的方式发布他们的技术。
但这些承诺实际上意味着什么? 鉴于人工智能公司没有法律力量的支持,它们是否可能对人工智能公司的运营方式产生很大的改变?
考虑到人工智能监管的潜在风险,细节很重要。 因此,让我们仔细看看这里达成的协议并评估潜在的影响。
承诺1:公司承诺在发布人工智能系统之前对其进行内部和外部安全测试。
这些人工智能公司在发布之前都已经对其模型进行了安全测试——通常称为“红队测试”。 从某种程度上来说,这并不是一个真正的新承诺。 这是一个模糊的承诺。 它没有提供有关需要进行何种测试或由谁进行测试的详细信息。
在 附有承诺的声明白宫仅表示,人工智能模型的测试“将部分由独立专家进行”,并重点关注“生物安全和网络安全等人工智能风险,及其更广泛的社会影响”。
让人工智能公司公开承诺继续进行此类测试,并鼓励测试过程更加透明,这是一个好主意。 还有一些类型的人工智能风险——例如人工智能模型可用于开发生物武器的危险——政府和军事官员可能比公司更适合评估。
我很高兴看到人工智能行业就一系列标准的安全测试达成一致,例如“自主复制”测试 对准研究中心 在 OpenAI 和 Anthropic 预发布的模型上进行。 我还希望看到联邦政府资助此类测试,这些测试可能很昂贵,并且需要具有重要技术专业知识的工程师。 目前,许多安全测试都是由公司资助和监督的,这引发了明显的利益冲突问题。
承诺2:公司承诺在整个行业以及与政府、民间社会和学术界分享有关管理人工智能风险的信息。
这个承诺也有点模糊。 其中一些公司已经发布了有关其人工智能模型的信息——通常是在学术论文或企业博客文章中。 其中一些公司,包括 OpenAI 和 Anthropic,还发布了名为“系统卡”的文档,其中概述了他们为使这些模型更安全而采取的步骤。
但他们有时也会以安全问题为由隐瞒信息。 当 OpenAI 今年发布最新的 AI 模型 GPT-4 时, 打破行业惯例 并选择不透露它训练了多少数据,或者模型有多大(称为“参数”的指标)。 该公司表示,出于对竞争和安全的担忧,拒绝透露这一信息。 这也恰好是科技公司喜欢远离竞争对手的数据类型。
根据这些新的承诺,人工智能公司是否会被迫公开此类信息? 如果这样做有加速人工智能军备竞赛的风险怎么办?
我怀疑白宫的目标不是强迫公司披露其参数数量,而是鼓励他们相互交换有关其模型确实(或不)构成风险的信息。
但即使是这种信息共享也可能存在风险。 如果谷歌的人工智能团队在预发布测试期间阻止新模型被用来设计致命的生物武器,那么它是否应该在谷歌之外分享这些信息? 这是否会给不良行为者带来关于如何让一个较少保护的模型来执行相同任务的想法?
承诺 3:公司承诺投资网络安全和内部威胁防护措施,以保护专有和未发布的模型权重。
这个问题非常简单,在我采访过的人工智能内部人士中也没有争议。 “模型权重”是一个技术术语,指的是赋予人工智能模型运行能力的数学指令。 如果你是外国政府(或竞争对手公司)的代理人,想要构建自己版本的 ChatGPT 或其他人工智能产品,那么权重就是你想要窃取的东西。 人工智能公司严格控制这一点符合既得利益。
模型权重泄露的问题已经广为人知。 例如,Meta 原始 LLaMA 语言模型的权重为 在 4chan 上泄露 该模型公开发布几天后以及其他网站。 考虑到更多泄密的风险,以及其他国家可能有兴趣从美国公司窃取这项技术,要求人工智能公司在自身安全方面进行更多投资似乎是理所当然的事情。
承诺4:两家公司承诺促进第三方发现和报告其人工智能系统中的漏洞。
我不太确定这意味着什么。 每家人工智能公司在发布模型后都会发现其模型中的漏洞,通常是因为用户试图用模型做坏事或以公司未预见到的方式规避模型的护栏(一种称为“越狱”的做法)。
白宫承诺要求公司针对这些漏洞建立“强大的报告机制”,但尚不清楚这可能意味着什么。 应用内反馈按钮,类似于允许 Facebook 和 Twitter 用户举报违规帖子的按钮? 一个错误赏金计划,就像这个 OpenAI 今年启动 奖励发现其系统缺陷的用户? 还有别的事吗? 我们将不得不等待更多细节。
承诺5:公司致力于开发强大的技术机制,以确保用户知道内容何时由人工智能生成,例如水印系统。
这是一个有趣的想法,但留下了很大的解释空间。 到目前为止,人工智能公司一直在努力设计工具,让人们能够判断他们是否正在查看人工智能生成的内容。 这有很好的技术原因,但当人们可以将人工智能生成的工作冒充为自己的工作时,这就是一个真正的问题。 (询问任何一位高中老师。)目前推广的许多工具都能够检测人工智能输出 实在做不到 具有任何准确度。
我对这个问题能够完全解决并不乐观。 但我很高兴各公司承诺为此努力。
承诺 6:公司承诺公开报告其人工智能系统的功能、局限性以及适当和不适当使用的领域。
另一个听起来很明智的承诺,有很大的回旋余地。 公司多久需要报告其系统的功能和限制? 这些信息必须有多详细? 考虑到许多构建人工智能系统的公司在事后都对自己系统的功能感到惊讶,那么他们真的能在多大程度上提前描述这些系统呢?
承诺7:公司承诺优先研究人工智能系统可能带来的社会风险,包括避免有害的偏见和歧视以及保护隐私。
致力于“优先考虑研究”是一种模糊的承诺。 尽管如此,我相信这一承诺会受到人工智能道德人群中许多人的欢迎,他们希望人工智能公司将预防偏见和歧视等近期伤害作为优先事项,而不是担心世界末日场景,就像人工智能安全人士所做的那样。
如果您对“人工智能伦理”和“人工智能安全”之间的差异感到困惑,请知道人工智能研究界内存在两个敌对派系,每个派系都认为对方专注于防止错误的伤害。
承诺8:两家公司致力于开发和部署先进的人工智能系统,以帮助解决社会面临的最大挑战。
我不认为很多人会认为先进的人工智能应该 不是 用于帮助解决社会面临的最大挑战。 白宫将“癌症预防”和“缓解气候变化”列为希望人工智能公司重点关注的两个领域,我对此不会有异议。
然而,让这个目标变得有些复杂的是,在人工智能研究中,一开始看起来无聊的事情往往会产生更严重的影响。 DeepMind 的 AlphaGo 所采用的一些技术——一种经过训练可以玩围棋棋盘游戏的人工智能系统—— 原来是有用的 预测蛋白质的三维结构,这是推动基础科学研究的重大发现。
总体而言,白宫与人工智能公司的交易似乎更具象征意义,而不是实质性的。 没有执行机制来确保公司遵守这些承诺,其中许多承诺反映了人工智能公司已经采取的预防措施。
尽管如此,这仍然是合理的第一步。 同意遵守这些规则表明人工智能公司已经从早期科技公司的失败中吸取了教训,这些公司等到遇到麻烦才与政府接触。 在华盛顿,至少在科技监管方面,尽早出现是值得的。