· 2 分钟

大模型发布前先给政府测试,这不是小题大做

美国 CAISI 与多家 AI 公司合作做前置安全评估,说明前沿模型已经不只是产品问题。

温暖书桌上的笔记本、茶杯和纸张

5 月 5 日,关于前沿 AI 模型发布前评估的新闻集中出现。Microsoft 宣布和美国 CAISI、英国 AISI 达成新的 AI 测试评估合作;媒体也报道 Google DeepMind、Microsoft、xAI 等公司同意让美国政府在模型公开前做安全审查。

这件事很容易被说成“监管来了”。但我觉得更准确的说法是:模型能力已经越过了纯产品边界。

如果一个模型只是帮你写邮件、整理表格,发布前主要看体验和稳定性。但当前沿模型开始涉及网络安全、生物安全、化学风险、关键基础设施,测试就不只是公司内部 QA。你不能只问“它好不好用”,还要问“它被坏人用起来会怎样”。

我知道很多人会担心政府介入带来效率下降,甚至带来权力滥用。这种担心不是没道理。可是完全依赖公司自我声明,也同样让人不安。毕竟模型公司有增长压力,有融资压力,有抢先发布的冲动。

比较理想的状态,可能不是把所有模型都交给某个机构盖章,而是建立一套更透明的外部评估习惯:谁测、测什么、发现什么级别的问题、修复后如何复验,都要慢慢形成公共标准。

AI 安全听起来抽象,但归根到底是一个很朴素的问题:当能力变大,谁来替那些没坐在发布会现场的人提前想一想后果?

参考:Microsoft 的 AI evaluation agreements,以及 The Guardian 关于 US and tech firms model review deal 的报道。

继续阅读

同一条线索上的文章。