阻止AI毁灭人类 微软谷歌等公司成立“自治组织”
美国时间 7 月 26 日,OpenAI、微软、谷歌和 Anthropic 等四家 AI 领域巨头宣布成立行业组织 ” 前沿模型论坛 “(Frontier Model Forum),目的是 ” 确保前沿 AI 开发的安全和负责任 “。
7 月初,OpenAI 曾就 ” 前沿 AI 监管 ” 发文,将 ” 前沿 AI” 模型定义为:具有造成严重公共安全风险能力的高性能基础模型。
来源:OpenAI 推特
声明指出,论坛的核心目标包括如下四点:
推动人工智能安全研究,促进前沿模型负责任的发展,最大限度降低风险,实现对 AI 能力与安全的独立、标准化评估。
确定负责任前沿模型开发和部署的最佳做法,向公众普及 AI 技术的性质、能力、限制与影响。
与政策制定者、学者、民间社会和公司合作,并分享有关 AI 信任和安全风险的知识。
针对解决当前社会最大挑战,如气候变化减缓和适应、早期癌症检测和预防,以及网络威胁应对,支持开发相关应用。
这些目标与四家公司上周五在白宫作出的自愿承诺基本一致,当时共同作出承诺的公司还有 Meta、亚马逊和 Inflection。
” 开发人工智能技术的公司有责任确保其安全、可靠,并处于人类控制之下。” 微软总裁布拉德 · 史密斯在声明中强调。
论坛的成立体现了行业巨头在 AI 安全方面的积极态度,但这些公司也希望借此换取更大的主动空间——用主动合规避免被动监管,甚至在一定程度上参与规则的制定。
四家公司发布的声明中表示,” 前沿模型论坛 ” 希望支持和推动现有政府和多边倡议在人工智能方面的工作,包括七国集团(G7)广岛 AI 进程,经合组织(OCED)关于 AI 风险、标准与社会影响的工作,以及美欧贸易和技术理事会(TTC)的相关工作。
在接下来的数月内,该论坛将首先建立起一个顾问委员会,以帮助指导论坛的战略和优先事项。声明称,该委员会将 ” 代表不同的背景和观点 “。在未来几周内,还将与民间社会和各国政府,就论坛的设计与合作方式展开磋商。
未来一年,前沿模型论坛将重点关注确定最佳做法、推动 AI 安全研究、促进企业与政府间信息共享等三个关键领域,并欢迎其他前沿 AI 模型开发者加入论坛。