0

美国务院委托报告:AI或带来灭绝威胁,应禁止大规模AI训练

 6 months ago
source link: https://www.aixinzhijie.com/article/6845094
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client
2024-03-12 02:05

美国务院委托报告:AI或带来灭绝威胁,应禁止大规模AI训练

文章来源:AI范儿

美国政府委托的报告警告,人工智能(AI)发展可能对国家安全构成“灭绝级威胁”。报告建议立法禁止高计算能力的AI模型训练,并要求AI公司在新模型训练和部署时获得政府许可。此外,提议禁止公布强大AI模型的内部工作机制,并对AI芯片制造和出口实施更严格控制。这些措施旨在防止AI技术的潜在滥用,并确保全球安全。
图片来源:由无界AI生成
图片来源:由无界AI生成

美国政府面临着来自人工智能(AI)带来的国家安全风险,这些风险可能在最极端的情况下构成“灭绝级威胁”。这是根据美国政府委托并于本周一发布的一份报告所警告的。

报告指出,当前的AI前沿开发正对国家安全构成紧迫且不断增长的威胁,并认为先进AI和通用人工智能(AGI)的发展可能会对全球安全造成破坏,类似于核武器的问世。尽管AGI尚未问世,但顶尖的AI实验室正在努力朝这个目标迈进,许多人预计在未来五年内或更短的时间内可能实现。

报告的作者们花费了一年多的时间与200多位政府官员、专家以及前沿AI公司的员工进行了交流,包括OpenAI、谷歌DeepMind、Anthropic和Meta等公司。一些交流内容揭示了一个令人不安的现实:许多在尖端实验室工作的AI安全人员担心,公司高管可能会因逆向激励而做出不当决策。

这份名为“提高先进AI安全性和安全性的行动计划”的报告提出了一系列广泛的、前所未有的政策行动建议,如果得以实施,将彻底改变AI行业。报告建议国会应立法禁止使用超过一定计算能力的AI模型训练,并由新成立的联邦AI机构设定这一门槛。

报告还建议,新的AI机构应要求处于行业前沿的AI公司在训练和部署超过一定门槛的新模型时,必须获得政府许可。此外,报告还提出,当局应“紧急”考虑禁止公布强大AI模型的“权重”或内部工作机制,并加强对AI芯片制造和出口的控制,并将联邦资金投向旨在使先进AI更安全的研究。

报告是由国务院在2022年11月委托的,作为一份价值25万美元的联邦合同的一部分。报告由Gladstone AI撰写,该公司专门为政府员工提供AI技术简报。报告于2月26日以247页的文件形式提交给国务院,但国务院未对报告作出回应。报告首页声明,建议“不代表美国国务院或美国政府的观点”。

报告的建议,许多之前被认为是不可想象的,是在AI领域一系列重大进展之后提出的。自2022年11月发布的聊天机器人ChatGPT首次引发了人们对未来AI可能对人类构成风险的质疑以来,更多功能强大的新工具不断快速推出。

随着全球政府讨论如何最佳监管AI,全球最大的科技公司也在迅速构建下一代更强大的系统基础设施,有时计划使用的计算能力是现有水平的10倍或100倍。同时,超过80%的美国公众认为AI可能意外引发灾难性事件,77%的选民认为政府应加强AI监管。

报告提出,禁止超过一定门槛的先进AI系统训练,可能会“缓和所有AI开发者之间的竞争动态”,并有助于减缓芯片行业制造更快硬件的速度。报告表示,硬件——特别是目前用于训练AI系统的高端计算机芯片——是提高AI能力的一个重要瓶颈。监管这种硬件的扩散可能是“保护长期全球安全和安全免受AI影响的最重要要求”。政府应探索将芯片出口许可与芯片上的技术联系起来,这些技术允许监控芯片是否用于大型AI训练运行,作为执行针对训练超过GPT-4的AI系统的提议规则的一种方式。

报告还提出了一个可能性,即最终,宇宙的物理边界可能不在那些试图通过芯片防止先进AI扩散的人一边。新的联邦AI机构可以探索阻止发布提高算法效率的研究,尽管它承认这可能会损害美国AI行业,最终可能是不可行的。

尽管存在挑战,报告的作者们表示,他们被目前用户如果能够访问AI模型的权重,就可以轻松且廉价地移除安全防护措施的情况所影响。报告的第三位合著者,前国防部官员Beall,已经离开Gladstone,成立了一个超级政治行动委员会(PAC),旨在倡导AI政策。该PAC的目标是到2024年底通过AI安全立法,使AI安全和安全成为“2024年选举的关键问题”。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK