3

暂停AI训练公开信引发热议

 1 year ago
source link: https://www.williamlong.info/archives/7120.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

暂停AI训练公开信引发热议

2023-3-30 22:6:44 | 作者: 投稿 | 分类: 业界动态 | 评论: 0 | 浏览:

一封有关暂停训练高级人工智能(AI)的公开信日前引发热议。路透社30日报道称,这封公开信的主要内容是呼吁在6个月内暂停高级人工智能的开发。理由是AI可能对社会和文明构成潜在风险。目前已有1000多名科技界和AI领域的重量级人物签署公开信,其中包括特斯拉首席执行官马斯克、苹果公司联合创始人沃兹尼亚克、Stability AI总裁莫斯塔克、AI企业DeepMind的多名研究员。

《华尔街日报》援引该公开信背后的组织者之一泰格马克的话表示,AI的进展已超过许多专家几年前认为可能达到的程度。他说,“这就像是一场自杀式竞赛,谁先到并不重要,重要的是整个人类有可能会失去对自己命运的控制。”泰格马克表示,6个月的暂停开发将让整个行业获得“喘息之机”,那些选择谨慎行动的公司并不会处于劣势。

尽管已有1000多人在公开信上签字,但诸多业内人士提出不同意见。Meta副总裁兼首席AI科学家勒邱恩表示,因为不认同这封信的前提条件,他没有在这封信上签名。而Stability AI首席执行官莫斯塔克则发推文称,虽然自己已在信上签名,但他不赞同暂停开发6个月的提议。同时,据美国CNBC网站29日报道,谷歌也并未受到这封公开信的影响,其正在重组虚拟助手部门,以更加专注于开发人工智能聊天技术Bard。

信中称,我们目前开发的高级人工智能正在对人类社会造成威胁,各大AI实验室之间的竞争已经失控,然而,包括AI的创造者在内,没有人能理解、预测或可靠地控制它们。

“我们是否应该把所有工作都自动化,包括那些有成就感的工作?我们是否该开发机器大脑,让它们比人脑还多,比人脑还聪明,最终淘汰我们取代我们?我们是否应该冒文明失控的风险?”信中诘问道。

这些问题已经摆在我们面前,但我们没有做好准备。

因此,这封公开信呼吁所有人立即暂停AI研究至少六个月,然后加速制定安全协议,此外,AI研究和开发应该更关注准确性、安全性、可解释性、透明度、鲁棒性、可靠性和忠诚度。

公开信的全文翻译如下:

停止大型AI实验:一封公开信

我们呼吁所有实验室立即停止训练比GPT-4还要强大的AI系统至少六个月。

和人类智能相近的AI系统会为社会和人类带来极大风险,广泛的研究已经证明了这一点,顶尖的AI实验室也已经承认。正如Asilomar AI原则所指出的那样,“高级AI可能意味着地球生命史上的深刻变革,我们应当投入可观的关注和资源对其进行规划和管理”。不幸的是,这种规划和管理没人去做,而最近几个月,AI实验室正在开发和部署越来越强大的数字思维,这种竞争逐渐失控——包括它们的创造者在内,没有人能理解、预测或可靠地控制它们。

如今,AI系统在一般任务上已经具备了与人类竞争的能力,我们必须自问:是否该让信息渠道充斥着机器写就的宣传和谎言?是否应该把所有工作都自动化,包括那些有成就感的工作?是否该开发机器大脑,让它们比人脑还多,比人脑还聪明,最终淘汰我们取代我们?是否应该冒文明失控的风险?这样的决定绝不能委托给未经选举的技术领袖来做。只有当我们确信强大的AI系统是积极的、风险是可控的,才应该继续这种开发。而且AI的潜在影响越大,我们就越需要充分的理由来证明其可靠性。OpenAI最近关于人工通用智能的声明指出,“到了某个时间节点,在开始训练新系统之前可能需要进行独立审查,而用于新模型的计算的增长速度也应加以限制”。我们深深认同这份声明,而那个时间点就是现在。

因此,我们呼吁所有正在训练比GPT-4更强大的AI系统的实验室立即暂停训练,至少暂停6个月。实验暂停应该对外公开,可以验证,并涵盖所有关键的实验室。如果不能迅速实施,政府应该介入并发布禁止令。

在暂停期间,AI实验室和独立学者应针对高级AI的设计和开发共同制定实施一套共享安全协议。这份协议的审计和监督应由独立的外部专家严格执行,确保AI的安全性不超过合理的怀疑范围[4]。这并不意味着我们要暂停人工智能的总体发展,而只是从目前这种会不断涌现出具有新能力的、不可预测的黑匣子模型的危险竞赛中退后一步。

人工智能的研究和开发应该重新聚焦于优化最先进的系统,让它更加准确、安全、可解释、透明、稳健、一致、值得信赖、对人类忠诚。

与此同时,AI开发人员必须与决策者合作,大力推进强有力的AI治理系统的发展。这个系统至少应包括:针对AI的新型监管机构;对高能力AI系统的监督追踪和大型算力池;帮助区分真实数据与AI生成的数据、并且追踪模型泄漏的溯源和水印系统;强有力的审计和认证生态系统;对AI造成的损害定责;用于技术AI安全研究的强大公共资金;应对AI可能会引发的巨大经济和政治动荡(尤其是对民主的影响)的有充足资源的机构。

人类可以和AI共创繁荣未来。我们已经成功地创建了强大的AI系统,现在我们可以享受“AI之夏”,在这个过程中,收获回报,设计监管系统,造福所有人,并给社会一个适应的机会。我们已经暂停了其他可能产生灾难性影响的技术,对于AI我们也应如此。

让我们享受一个长长的AI之夏,不要毫无准备地冲入秋天。

来源:综合华尔街日报、环球时报、36KR

暂停AI训练公开信引发热议

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK