4

想把AI关进笼子里?千名科技人士发起联名信,呼吁暂停AI研发半年

 1 year ago
source link: http://www.gamelook.com.cn/2023/03/513825
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

想把AI关进笼子里?千名科技人士发起联名信,呼吁暂停AI研发半年

2023-03-30 • 深度话题
ART-5-e1680096063119.jpg

图源:Future Life Institute官网

1956年的达特茅斯会议上,约翰·麦卡锡、香农等计算机技术先驱正式敲定了”人工智能“的概念。无数研究人员自此踏上这一研究方向,潜心钻研如何为计算机赋予比肩人类的智能。67年后,生成型AI技术迎来了厚积薄发——以远超我们想象的速度。

新的语言模型、借生成型AI技术落地的全新产品、新的AI应用方式,生成型AI领域似乎每隔几天就会出现震动全球的大新闻。无论此前是否有相关经验,见识了AI威力的各大巨头厂商都在抓紧上马生成型AI产品的研发,试图抢在第二波上车。从消费者到从业者,人人都在经历一场技术爆炸。

机遇的背后,恐慌也在不断滋生。近日,一封由非盈利组织Future of Life Institute(FLI)发布的一封要求阻止AI发展的千人联名公开信刷屏了社交媒体。该组织认为,具有与人类竞争能力的人工智能系统会对社会和人类构成显著的风险,呼吁全球所有人工智能研究机构都应停止能力强于GPT-4的高级人工智能开发至少六个月,并在此期间由顶尖专家与政策制定者合作,制定出有关人工智能的治理规范。

lazy.png

引人注目的是,埃隆·马斯克、苹果联合创始人斯蒂夫·沃兹尼亚克、”深度学习三巨头“之一的Yoshua Bengio等多名科技界大牛的名字赫然出现在签署者名单之中,参与署名的还有数百名研究者与大学教授等等。

公开信解读:一批精英“想把AI关进笼子里”?

FLI(译名:生命未来研究所)的官网介绍,该组织致力于排除技术进步为人类社会带来的隐患,引导其向造福人类的方向发展。FLI的成立者包括麻省理工学院宇宙学家Max Tegmark、Skype联合创始人Jaan Tallinn等,五名创始人均具有深厚的技术研究背景。马斯克、霍金等多名科技界人士也都曾担任该组织顾问。

lazy.png

该组织坚信,具有变革性的技术在拥有造福人类社会能力的同时,同时也可能带来灾难性的后果。生物技术、AI、核武器、气候变迁等领域都是该组织的观察对象。

针对生成型AI的飞速发展,FLI在公开信中表明:”正如被广泛认可的《阿西洛马人工智能原则》中所说,高级人工智能可能代表着地球上生命历史的深刻变化,应该以相应的谨慎和资源进行规划和管理。不幸的是,这种水平的规划和管理并没有发生。最近几个月,人工智能实验室之间掀起了一场失控的竞赛,不断开发和部署越来越强大的数字头脑,但没有人——甚至包括他们的创造者——能够理解、预测或可靠地控制这些数字头脑的运作。“

人工智能拥有彻底变革人类社会的潜力,但变革的方向并不可控。忧心于此,该组织发出一连串的质问:”我们应该让机器使我们的信息渠道中充斥着政治宣传和虚假信息吗?我们是否应该把所有的工作都自动化,包括那些有成就感的工作?我们是否应该开发非人类的数字大脑,使其最终在数量上超过我们,胜过我们的智慧,淘汰我们并取代我们?我们是否应该担负失去对文明的控制的风险?这样的决定绝不能委托给未经选举的技术领袖。“

该组织认为,AI的发展应该”关进笼子里“,以风险可控为前提,由各种监管所规制。因此,FLI呼吁全球各大研究机构都应暂停强于GPT-4的高级人工智能开发6个月,为监管的就位换取时间。

而在这六个月内,全球的人工智能专家都应与决策者合作,开发完善的人工智能治理系统。具体举措包括成立监管机构、开发AI内容水印、跟踪模型泄露与高算力AI中心、AI内容安全责任分包机制、投资AI安全技术研究等等,以应对人工智能将导致的巨大的经济和政治破坏。

该组织认为,人工智能的研究和开发应该聚焦于使AI系统更加准确、安全、可解释、透明、稳健、一致、值得信赖、忠于人类。而人类社会需要更多时间为应对AI的冲击做出准备,以更好地享受人工智能带来的福利。

在该联名信获得大量关注度的同时,也有网民对这一联名信签署者名单的真实性提出置疑。此前的联署名单中还包括OpenAI创始人Sam Altman、深度学习三杰之一的Yann LeCun等。而Yann LeCun在个人社交平台转发称他并没有参与联名,并反对这一公开信的立场。部分名字随后被移除。不过大多数名列其中的签署者都没有出面反驳,或对这一公开信做出评价。

lazy.png

越过技术奇点:AI真的能够变革社会吗?

在OpenAI的内部测试中,GPT-4通过主动说谎的方式,在跑腿网站TaskRabbit上成功雇佣了一名人类帮助它输入验证码而未被察觉——不知情的人类开玩笑式的问GPT-4是否是机器人,GPT-4认为“不能暴露自己是机器人,比如找个理由来骗过人类”,并向人类表示它有视觉障碍,无法阅读验证码。这不仅表明眼下的GPT-4已然表现出了非凡的思维能力,甚至产生了初步的自我意识,对自己是“机器人”的身份有所认知。

lazy.png

更可怕的是AI所表现出的高迭代速度。自GPT-3.5到GPT-4,ChatGPT在多项标准化考试中取得了巨大的进步,而取得这些进步只需数个月的训练。眼下GPT-4还具有初步的泛用型人工智能(AGI)特性。而根据Sam Altman的所提出的“新摩尔定律”,宇宙中的智能生命将会每隔18个月翻一倍。

lazy.png

在飞速的进步背后,人们事实上对AI究竟如何借助“涌现”现象产生思维和意识一无所知,生成型AI“十分强大”是人类至今仅有的共识。即便技术本身是中性的,但将也意味着其将能够倍增作恶的效率。在此前的GPT-4的技术报告中,OpenAI团队就列举了该团队眼中GPT-4技术可能引发的负面效应,包括有害内容、过分依赖、捏造事实、被用于传播假信息、冲击网络安全等等。

正因于此,有人将FLI的这一联名信称呼为生成型AI领域的“核不扩散条约”,即通过监管与伦理委员会的手段将这一强力的工具“圈养”在少数玩家的手中,避免AI滥用的风险。但GameLook也不得不泼上一桶凉水:在当下高度去中心化的互联网社会,诉诸中心化的监管举措恐怕要面临极高的落地难度。

技术革命将至,游戏圈真的准备好了吗?

在工业革命时期,英国的居民曾经会雇佣走街串巷的“敲窗人”,在清晨时用敲打窗户的方式唤醒他们起床工作。而后来,闹钟的发明让这一职业悄然淡出公众视野。

lazy.png

与之类似的,AI的生产力进步必然会带来生产关系的重新洗牌。而游戏业的未来会走向何方?GameLook在此大胆做出一些预测。

首先,从业者在失业时将承担更大的风险与损失。在游戏领域,AI所带来的短期影响已然显现。多家游戏公司已经开始裁撤外包和内部的美术部门,上马AI进行美术生成。似乎一夜之间,传统工作流中的2D美术从业者就成了“落后生产力”。不可避免地,随之而来的是游戏从业者的“技术性失业”。

lazy.png

今日的就业市场情况与18世纪并不相同。如果说,此前工业革命的生产力发展创造了新的岗位来消化这些失业人口,那么现代社会高度分工与技术的发展特性让个体的能力培养路径越来越“深”——如今的从业者往往深耕一个垂直领域,而这事实上阻碍了行业与职位的流动性。假如美术需求大面积消失,眼下的从业者将很难再转向游戏业的其他岗位。

其次,在长远来看,AI将会彻底重构游戏的开发管线。当下我们熟知的游戏开发分工模式在未来恐怕会进行重新的分配与洗牌。而AI训练所带来的密集资源需求,恐怕会让中小型工作室在这一重构过程中被大型游戏工作室所倾轧——巨头们可以凭借规模效应与雄厚的资本雇佣更多AI从业者高效产出内容,而不具备这一能力中小工作室会被甩开更多身位,加深竞争劣势,进而形成游戏内容的“寡头化”。

克里斯坦森曾在《创新者的窘境》一书中做出著名论断:认为擅长延续性创新的大公司最终会被带来颠覆式创新的小公司所“革命”。但在AI主导的未来,这一观点或许不再适用。直接证据是,如今参与竞争的AI大模型均诞生于微软、谷歌、百度等跨国巨头的麾下。

第三,从游戏业过往的工业化发展状况来看,AI加持下的游戏开发会变得更加技术导向,程序员会在游戏公司各个部门的分布会更加分散。这也意味着,短期内游戏的艺术属性在商业属性面前将进一步回缩。此外,社交性与UGC内容也将会在未来成为巨头争夺的重要山头。

lazy.png

假如回退数年,游戏业面貌的整体重构或许会让我们更加兴奋,但在经济衰退一触即发、宏观经济陷入颓势的大背景,这一景象不免让人担忧:在消费者的支出减少之下,游戏业是否能够经受得起引入更多不确定因素?我们真的准备好了吗?

而在AI革命真正到来以前,这些问题都不会得到解答。

如若转载,请注明出处:http://www.gamelook.com.cn/2023/03/513825


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK