7

AI威胁论:先过狗关,再赛人智

 1 year ago
source link: https://www.woshipm.com/ai/5850948.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

AI威胁论:先过狗关,再赛人智

2023-06-20
0 评论 267 浏览 0 收藏 15 分钟
释放双眼,带上耳机,听听看~!
00:00
00:00

ChatGPT的发布让人工智能引起关注,有些人认为它会对人类的发展构成威胁;而另一些人则认为AI还未发展到如此成熟的阶段,大可放心。本文就各界对AI的消极、积极两方观点进行陈述总结,希望能对你有帮助。

4fcf156a-da8d-11ed-8198-00163e0b5ff3.jpg

ChatGPT让人工智能再次引起科技界的震动,同时也激起了政策制定者、消费者倡导团体以及企业领导层的警觉。他们普遍要求为这种前沿技术制定规范,以确保其发展道路的可控性和可持续性。

几个月前,马斯克资助的生命未来研究所(Future of Life Institute,FLI)发起了一场具有影响力的公开信签名运动。该运动强烈呼吁先进大模型研究应至少暂停6个月,目的在于对当前人工智能发展的快速膨胀进行深入反思,因为这可能正导致我们失去对这项技术的控制。

上个月,人工智能安全中心(Center for AI Safety,CAIS)公布了一份瞩目的简短声明。这份声明得到了OpenAI和DeepMind的高级管理人员、图灵奖得主以及其他AI领域的领军研究人员的共同签署。他们称AI这一堪比“疫情和核战争”的技术或对人类构成生存威胁。

不过,与众多AI谨慎派不同,以“深度学习三巨头之一”杨立昆(Yann LeCun)为代表的乐观派并认为,我们应该更加耐心,更加相信科技的进步;AI现阶段仍处在它的青涩和幼稚期,我们远未抵达那个需要紧急行动的点。

这两派的对立并非细枝末节的学术争论,而是关于人类如何看待技术的问题:是人类把技术看作是工具,完全受人类控制;还是把它看作可能脱离人类控制,甚至危及人类存亡的潜在威胁。

一、乐观派:AI不如狗

上周三的Viva Tech大会上,Meta首席AI科学家杨立昆被问及AI目前的限制。

“这些系统仍然非常有限,它们对现实世界的底层现实没有任何理解,因为它们完全是在大量的文本上接受训练的”。杨立昆说,“大部分人类的知识与语言无关…所以人类经验的那一部分并未被AI捕捉到。”

“这告诉我们,人工智能还缺失了一些真正重要的东西……别说是赶上人类的智力水平了,人工智能现在是连狗都不如”。杨立昆总结道。

这并不是杨立昆首次发言“AI不如狗”,在上月底350位AI领域大佬签署CAIS组织的联名公开信时,杨立昆转发了同是乐观派华人科学家吴恩达的推文表示:

“在人类最重要的生存问题清单上,根本排不上超越人类的人工智能。主要是因为它还不存在。直到我们能设计出起码达到狗狗水平的智能(更不用说人工智能了),再来谈安全问题也不迟。”

3T5llFNw7mmWphO94ELs.png

当然,“AI不如狗”本质上输出的结论是,人类并没有真正设计出超级智能系统,谈论安全或控制问题有些为时过早。

至于如何更加全面地反驳AI威胁论,他提供了两个更有力的论证角度:

GiLlWQFBlmUZqplUrDkk.png

1. 人们不会给现阶段的AI以完全自主权

杨立昆指出,现阶段的自回归模型如GPT-4,虽然拥有强大的自然语言处理能力,但其输出结果是不可预测和难以控制的。无论是改变训练数据的统计信息,还是调整问题的形式,都无法直接地约束这些AI模型以满足某种特定目标。

这种情况自然引发了一系列的担忧。人们在某种程度上假设,一旦允许这些AI系统自由地做任何我们能通过互联网连接的事情,让它们有自由使用网络资源的权限,那么它们可能会做出一些疯狂的、不理智的,甚至可能带来危险的行为。

一些人担心,我们将无法控制这些AI系统,它们会逃脱我们的控制,甚至可能控制我们,因为它们的规模更大,所以它们的智能也会增强。

然而,这种观点其实是没有根据的,或者说是纯粹的想象和夸大。未来被授予自主性的系统,应该是能够规划一系列行动、有明确目标且易于控制的。因此,杨立昆预测,理智的人不会使用完全自动的大语言模型,他们会转向更复杂、可控制的系统。

2. 智力和控制欲毫无关联性

许多人认为,智能实体会因为比人类更聪明而想要支配人类。然而,杨立昆认为这是个误解。智力高并不意味着就有支配他人的欲望,这更多的是与进化和生物性质相关。

人类、黑猩猩、狼、狗等社会动物会想要影响他人,是因为它们在进化过程中建立了这种欲望。而对于非社会动物如长颈鹿来说,它们并没有支配他人的欲望。

因此,控制欲望和能力与智力是两个不同的概念,它们之间没有必然联系。

此外,谈及AI带来的失业问题,他认为关键在于如何分配财富,如何组织社会使每个人都能从中获益。这是一个政治问题,不是技术问题,也不是人工智能造成的新问题,而是技术进化造成的。

在杨立昆、吴恩达等乐观主义者的观点中,可以发现一个共识:任何新技术在初次出现时,都不可能完美无缺。

实际上,人类需要的是一种可以控制的方式,限制技术可能带来的危害,对其进行有效地监管,并解决可能的恶性用例。

完全中断研发进程并不是一个明智的决策。人类应该保持对技术进步的尊重和包容,而不是因为害怕未知而过早地否定其潜在的价值。

二、谨慎派:心思各异的联盟

相较于乐观派,谨慎派的阵营似乎人数更多,也反应了人性的一种普遍趋势。当新的事物出现时,它往往会引发人们的担忧和疑虑。

这是人类对可能带来颠覆性改变的新技术所产生的本能反应。

在两轮的公开签名活动中,可以看到谨慎派的声音和影响力逐步增强。当这种关于“AI风险”的讨论在外界引发了广泛地思考和讨论的同时,一些质疑声音也不断出现。

关于“AI的风险和危害”,这个话题已经成为了一个表态的舞台,每个参与者都希望在这场风潮中塑造自己的正面形象。

然而,问题在于,这场大讨论真的有用吗?

表面看起来,似乎每个人都在积极参与,但实际上,却鲜有人真正采取行动。这种现象在一定程度上显得像是在浪费大家的时间。“那些创造出AI技术的人参与这种声明,其实无非就是为了给自己博取好名声”。这是不少业界人士对这种现象的评价。

就连“人工智能之父”,德国计算机科学家于尔根·施密德胡伯(Jürgen Schmidhuber)也表示,许多在公开场合对人工智能的危险提出警告的人只是在寻求宣传。

当然,在一些人可能试图利用这种情况来提升自己的知名度的同时,不乏也有一些独到的见解。

中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,也在CAIS组织的这封公开信中签名。他认为,公开信的目的并不是阻碍人工智能的发展,而是绝大多数人有权利知道人工智能的潜在风险,研发者们也有义务确保人工智能不给人类带来生存风险,至少要确保这种风险的最小化。

在他的观点中,人工智能对人类生存所可能带来的威胁,可以从两个不同的角度进行分析:

1)未来

如果将目光放到无限远,远到通用人工智能和超级智能到来,AI智力水平可能远超人类,那么或许就会像很多影视作品呈现的那样:视人类如同蝼蚁,与人类争夺资源,甚至危及人类生存。

2)现在

如果只看现在和不远的未来,当代人工智能只是看似智能的信息处理工具,不具有真正的理解能力。

但曾毅认为:正因为它们算不上真正的智能,不理解什么是人类、什么是生死和什么是生存风险,才有可能会以人类难以预期的方式犯下人类不会犯的错误。而这恰恰是更紧迫的关切所在。

有趣的是,这似乎正好在反驳杨立昆的两大主要论点。

此外,谨慎派阵营中,三位“人工智能教父”中的两位辛顿(Geoffrey Hinton)和本吉奥(Yoshua Bengio)也赫然在列。他们曾因在深度学习方面的工作,与杨立昆共同获得2018年“图灵奖”。

然而,与杨立昆的观点相左,本吉奥在接受采访时坦言,他开始对自己这一生的工作成果产生了一种“迷茫”的感觉。

本吉奥认为:所有致力于构建强大AI产品的企业都应该进行正式的注册和报备。“政府需要对这些公司的行动进行追踪,对其工作内容进行审查,对AI行业至少要实行像对待航空、汽车或者制药等领域一样的监管机制”。

辛顿则在近期辞去了谷歌的工作,并警告这一技术领域的持续发展或将带来巨大风险。辛顿表示:“我总在用这样的借口安慰自己:哪怕我自己不做,其他人也会这样做。但目前真的不知道要怎么防止坏蛋利用 AI 来作恶”。

辛顿对于AI的担忧主要有两个方面:

  1. 首先,他担心AI会完全取代那些需要大量记忆的工作,这可能会对许多行业和职业产生深远影响。
  2. 其次,随着AI逐步获取编写和运行自身代码的能力,他担忧AI最终可能取代人类的位置。

三、写在最后

上文中对立两派的观点,其实也有重合的地方。对于如今的 AI 是否具有风险以及该如何克服,两派代表人物杨立昆和奥特曼看法一致。

他们都认为,即便风险存在,但可以通过仔细的工程设计,减轻或抑制它。

可以肯定的是,随着AI技术的不断发展和深化,两派之间的争论和争议仍将持续不断。

不过相对于国外热火朝天地讨论,国内对AI伦理和风险的关注相对较少。市场似乎更专注于AI大模型如何改变各行各业,并对此感到喜悦和兴奋。

原因可能在于,一方面为了在全球竞赛中夺取发言权,商业公司首先需要缩小与国外AI大模型的差距;另一方面,也正由于国内的AI大模型能力还未进入未知前沿,大家对AI可能带来的威胁并未给予足够的关注。

在此背景下,国内的AI创业者更倾向于维持一种技术乐观主义的态度,他们不希望过早收敛自身发展,认为这将相当于提前投降,放弃了与国外竞争的机会。

总的来说,这次的争论并非毫无意义的口舌之争。它为我们提供了一个理想的舞台,让我们深入探讨AI的未来走向,以及如何以人类的智慧和经验,来引导这一领域的发展,使其真正地服务于人类社会,而非反过来控制我们。

从这场激烈的辩论中,可以清楚地看到,人类现在正站在一个重大的决策点。无论是选择乐观地拥抱AI的发展,还是谨慎地审视其可能带来的风险,都需要意识到,现在所做的每一个决定,将会影响人类和AI之间的关系,也将塑造人类对未来的想象和期望。

作者:樟稻;编辑:伊页

来源公众号:科技新知(ID:kejixinzhi),洞察技术变化背后的产业变迁。

本文由人人都是产品经理合作媒体 @科技新知 授权发布,未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK