7

凯文·凯利:现在监管AI为时过早,应该允许“失控”

 1 year ago
source link: https://finance.sina.com.cn/tech/internet/2023-07-02/doc-imyzhhxx2995617.shtml
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

凯文·凯利:现在监管AI为时过早,应该允许“失控”

广告
fe64-6c6ad19a55fb09b6a8b4ca54b66bf3e9.png

  平均人类并不高尚,我们希望 AI 比人类更好。

  对话 | 张鹏、李志飞

  来源 | 极客公园

  30 年前,互联网刚刚萌芽、就连个人电脑都很稀罕,一位科技作家开始了自己对当时社会各界的一次前沿漫游。在与世界最有智识的人们交流之后,他窥探到了一些未来图景,并最终写成一本大部头著作《失控》(1994 年)。直至十多年后,当移动互联网、智能手机时代到来,人们惊讶地发现,那些时下最新的概念「全球信息互联、分布式系统、数字货币、云计算等」早被这本书预言。

  这名科技作家就是凯文·凯利,也被称为 KK。他是《连线》杂志的创办人,科技观察家和「预言者」。2010 年,《失控》中文版推出,KK 也开启了在中国的一系列探访,并逐渐被国人熟知。

  站在今天的节点,通用人工智能(AGI)正在萌芽、一场时代变革即将拉开,这又隐隐和《失控》一书中的预言相呼应。KK 当时就预测,人类最终会和机器走向统一,「机器正在生物化、而生物正在工程化」。用他自己的话说,《失控》只讲了一个内容,那就是如何打造一个「复杂系统」——机器人(16.670, 0.02, 0.12%)、人工智能(AI)等都可被视作复杂系统,他认为这一思想至今依然适用。

  不久前,我们和大模型创业公司出门问问创始人& CEO 李志飞一起,跟 KK 展开了一场对谈。

  前者站在技术、商业的实务角度,后者站在人类、历史、甚至宇宙的抽象角度,共同探讨了人工智能的崛起、影响和威胁。这是一次颇有「科幻意味」和「想象力」的讨论,我们试图再次「预言」人类和人工智能的未来。

  二者都认为,今天的人工智能已经具备生命的形式,而这在人类历史上还是头一次。李志飞说,目前的 AI 已经相当于人类小孩的智商,已拥有知识、逻辑、推理、规划等真正的通用智能能力。而 KK 认为,作为「硅基生命」,AI 将和人类一样有适应性,能够自我学习、成长。

  非常相似地,他们都信奉技术乐观主义。KK 认为,AI 不会让人类失业,只会让人类更高效、并从「可恶」的工作中解放出来。AI 看似会拉大贫富差距,但更可能像人类历史上的每一次技术变革一样,通过做大蛋糕、更好地实现公平正义。而在对商业的影响上,它会同时让个体、中小公司、大公司都获得权力。

  正如《失控》一书的名字所言——凯文·凯利觉得,为了更好地获得 AI 的力量,人类应当允许 AI 的部分「失控」。毕竟,ChatGPT 正是在人类失控的「涌现」状态下诞生的。他和李志飞都认为,目前 AI 的智能依然稚嫩,人类应该继续放手,而不是过早地、过度地控制(监管)。后者可能将创新扼杀在摇篮中。

  将目光放到更长远,如果有一天 AI 真的成为一个超级生命体,那人类到底该如何与之相处?

  科幻小说和电影都描绘了一个灰暗的未来,其结局往往是 AI 自我觉醒之后杀死人类。但凯文·凯利认为,这是人类缺乏想象力的表现。失败总比成功更容易想象、也具故事的诱惑性。关于未来,人工智能的益处与价值其实不难想象。

  他的建议是,不妨将 AI 视作「人工外星人」,人类将能借助 AI 的智慧解决自身问题、且实现一定程度的「控制」。而李志飞则认为,作为 AI 的「祖先」,人类最终会跟 AI 相互融合、而非控制。

  至于这次的预言是否会成立,就要看 5000 天之后的世界了。

  以下是对话全文:

  即便 OpenAI 

  没有做出 ChatGPT,

  很快也会有其他公司做出来

  张鹏:无论中美,最近人们都在探讨大模型。你对这一波大模型的技术变革有什么感受?会觉得十分震撼吗?

  凯文·凯利:人工智能(AI)已经存在了几十年。当 AI 模型开始采用神经网络和深度学习时,出现了一个重大的飞跃,它们变得越来越庞大。大约 4、5 年前,它开始产生非常庞大的 transformer 模型(采用自注意力机制的深度学习模型)。而最近两年,它开始与大型语言模型进行接口交互。

  其实最近,AI 的重大变化不在于它的能力,这方面它的表现并没有好多少。最近 AI 真正的变化是,它让我们有了一个对话用户界面,可以用(自然)语言与 AI 进行真正的交流。而在此之前,人们需要学习大量的编程知识、非常精通才能使用 AI。但现在,突然之间每个人都会用 AI 了。这才是真正令人兴奋的部分。

  李志飞: 我同意 KK 说的,目前大语言模型最主要的变化是自然语言交互能力的提升。这确实是很多普通老百姓(29.850, 0.19, 0.64%)能感受到的,也正因如此,今天 ChatGPT 才会产生这么大的社会影响力。

  但我认为,今天的大模型在能力上也有很大的变化,而且正是这种变化才使得它的自然交互变得可能。因为实现自然交互背后,需要 AI 有很强的知识、理解能力、语言能力、推理规划能力等等。AI 必须在这些基础能力上有突破,才能实现自然语言的交互。

  并且我认为未来大模型的能力,将不仅仅是自然语言交互。比如写程序、企业自动化流程、机器人自动化等事情,都是不交互的,但它们未来也会成为可能。

  张鹏:我非常认同 AI 跟人类更好的对话能力,将会带来一波技术和商业的范式革命。如果说 ChatGPT 是 AI 发展的第二曲线,那它的出现到底是必然还是偶然?

  凯文·凯利:ChatGPT 的能力超出了所有人的预期。我不认为有人预料到这一点,包括人工智能领域的人士。实际上,大多数研究人员都不知道 ChatGPT 的工作原理,他们想努力改进它,但很困难,因为并不知道它是如何工作的。因此,ChatGPT 的出现是一个意外。

  尽管 ChatGPT 非常令人惊讶,但我们也看到了它的局限性。它主要的限制在于,这个模型是根据人类创作内容的平均水平进行训练的,因此它倾向于产生平均水平的结果。而我们常常想要的并不是平均水平、而是超过平均水平的东西。这很难做到。

  其次,这些模型的优化目标是合理性,而不是准确性。因此,如何使它们更准确是当前所有人都在努力解决的重大挑战。

3064-21b249452f68fa93923451f781febf0e.jpg

  李志飞:我觉得 ChatGPT 的出现,从短期看是偶然的,但长期看是必然的。可以说,去年底 OpenAI 做出 ChatGPT 是偶然的,但就算它没做出来,很快也会有其他公司做出来。

  这在技术的历史上无数次重演。以深度学习为例,2012 年 AlexNet 第一个做出 image annotation(图像标注),但当时很多信念、工程能力都很强的团队也在做,如果 AlexNet 没做出来,其他人也会做出来。还有 2017 年 Google 做出 transformer,都是在解决之前 RNN、LSTM 这些序列模型低扩展性等问题,如果 Google 没做出来,其他团队也会做出来。

  ChatGPT 诞生的背景是,transformer 已经很成熟了、而且我们有很强的算力去训练互联网的海量数据(19.040, 0.01, 0.05%),所有 ChatGPT 必需的元素都已经具备,它的诞生是必然的。只不过,OpenAI 在那个时间点把它组合得最好。

  张鹏:聊到必然性和偶然性的问题,让我想到了最近非常热的一个词「涌现」。这个词在 KK《失控》这本书出现过至少 88 次,今天我们应该如何理解涌现这个词的意义?

  凯文·凯利:从英语的角度来看,「emergence」是一个术语,指的是一个系统的行为、一整堆相互连接的事物,比如互联网、机器人、身体、生态系统甚至整个世界,其行为不包含在任何单个部分的行为中。比如蜂巢可以记住超出单个蜜蜂寿命的事物,因此蜂巢本身具有一种行为、能力和力量,而单个部分没有。我们称之为「emergence」。

  同样,许多正在生成的人工智能也是「涌现」的。因为在模型中没有一个地方能够解释它的来源,它需要所有部分共同协作才能产生这种新的能力。就像我们的大脑没有一个地方有「思想」,「思想」是从整个神经元中「涌现」出来的。思维、进化、学习等事物都可以从系统中「涌现」出来。

  李志飞:我对「涌现」的了解来自《复杂》这本书,它讲到「more is different」,「多即不同」。就像中国的一句古话,「量变导致质变」。大模型第一次讲到「涌现」,是去年底斯坦福跟 Google 发的一篇文章。他们通过实验发现,通过增加大模型的规模、当到达某个临界点时,它会突然「涌现」某种能力。

  我现在感觉,「涌现」这个词其实被滥用了。因为我们解释不清楚大模型的能力是怎么来的,就称之为「涌现」,这个词不可解释、也不可操控,对我们训练和应用大模型没有任何帮助。现在,大家不再研究「涌现」了,而是更多研究大模型参数量跟最终能力表现之间的量化关系,这可能对我们了解、把控大模型更有帮助。

  张鹏:我们可以理解为,「涌现」会导致「失去控制」吗?

  凯文·凯利:这样理解并不完全正确。当然,它会有「失去控制的部分」,如果你希望能够对「涌现」行为的力量加以利用,你可能需要容忍一些事物不受你的控制。目前在人工智能领域,我们对它的理解和控制可能还不够好,但这实际上是为了获得最佳结果所必需的。

  但与此同时,我们又不能让一切都「失控」,我们必须进行一定程度的「控制」,也就是引导、管理人工智能。再次强调,我们不希望过度限制、但也必须实现一定程度上的控制。不过,我们很可能永远无法完全控制它们,特别是对于更强大的人工智能,我们很可能永远无法完全理解其工作方式。这就是其中的权衡。

  张鹏:你写下《失控》这本书已经过去很多年了,在今天这个节点、结合着这一波的 AI 革命,你觉得《失控》有什么值得重新校准的部分吗?

  凯文·凯利:我认为我在《失控》这本书中并没有过多谈论人工智能和失控,它其实主要讲了如何将简单事物制造成复杂事物。有一种叫做罗德尼·布鲁克斯的子系统架构,它提到你可以通过将智能的各个部分嵌入其中,制造一个复杂的机器人。这个通向复杂的过程是,你要在已经正常工作的事物基础上叠加其他东西。(布鲁克斯的架构理论提出,更高层级的行为需要包容较低层次的行为)。

  就像昆虫,即使你割掉它的头,它也可以走路,因为行走的功能更多由局部完成。就像我们大脑有一个负责呼吸和其他自主功能的核心,我们是在这个基础上添加了更多的复杂层次。今天,当人们制造机器人和人工智能、并试图使它们更复杂时,这个思想仍然有效。这实际上是我在《失控》中谈论的唯一内容,而我认为这个观点仍然成立。

  张鹏:我记得你之前有一个很有意思的视角,就是「假设科技是一种生命」,当它涌现出接近人类的智能,那它接下来会想要什么?这会对商业领域和人类社会带来什么影响?

  凯文·凯利:技术是一种被我称之为「第七生命王国」的东西。我们加速了生命的进化,使它进入一个「干燥」的领域,不再需要「湿润」的环境,而是可以存在于硅中。我们可以利用我们的思维,制造出其他类似生命的技术。它们具有适应性,可以学习、成长。

  我的观点是,基本上技术和生命一样,会追求同样的东西。例如,它们会在进化中增加多样性,也会变得更加专业化、更具体。我们身体有 52 种不同的细胞,包括心脏细胞、骨细胞和骨骼细胞等。我们也会制造出专门的AI,执行语言翻译、图像生成和自动驾驶等特定的任务。另外,技术还会跟生命一样变得更复杂,这是显而易见的。

  最后,技术还将像生命一样「互利共生」。生命在演化过程中如此复杂,以至于它只与其他生命接触,从不接触非生物材料。比如你肠道内的细菌。它们只被其他活体细胞包围。未来,也会有一些AI不是为人类设计的,而是专门为其他 AI 服务。例如,将会有专门用于维护其他 AI 的 AI、只与其他 AI 交流的 AI。

  李志飞:我想从一个工程师的角度解释一下 AI 跟生命的关系。几年前,很多人老是问我,「Alphago(第一个打败围棋世界冠军的计算机程序)到底是几岁的智商?」当时我特别不喜欢这种问题,因为没法回答。那时候,AI 虽然可以下围棋、智商很高,但它并不能像 3 岁小孩一样进行自然语言对话。当时它跟人的机理是本质上不一样的。

  但是最近这一阵子,我特别喜欢把 AI 比作一个小孩。我觉得核心是因为,今天的 AI 已经具备了小孩拥有的、真正的通用智能能力,比如知识、逻辑、推理、规划等等。所以我想说,今天的 AI 更像一个生命体了。它在智商上像一个 5 岁小孩,在知识上可能既像一个大学教授、也像一个刚出生的婴儿,这取决于它有没有见过那些数据。

  基于这个理解,我觉得关于 AI 到底想要什么,需要重新思考。对于一个 5 岁小孩来说,他接下来首先会自我净化,其次是自我复制、进行协作。关于这个问题,我自己也没有很好的答案。

  未来 5000 天,我们将度过

  一个狭小而紧迫的过渡期

  张鹏:当AI 的能力快速成长时,很多普通人感到焦虑,害怕自己失去竞争力。KK 在这个问题上有什么思考和建议吗?

  凯文·凯利:即使 AI 技术已经发展了 20 年,但人们却觉得它是一夜成功,对它的成长速度和能力感到焦虑。我们总是容易想象最糟糕的情况,而不是最好的情况。我认为,应对变革焦虑的一个方法是回顾过去。实际上,过去人类也曾有过这种焦虑,但我们想象的糟糕情形从来没有发生过。这次很可能是一样的。

  我发现自己应对焦虑的最好办法是尝试使用它们。我发现大多数焦虑来自于那些没有使用过 AI 的人,他们对 AI 保持着一种距离感。其实他们一旦开始尝试和使用,就会看到 AI 既有好处,也有局限性和危害。这将减少他们的焦虑。

  李志飞:AGI 今天不发生,明天也会发生。既然它不可阻挡,你就应该拥抱、理解它。目前对我来说,AGI 是一个思维的伙伴。我很多问题都会跟他聊,它的知识特别全面,能从很广、很全的角度给我建议。我觉得这可能是人类拥抱 AI 的一种很好的形式。

  与此同时,我们可以看到,今天的大模型离真正的 AGI,还差一些特别关键的能力。比如逻辑推理和复杂任务规划的能力,如果你想要 AI 基于某一个目标,拆解步骤、实现目标,现在它还没有那么擅长。

  张鹏:KK 自己也是一名内容创作者,你觉得在 AI 时代,创作者不可被 AI 替代的最终价值会是什么?

  凯文·凯利:我在写作时已经使用过人工智能和其他工具。我认为,没有人会因为人工智能而失去工作。因为我无法找到一个例子,证明有一个艺术家因为人工智能而失去了工作。这是一种想象中的恐惧,一种不存在的问题。就业可能是与人工智能相关的最不严重的问题。

  我想说的是,消失的可能是你的工作描述,也就是你实际从事的工作内容可能会变化。一些人观察到,他们 50% 的工作都可以由人工智能来完成,而另外 50% 工作会被人工智能增强和放大。所以未来,可能有一半的工作不再需要人们去做,而人们又能把剩下的 50% 工作将做得更好。这通常是我们会看到的模式。

  当然,确实有一些特定类型的工作会消失,比如作为收银员去点餐和数钱。我们不希望人类去做这些工作,所以它们肯定会消失、它们也应该消失。

ac0e-23cdf5c0e7cef9f8abe2a418b4bb0b88.jpg

  张鹏:你如何评价在 AI 时代,年轻人和老年人的竞争力?

  凯文·凯利:老年人有很多优势,他们见多识广,经验丰富。年轻人也有很多优势,因为他们不知道什么是不可能的。我不认为谁的竞争力强于谁。

  我想说的是,今天的年轻人常常谈论自己是数字原住民,对技术更有优势。但由于人工智能和其他事物发展迅速,年轻人昨天可能是原住民,明天就像「老年人」了。不管是年轻人还是老年人,大家都是新时代的「新手」,都必须一辈子不断地快速学习新事物。

  张鹏:随着对AI技术的掌握不同,这是否会带来贫富差距的变化?也就是说,未来会使用 AI 的人是不是会获得更高的生产力、更好地赢得竞争?

  凯文·凯利:是的,财富差距会扩大。我认为随着时间的推移,你与人工智能合作的能力,可能比你是否上大学还要重要。也许大学的目的将是教会你如何与人工智能合作。对于那些非常有野心的人来说,如果他们学习了如何使用人工智能,他们的薪水将会有很大的差别。

  但是,随着人工智能在世界各地普及,未来我们会实现全球对人工智能的平等获取,就像对教育的平等获取一样。我认识一些在美国经营大公司的朋友,他们雇用远程工作的员工,只要他们有能力,而背景并不重要。因此,很多在南美洲、非洲工作的人,会按照美国的薪酬标准得到报酬。他们会赚比原本更多的钱。

  张鹏:技术的快速发展,可能会带来社会领域的不公平、不正义,我们该怎么在发展和公平正义之间取得平衡?

  凯文·凯利:我认为我们可以在进步与公平之间取得平衡。实际上,我认为进步的很大一部分就是传播公平。

  与几百年前相比,那时的世界非常不公平。你根据出生被视为奴隶、农奴或者农民,没有任何机会超越这个身份。但由于进步,我们现在拥有来一个更加平等、公平的世界。我认为,科技的发展可以增加公平性,虽然不一定会实现,但是它是可能的。

  李志飞:从一个工程师的角度来说,如果说你从终点去看公平,希望大家财富一样、能力水平一样,那这肯定会导致越来越不公平。但如果你是从起点去看公平,比如说让 AI 工具被所有人可用,这可能才会更好地实现公平。

  张鹏:现在我们看到有些公司,比如文生图公司 Midjourney,十几个人就创造了上亿美金的年收入。我们可否理解为,AI 从根本上变革了生产力?未来的公司会不会因此越来越小和精简?

519c-cee21165fe55b47cfcbee318b5cf599b.jpg

  凯文·凯利:现在互联网和人工智能拥有的令人惊讶的力量,可以同时赋予个人、中等公司以及大公司权力。它使个人更容易拥有一家公司,因此我们会看到很多新公司只有 AI 加上几个人。但同时,我们也看到一些公司因为人工智能的存在而变得更大,甚至增加了百万人的规模。

  因此,我们不会突然进入一个只有一两个人的公司的世界,那是不会发生的。同时,我们也不会只会让大公司受益。这就是AI的美妙之处,它可以让所有人都受益和获得权力。

  李志飞:我觉得长尾效应跟马太效应都会越来越明显。

  一方面,尾巴会越来越长,越来越多很小的公司会出现,它们会自己成为一个完整的体系。另一方面,当大公司有了很强的 AI 能力,它的组织力会变得更强。以前它只能组织 1000 人,但现在可以组织 1 万人、 10 万人、 100 万人。比如中国的外卖行业,正是依靠一整套的自动化系统,才把庞大的骑手群体组织起来。

  张鹏:目前 AI 也是硅谷最热的话题,很多创业者都以大模型为核心去思考商业创新。KK 对此有什么观察吗?

  凯文·凯利:这让我想起了互联网早期的情景。互联网最开始出现时,突然之间每个企业都意识到必须将自己放在互联网上。而现在,每个企业都在利用 AI 的对话界面,通过引入大语言模型和人工智能来开展业务。一个例子是 Wendy's(美国连锁餐饮企业),这家时髦的快餐汉堡店现在正在使用对话界面,让客人在车上点餐、和机器对话。

  除此之外,还有一些全新的服务和想法尚未出现。我不知道具体数字,但我可以肯定的是,现在正有数千亿美元的资金流入这个领域。通常情况下,其中大部分可能不会成功,但有足够多的项目会成功。我们将在接下来的三年内看到一些非常惊人的事情,以及一些可能会变得非常大的全新公司。

  张鹏:在过去的 5000 天里,KK 做了非常多正确的预言,对很多大方向有了前瞻性的把握。最近,你又预言接下来 5000 天是人类历史上一个最关键的时间段。这个节点关键在哪?人类会通向十字路口的什么方向?

  凯文·凯利:除了人工智能之外,世界上还发生了许多其他事情。我们面临气候变化的挑战,基因工程即将出现,很容易把人工智能想象成贬低人类的东西,很容易看到监控变得无处不在、而我们失去了掌控权。我们面对很多全球范围内的挑战和机遇。

  这是一个狭小而紧迫的过渡期,我们必须度过这个难关。我认为,我们可以通过电气化、电动汽车、替代能源、以及在新冠疫苗研发方面取得的成功等,获得通过这个狭小门户的机会。目前,地球上还存在许多政治紧张局势和分歧,但我们需要集体行动,需要在技术、环境等领域达成共识,共同合作解决问题。

  这是地球上首次出现全球文化、全球经济以及全球的环境影响。这也是在接下来的 5000 天里,我们成为更加全球化文明的机会。

  李志飞:KK 说,未来 5000 天,世界除了 AI 之外还有很多其他挑战。我觉得,仅从 AI 角度来说,未来 365 天也非常重要。AI 经历过很多轮,每次都是人们对它期待值很高、但它不行了,接着人们又期待值很高、它又不行了。我觉得今天这一波 AGI,到底会是圈内人认为很牛的东西、还是会成为社会上很重要的事情,这很大程度取决于未来 365 天。

  包括大模型到底要怎么发展,是越大越好、还是要加入多模态、还是要加入解决方案等等?包括看渗透率,目前全世界可能不到 5% 的人用过 ChatGPT,我们怎么把渗透率从 5% 提到 20%?包括监管,人类应该怎么应对 AI 给社会带来的影响?还包括 AI 除了应用于互联网等行业,它该如何在医疗、汽车、金融等传统行业去落地?等等。

  我觉得这可能需要至少一年的时间,通过人们做出各种各样的尝试,才能有一个更清晰的判断。

  平均人类并不高尚,

  我们希望 AI 比平均人类更好

  张鹏:很多时候人类倾向于信任技术,比如有人会在自动驾驶的车上睡觉而出事故。这种对先进科技的潜移默化的信任,是否是人类的习惯?这会带来什么后果?

  凯文·凯利:自动驾驶汽车不是完美的,但它们在驾驶方面仍然比人类更好。我们能信任人工智能吗?在和聊天机器人的对话中,我们发现它们的答案不是准确无误的,所以我们无法完全信任。但我认为,我们将很快开始解决这个问题。

  现在,大多数人都信任他们的计算器。你给它数字,它给你答案,你完全信任它。所以我们知道机器是可信的,这是可以努力改进的。而关于人工智能的偏见,因为它们根据平均人类来训练的,而平均人类是种族主义者、性别歧视者、恶意人士,并不高尚。我们实际上希望我们的人工智能比人类更好。

  就像计算器比平均人类更好一样,你更应该依赖计算器给你的答案,而不是平均人类。信任是我们应该关注和努力解决的问题,虽然面临许多挑战,但最终我认为我们会高度依赖和信任人工智能和机器。

  张鹏:美国最近有很多人认为,AI 的发展速度太快,应该慢一点、甚至停下来想一想。你赞同这样的想法吗?

  凯文·凯利:不,我不支持。我认为这是误导、误解和不必要的。我不认为这是真正可能的,也不认为这是可取的。

  张鹏:在人类的大部分科幻电影或者科幻小说里,AI 都是一个比较灰暗的角色,这是因为人类缺乏想象力、还是我们有太多不正确的想象?

  凯文·凯利:好莱坞总是把人工智能描绘成反乌托邦、恐怖和不受欢迎的形象,我认为这是缺乏想象力的表现。因为想象一个事物如何失败,比想象它如何成功要容易得多,这是宇宙的法则。老实说,人们很难想象 100 年后人工智能无处不在、廉价且对人类有益的美好世界,尽管那是我们想要生活的世界。

  此外,那些电影制片厂非常擅长讲故事,而一个伟大的故事的要素是冲突、灾难以及一些强烈的元素。无论是战争、飓风还是试图毁灭世界的人工智能。因此,在好莱坞电影中我们不太可能看到人工智能的美好愿景,因为这并不为故事做贡献,虽然这种可能性存在,但非常小。

  因此,我们不能通过对好莱坞(电影)的印象来看待人工智能。不幸的是,许多人就是这么做的。一提到人工智能,他们就会想到「终结者」、「2001 太空漫游」、「HER」。

  李志飞:我觉得所有的不信任都是因为不理解。当我们面对 AGI 这个新物种,我不理解它的能力是怎么出现的、它到底想要什么、它能干什么,这才是最核心的问题。

  我觉得人类能做的,一方面是自己要多去理解 AGI,另一方面是学会让 AGI 自己解释清楚自己。比如当它给你一个答案的时候,你让它把内部运作过程、内心的独白讲出来。这样可能会产生更加强烈的信任。

  张鹏:对 KK 来说,似乎老子的《道德经》对你启发很大。你提到「最高级的控制是失控、最低级的控制是什么都控制」。你怎么看最近政府和科技界正在加大对AI的监管?

  凯文·凯利:我认为目前的监管并不好。当然,监管是重要且必要的,它是确保事物顺利进行、保持公平竞争环境、确保安全的必要手段。但过早进行监管是可怕的。目前的问题是,我们试图对我们不太了解的东西进行监管,这通常会导致灾难。

  李志飞:为什么要监管?从根本上说,是人们担心 AGI 带来的负面影响会大于正面影响,担心它能力太强了、社会无法接受。但在当下这个阶段,这个判断是错误的。因为今天,AGI 带来的正面影响,肯定要应该要大于它的负面影响。

  其次,今天 AGI 的真正问题其实是,它的能力还不够强。包括规划能力、跟物理世界结合的能力、自我能进化的能力等等。我们虽然看到了希望,但其实离真正实现仍然非常遥远。我们或许永远都不能到达。

  所以我的观点是,我们不能刚看到 AGI 趋势,就大幅地加强监管。这可能使得我们根本还没实现 AGI,就把它抹杀了。监管肯定需要有,但不应该过度监管。

  张鹏:人工智能已经被谈论很多年了,现在看来它正在进入一个全新的时代。如果 AI 未来真的有机会成为一个智慧高于人类的生命体,我们到底应该在人类的文明里融入它们、还是把它们纳入人类管控之中?哪种方式更能真正升级人类的文明?

  凯文·凯利:我认为可以用一个非常有用的框架来理解未来的人工智能(AI)——不是指今天的 AI,因为它们与未来 30 年、50 年或 100 年的 AI 相比,还不够复杂——那就是将其视为来自另一个星球的人工外星人。

  大量的 AI 将是我们从未见过的一种物种,它们以不同于人类的方式思考。它们会像 Yoda(《星际大战》中的虚拟角色)或 Spock(《星际迷航》中的虚拟角色)那样聪明,甚至在某些方面超过人类。我们会制造许多不同类型的人工外星人,尊重它们,并利用它们不同的智能来帮助我们解决棘手的问题,比如弄清楚量子引力到底是什么。

  但我们不会将控制权交给它们。如果我们不喜欢它们的行为,我们会送回、关闭它们。如果我们认为它们获得了太多的权力,就可以剥夺它们的权力。我们不希望让 AI 决定我们的命运。

  李志飞:现在的 AGI 就像蝴蝶,从幼虫里获取了很多营养成分后,自己完成了升华。它相当于利用了人类过去所有的互联网知识,来完成自己的蜕变。未来,AI 肯定在很多方面都是超越人类的。我觉得人类能作为 AI 的祖先,也挺值得开心的。

4bbc-6b7ef147b54b1f1cb83a847e2b342e12.jpg

  KK 说,我们要把 AI 当做一个外星人,这听起来更多还是要控制。我觉得人类可能太高估了自己的能力或智商。你可以想象一下,比如再过 50 年,全世界最牛的、最有影响力的 100 个智能体里面,也许只有 20 个会是人类,剩下 80 个都是 AI。所以我觉得,最后人类和AI 一定是融合,而不是控制。

广告

责任编辑:韦子蓉


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK