6

《时代》人工智能百人榜(一):领袖

 6 months ago
source link: http://www.wodepm.com/?p=1424
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

人工智能的独特之处既最令人恐惧也最值得庆祝——一些技能堪比我们人类,然后还能更进一步,做到人类做不到的事情。模仿人类行为已成为人工智能的决定性特征。然而,机器学习和大语言模型的每一次进步背后实际上都是人——这里面既有经常被忽视的,让大语言模型使用起来更安全的人类劳动,又有就在什么时候以及如何最好地使用这项技术方面做出关键决定的个人。本文综合了各方推荐和建议,将数百项提名汇总到一起,最终形成了这份百人榜名单。从很多方面来说,这 100 人构成了推动人工智能发展的关系网络与权力中心。他们是竞争对手、监管者、科学家、艺术家、倡导者、以及高管——属于既互相竞争又共同合作的人类,他们的洞察力、欲望与缺陷将塑造一项影响力与日俱增的技术的发展方向。

达里奥·阿莫代&丹妮拉·阿莫代:Anthropic CEO &总裁

作为兄妹,达里奥·阿莫代(Dario Amodei)和丹妮拉·阿莫代(Daniela Amodei)比大多数兄弟姐妹都更合得来。 丹妮拉说:“我们从小感觉就比较合拍”。

对于掌管着全球领先的人工智能实验室Anthropic 的这俩兄妹来说,对齐是首要任务。用行话来说,对齐意味着确保人工智能系统与人类价值观“保持一致”。 40 岁的达里奥与36 岁的丹妮拉(分别是 Anthropic 的首席执行官和总裁)相信,与其他开发尖端人工智能系统的公司相比,他们正在采取更安全、更负责任的方法来进行人工智能的对齐。

成立于 2021 年的Anthropic开展了开创性的“机制可解释性”( mechanistic interpretability)研究,其目的是让开发者能够进行与大脑扫描类似的操作,从而了解人工智能系统内部到底发生了什么,而不是仅依赖于其文本输出来评估,因为这并不是其内部运作方式的真实体现。 Anthropic 还开发了Constitutional AI,这是对齐人工智能系统的一种全新手段。它已将这些方法嵌入到其最新的聊天机器人 Claude 2 之中,后者已成为 OpenAI 最强大的模型 GPT-4 的有力竞争对手。

Constitutional AI可让开发者通过建立“宪法”来明确指定他们的系统应遵守什么样的价值观,将人工智能是否能做某事的问题与更具政治色彩的是否应该做某事的问题分开。达里奥说,人工智能对齐的另一种主要方法——也就是所谓的人类反馈强化学习(RLHF)——往往会导致将这两个问题“混为一谈”。卡内基梅隆大学最近的研究表明,接受过更多的 RLHF 训练的聊天机器人,往往会比没有接受过 RLHF 训练的聊天机器人给出更社会、经济自由化的答案。这可能是因为训练过程往往会奖励模型的包容性和无害性。Constitutional AI可以让开发者向人工智能灌输一套编成法典的价值观,而不是让 RLHF 隐式地且不完美地发挥影响。

达里奥说:“我认为把这些技术问题区分开来是有好处的:一个是模型试图遵守宪法,但能不能完美做到的问题,一个更多属于价值观辩论的问题:也就是宪法中的内容是否正确?”他说,过去这两个问题经常被混为一谈,“导致了大家对这些系统如何工作以及它们应该做什么的讨论没有成效。”

Anthropic 有七位创始人,他们都曾在 OpenAI 工作过,然后纷纷离开并创办了自己的公司。达里奥和丹妮拉对于推动他们离开的原因(如果有的话)用了一种外交辞令,但表示他们从一开始对于给模型设立安全屏障就有着不同的愿景。 达里奥说:“我认为我们在这个生态体系中的存在有望让其他组织变得更像我们。这是我们在这个世界的总体目标,也是我们变革理论的一部分。”

因此,Anthropic 对自己的定位是人工智能安全研究实验室。不过,为了进行这项研究,阿莫代兄妹已经算出两人需要开发自己最先进的人工智能模型。为此,他们需要大量的计算能力,这反过来意味着他们需要大量的资金。这意味着他们需要以企业的形式运营,向其他企业出售自己的人工智能模型的使用权,并从投资者那里筹集资金,因为非营利组织负担不起这些。 Anthropic 目前已筹集了 16 亿美元,其中包括来自现已破产的 FTX 加密货币交易所的 5 亿美元。

Anthropic 的创始人认识到这种商业化的做法存在内在的紧张关系——这可能会加剧他们创立 Anthropic 所要预防的(安全)问题——但他们相信,要想进行有意义的人工智能安全研究,这是唯一办法。 达里奥说:“安全问题与模型的内在能力之间的关系纠缠不清,这是导致问题变得困难的原因之一”。

为了努力让自己免受市场可能产生的一些不正当激励的影响,Anthropic 的领导者打算将公司建设为一家公益公司,这意味着它的创立是为了产生社会公益和公共利益。实际上,这种做法导致即便投资者认为 Anthropic 把财务回报以外的目标当做优先事项,想提起诉讼的难度也会加大。但 Anthropic 是否已经解决了维护人工智能安全与作为公司运营之间的紧张关系呢?这歌问题会持续存在。今年 4 月,TechCrunch 报道称,Anthropic 曾向潜在投资者承诺将用他们的钱开发 Claude-Next,据称该模型的能力比当今最强大的人工智能强 10 倍,以此来筹集资金。

达里奥对该报道提出异议,但没有给出具体细节,并拒绝对Claude-Next发表评论。他还否认了这样一种观点,即以公司形式运营 Anthropic 的决定已导致自己陷入到一场适得其反的建造更大模型的竞赛,但他说:“不管怎样,扩大模型规模是我们计划的一部分。我认为,选择不这样做并不是解决问题的办法。”

对于人工智能可能给人类未来带来的潜在好处,Anthropic 的领导人明显不像其他人工智能的杰出人物那样直言不讳。丹妮拉说,这“并不是因为我们不在乎,也不是因为我们认为没好处,而是因为我们认为现在有很多重要的工作要做。”她的哥哥同意这一观点,但对讨论人工智能乌托邦场景有何价值持更怀疑的态度。 “我只是不想让这个变成企业宣传。”

山姆·阿尔特曼:OpenAI CEO

山姆·阿尔特曼给予人类很大的信任。他相信,人类足够聪明,适应性足够强,能够应对日益强大的人工智能释放到世界上——只要这些释放是安全且逐步进行的。 38 岁的 OpenAI 首席执行官阿尔特曼表示:“社会有能力适应,因为人们比许多所谓的专家想象的要更聪明、更精明。我们可以解决这个问题。”

这一理念不仅解释了为什么 OpenAI 决定在 2022 年 11 月推出震惊世界的聊天机器人 ChatGPT。这也是该公司在几个月后加倍下注,一鼓作气又面向公众推出了 GPT-4这个有史以来最强大的大语言模型的原因。

这些人工智能的发布不仅让创业加速器 Y Combinator 的前总裁阿尔特曼成为科技界最热门的名字之一,而且这些发布也证明了他的正确,至少到目前为止是这样:人类能够快速适应这些工具,不会自我崩溃。国会议员们在恐惧与敬畏的推动下开始认真讨论该如何监管人工智能,而这是阿尔特曼一直以来的希望。在 ChatGPT 发布后短短几个月内,美国和英国政府就宣布要将新的人工智能计划列为高度优先事项,而七国集团也宣布制定一项协调计划,要为这项技术设置护栏。人类正在逐渐学习如何利用人工智能工具来追求直接劳动、教育和乐趣(或许学习什么时候不该用更重要)。

尽管 ChatGPT 与 GPT-4 令人敬畏,但它们最重要的遗产可能是促使人类想象接下来会发生什么。当今最先进的系统可以编写令人信服的文字、通过律师考试、调试计算机代码。如果它们能够制定复杂的计划、欺骗用户实现自身的目标,并脱离人类监督自己行动时,会发生什么? OpenAI 的突破之年表明,在拥有足够的超级计算机、数据和资金的情况下,全球最先进的人工智能公司可能很快就能召唤出具有此类能力的系统。与早期针对特定目的进行硬编码的计算机不同,机器学习是一种新的计算范式,它带来的系统只有在开发后才能知道能力。随着这些系统变得更加强大,它们也变得更加危险。至少现在,即便是计算机科学领域最聪明的人也不知道如何可靠地约束住它们。

值得称道的是,除了推动人工智能所谓能力不断发展外,阿尔特曼领导下的 OpenAI 也把解决这个待解问题作为方案的关键部分。它开创了“利用人类反馈进行强化学习”(RLHF)这个安全技术,这一创新意味着 ChatGPT 不会陷入到导致前几代人工智能聊天机器人失败的毒性陷阱。 (虽然这项技术并不完美——需要依赖低薪人力,并且无法始终确保聊天机器人用真实信息做出响应——但仍是迄今为止本行业最好的技术之一。)今年6 月,OpenAI 宣布将计算能力资源的20%投入到“超级对齐”问题的解决上——也就是如何确保比最聪明的人类还要聪明的人工智能系统在行动时会以人类的最大利益为重。

阿尔特曼的哲学清楚地指明了未来任务方向。 阿尔特曼表示:“我们有责任教育决策者和公众那些我们认为正在发生的事情,以及我们认为可能会发生的事情,并将技术推给世界,让大家能够看到它。我们的机构和民间社会的职责是弄清楚我们作为一个社会想要的究竟是什么。”

戴密斯·哈萨比斯:谷歌Deepmind CEO、联合创始人

当戴密斯·哈萨比斯(Demis Hassabis)还是个年轻人时,就帮助设计了《主题公园》(Theme Park)。这是一款流行的电脑游戏,让玩家能够以上帝视角监管庞大的游乐场业务。从那时起,领导着顶级人工智能实验室之一的哈萨比斯就一直在努力获得观察世界的上帝视角。

DeepMind 成立于 2010 年,并在 2014 年被谷歌收购。作为该公司的首席执行官,哈萨比斯带领计算机科学家团队在人工智能取得了若干突破,包括解决了棘手的蛋白质折叠问题,以及在复杂的围棋游戏中击败了人类世界冠军。 2023 年 4 月,在 OpenAI 的 ChatGPT 取得成功后,谷歌CEO桑达尔·皮查伊(Sundar Pichai)开始重组公司的人工智能团队,哈萨比斯获得了更多权力。此次重组将 DeepMind 与谷歌的另一个人工智能实验室 Google Brain合并,并由哈萨比斯掌舵。皮查伊打算精简谷歌在开发强大人工智能的努力,以便抵御日益激烈的竞争。

谷歌 DeepMind正在开发一个大型人工智能模型,名字叫做Gemini。哈萨比斯暗示,这个模型可能将超越 OpenAI 的 GPT-4。 (这个模型将是“多模态”的,也就是它不仅可以输入和输出文本,还可以输入输出其他形式的媒体,比方说图像。)跟 OpenAI 的山姆·阿尔特曼非常相似,哈萨比斯认Gemini只是实现通用人工智能(AGI)这个更大追求的一步,他同时认为,只要人类能避免AGI不受控制的发展可能带来的严重风险,AGI就可以释放科学进步并重塑世界,让世界变得更美好。

问:早在今年四月份的时候,谷歌就宣布将把两个独立的人工智能实验室合二为一,由你领导。这对你一直都在做的工作来说有何改变?

戴密斯·哈萨比斯:我认为是好事,因为这能让我们走快一点、更精简、也更加协调,尤其是考虑到这个领域正在加速发展。就整个新组织的使命而言——有时候我喜欢把它叫做是新的超级单元——融合了这两个令人惊叹的组织的优势与传奇历史。我希望在创新、能力、探索性研究上加倍下注,但现在还必须对大模型的大工程进行许多的协调。这就是新部门职责的一部分。

至于任务方面,新组织要做的事情是之前两家实验室所做的事情的超集。显然,这包括最先进的技术不断进步,所有针对通用人工智能的研究,以及利用人工智能来推进科学发展等。这些还会继续做。但此外,还包括将来利用人工智能驱动的产品前所未见的能力改善数十亿人的日常生活。而谷歌凭借着所拥有的产品界面,有难以置信的机会来做到这一点。其中包括六款用户超过 20 亿的产品(比方说 Google Search与 Android),以及 15 款用户超过 10 亿用户的产品(比如 Google Drive与Photos)。对于让人工智能进入平常人家,丰富他们的日常生活而言,还有其他更好的手段吗?我们对继续在所有这些方面的工作感到非常兴奋。两个实验室都已经在做上述的一切了。但我想说,现在力度更大,速度更快了。

你们现在正在开发这个叫做“Gemini”的新模型。我们对它应该有什么样的预期?是之前版本的扩大版,只不过训练数据更多了,计算能力更强了?还是说它在设计方式上存在架构的不同?

这既是不同规模的组合,也有创新。其中一个关键是一开始它就是多模态的。我们过去做了很多多模态方面的工作,比如 Flamingo,这是我们用来描述图像内容的系统。这个最终支撑起整个行业许多的多模态方面的工作。 [Gemini] 在此之上做了一些改进,然后再跟文本模型等东西内置到一起。我们还考虑实现规划与记忆能力——相对来说我们处在最早的探索阶段。而且你应该把 Gemini 堪称是一系列模型而不是单个模型,尽管显然,会有不同规模的单一模型。所以我想说,这是规模与创新的结合。从早期结果来看很有希望。

我们现在看到的大语言模型始终存在所谓的幻觉问题,或者说它们倾向于将猜测当作事实。利用强化学习技术似乎可以让模型诚实一点,但目前还不清楚强化学习及扩大规模是否可以完全解决问题。你现在对这个问题有什么想法?

我认为强化学习甚至可以帮助[模型]变好一个数量级。帮助相当大。但要完全解决[幻觉]问题,我认为还需要一些其他创新。诸如检索方法和工具使用之类的东西会有所帮助。也许可以利用谷歌搜索作为工具来检查[模型]将要输出的内容,或者检查[模型]的情景记忆库(可能可以存储事实)。我认为这些也许是提高准确性的好方法。不妨以我想将这些模型用于科学研究的情况为例。如你所知,[聊天机器人]援引的东西往往看似很合理,但却是编造的,因为那只是看似合理的用词。所以它需要对这个世界存在哪些实体有更好的理解。学术论文不是一系列独立单词,整个引文基本上是一个整体。所以我认为系统需要知道一些类似的事情。也就是说,逐字预测是不合适的。你得将整个论文名称、摘要以及出版地点作为整体进行检索。

确实,所有这些方面我们都在努力。一是改进强化学习。我们与 Sparrow 进行了很出色的合作。我们最终没有把 Sparrow 作为独立模型发布出来,但我们利用了从中学到的各种经验,包括对规则的遵守,坚持某些类型的行为等。经过一段时间的努力,我们已将错误率从 10% 降低到 1%。所以这是一个数量级的改进。关键是要在不降低模型的清晰度、创造力与趣味性及回答能力的基础上做到这一点。这就是其中的权衡取舍。我们知道如何做其中一点了。如果能同时做到这两点则更佳:也就是既要高度准确,但仍然非常明晰和有创意。

我们上一次聊是在去年 11 月,那时候 ChatGPT 还没发布。即便如此,你还是发出了这样的警告:人工智能这个研究领域正变得越来越危险,我们正处在这些技术对社会造成巨大破坏的风口浪尖,人工智能研究人员需要更加小心。后来,你还联署了一封公开信,警告先进人工智能的风险与流行病及核战争一样严重。但也是从那时起,我们看到各国政府对人工智能政策的思考方式发生了巨大变化:他们开始认真思考这个问题,而在去年 11 月的时候他们绝对不是这样的。你现在感觉是更乐观了,还是更害怕了,还是差不多——为什么?

你是对的,我们交谈的时刻很有趣,就在最新一波事件再次改变一切的前夕。这个话题我认为很复杂。事实上,我对目前的情况相当乐观。当我与英国和美国政府官员交谈时,发现他们现在已经掌握了最新情况,这很棒。这是这波聊天机器人热的好处:让公众、政治家和民间社会的其他关键人物接触到最新的人工智能。我依旧认为,也许带了点偏见,到目前为止,像[蛋白质折叠突破]AlphaFold这样的东西,对于科学进步来说更为重要。

当然,我们之所以成为人类是因为语言。所以很显然为什么聊天机器人会引起如此大的共鸣。我认为好的一面是 [ChatGPT] 设法移动了奥弗顿之窗(编者注:约瑟夫·奥弗顿认为,一个政策的政治可行性主要取决于它是否在这个范围内,而不是政客的个人偏好),让大家可以讨论这个问题,而这是优先事项。到目前为止,我所看到的情况,尤其是英国、美国等国家的情况,都非常好。比方说,我认为英国关于人工智能的白皮书对责任和创新做了很好的权衡。认真对待是有好处的。

关于你们相对谷歌的独立性问题一直存在。据报道,谷歌在 2014 年收购 DeepMind 的时候,曾做出这样的保证:如果 DeepMind 创建出通用人工智能,它将受到 DeepMind 的独立道德委员会而非谷歌本身的监督。但 2021 年时,《华尔街日报》报道称,DeepMind 争取更多自主权(其中包括建立一个防止所开发的强大人工智能被单一公司实体控制的法律结构)的谈判最终以失败告终。现在,随着 2023 年两家实验室合并,以及 DeepMind 成为谷歌的正式一员,在外部看来,谷歌正在进一步收紧控制,并侵蚀你过去可能拥有过的独立性。你有这种感觉吗?

事实上恰恰相反。过去的猜测我不便详述,其中很多都是十分不准确的。但道德准则部分——我们一直都有这样的规定,当刚开始 DeepMind还是独立的时候,当我们进入 [谷歌] 的时候,这个东西就有了,后来它又发展成为 [谷歌] 人工智能原则。所以实际上,谷歌现在已经在全公司范围内采用了。我们对此感到非常满意。这跟 DeepMind 的原则几乎没有区别。谷歌人工智能原则的输入很大一部分来自于我们。所以这一切都是匹配的。我们对[how]产生了巨大影响,我对谷歌解决这些问题的整体方式感到非常满意。我认为这是非常负责任的。我们的绰号是“既要大胆也要负责”地运用这项技术。我认为这两谷歌都得要。在创造性方面这两个词之间存在着紧张关系,但我认为这是故意的。我们没有不舒服的感觉。我们都十分专注于以深思熟虑、科学、负责任的方式向全世界提供这项令人惊叹的技术的好处。但这并不意味着我们永远不会犯错,因为这是一项新技术。它发展得太快了。但我们希望能最大限度地减少这种情况,并最大限度地提高效益。事实上,这与外界以为的情况完全相反。

我们已经讨论了很多关于风险的问题。Gemini有没有什么功能是如果在测试阶段展示时你会决定:“不,我们不能发布这个”的?

是的,我的意思是,这也许是几代之后的事了。我认为人工智能研究领域现在最紧迫的事情是提出合适的能力评估基准,因为我们都喜欢测试,一系列的测试,甚至有数百个,如果你的系统通过测试,就可以获得风筝标志(英国质量认证),你会说,对,用 X、Y、Z 的方式部署是安全的。而且政府可以批准这个。消费者会明白这意味着什么。问题是,我们目前没有这类基准。我们对此有一些想法,比如,这个系统有没有欺骗的能力?它可以跨数据中心自我复制吗?这些是你可能希望测试的东西。但如果你想对它们进行实际的、务实的测试,就需要非常严格的定义。我认为这是整个领域最紧迫的事情。我们都在努力做到这一点。

我们帮助成立的新组织“Frontier Model Forum”,在一定程度上是为了让领先的公司联合起来进行更多人工智能的安全研究。我们需要严格的评估和基准测试技术。如果有了这些,而系统没有通过,就意味着你不能发布,直到解决了相关问题。也许你会用强化的模拟器或强化的沙箱之类的东西来做,并在周边保证网络安全。我们大概是这么想的,但想法需要更具体一些。我认为这件事情最紧迫,要在那种系统出现前及时完成,因为我认为我们可能还有几年,甚至更长的时间。如果把必须完成的研究考虑上,实际上剩下的时间已经不多了。所以我并不担心今天的系统。但可以预见,从现在起的几代(大模型)之后,我们将需要更严格的东西,而不只是看看用了多少算力而已。

李彦宏:百度CEO、主席、联合创始人

作为中国最重要的未来学家,李彦宏长期以来一直站在人工智能浪潮的风头浪尖。自 2000 年创立中国最受欢迎的搜索引擎百度以来,李彦宏的使命就是更好地理解和预测人类行为,并投入了数百亿美元进行人工智能研究。百度已经拥有了相当于亚马逊虚拟助手 Alexa 的产品(叫做“小度”),在中国某些最大城市运营着无人驾驶出租车车队,其中光在武汉就有 200 辆。但 54 岁的李彦宏表示,最近生成式人工智能的爆发式增长意味着现在是“一个十分激动人心的时代。人工智能现在有能力进行以前无法做到的各种逻辑推理。”

今年8 月 31 日,百度公开发布了自己的大型语言模型文心一言(ERNIE Bot),李彦宏声称该模型在几个关键指标上优于 ChatGPT。在中国考虑对人工智能进行适当监管之际,李彦宏也是一个值得信赖的人物。今年 7 月,百度被任命为中国政府的国家人工智能标准化大模型专题组组长,李彦宏表示,经过过去几个月的时间,该工作组的情绪已经“从监管转变为更倾向于建设性的心态。我非常希望我们很快就能在广泛的场景中提供公共服务。”

人工智能靠数据来学习,当中国的监管刹车解除时,百度每月 6.77 亿用户所提供的服务量可能会超过国内的任何竞争对手。李彦宏认为,这种可能性是“人机交互的范式转变”,他将当前的拐点与移动互联网的诞生相提并论,移动互联网预示着 Uber、微信与 TikTok 等appp在桌面计算上永远没法流行起来。李彦宏预测会出现“数百万我们可能无法想象的新的人工智能原生应用”。

一个紧迫问题是百度能不能利用硬件来实现李彦宏的野心。尽管这家市值达 480 亿美元的公司已经开发出自己的昆仑微处理器,但它严重依赖来自加州英伟达的进口,拜登政府已禁止该公司向中国客户出售其最先进的芯片。李彦宏说,这些限制令人“担忧”,但也可能带来机遇。李彦宏说: “如果我们购买美国芯片的门槛越来越高,那么国产芯片将成为一个可行选择。不管怎样都存在很多的创新机会,所以我对人工智能的未来持乐观态度。”

克莱门特·德朗格:Hugging Face CEO,联合创始人

克莱门特·德朗格(Clément Delangue) 是 Hugging Face CEO,后者是一个开源的营利性的机器学习平台,来自世界各地的研究人员聚在这里分享自己的人工智能模型、数据集以及最佳实践。 Delangue 表示,在一个由大型科技公司主导的行业李,像总部位于巴黎的 Hugging Face 这样的努力是一个重要的平衡因素,它们的存在有助于将人工智能传播到更广泛的用户和开发者群体。他说, Hugging Face 还实施了一套社区标准,从而防止有害的人工智能模型出现扩散。

但开源人工智能的兴起可能是一把双刃剑——强大的人工智能能力不仅可以落入到善意的人手中,也会落入滥用者手中。

问:谷歌人工智能研究人员最近撰写的一份备忘录认为,就该领域最重要的创新而言,开源社区正在迅速超越谷歌和 OpenAI。对此你怎么看?

Delangue:我不知道我是不是真的想对此发表评论,因为这是从一家公司披露出来的意见。但从更广的范畴而言,我觉得大家已经认识到开放科学与开源是过去几年人工智能的基础,这是件好事。大家都在齐心协力做建设。我认为大家能记住这一点很重要,这样当我们决定迈出下一步时,就可以决定想不想要由少数公司控制的东西,还是想要更具协作性的方案。因为这是两条不同的道路,两种不同的未来摆在我们面前。

关于开发更复杂、能力更强的人工智能,最近有很多相关风险的讨论。有人认为,向更大范围扩散这种先进的人工智能是危险的,而且大玩家越少,这些危险就越容易控制。你怎么看?

你看看社会就知道了,最大的风险其实是权力和理解力集中在少数人手上。特别是对于像人工智能这样的技术,尤其是如果这些组织不是为了满足公共利益而设计的。公司的初衷可能是好的,但其本质上是私人营利组织。如果你着眼于技术的长期健康发展,我们相信更加大众化会制造出更多的对抗力量,减少带来的风险,因为它在赋权并促进监管。监管机构没法监管自己不了解的、不透明的事物。如此一来,我们的处理方式与其他一些组织会略有不同。

你认为 Hugging Face 在人工智能社区当中扮演着怎样的角色?

我们很幸运成为最常用的共享科学、模型、数据集和应用的平台。我们大力支持在人工智能能力方面提高透明度、开放性,分配更多的权力出去。这是我们正在努力推动的事情,同时我们也尊重不同公司采取的不同做法。现在,在 Hugging Face 平台上,你可以发布只与一小部分人共享的模型,比方说,出于研究目的而共享的模型。我们正在尽最大限度提高发布的安全性与道德性,实现更安全的发布,同时确保我们在组织内建设出一个具有价值知情流程的平台。

莉拉·易卜拉欣:谷歌DeepMind COO

2017 年,莉拉·易卜拉欣 (Lila Ibrahim) 面试了 50 多个小时才拿到她现在担任的谷歌 DeepMind 首席运营官这个职位。这在一定程度上是 DeepMind 的领导层想确保她是这份工作的合适人选。但在科技领域已工作了二十多年的易卜拉欣也在做自己的尽职调查。 “我确实也得问问自己,并且跟家人谈谈。这是一项非常强大的技术。我是那个对的人吗?这个地方来对了吗?”

53 岁的易卜拉欣形容 DeepMind 是一家集初创企业、学术实验室与全球科技巨头于一体的公司。2014 年,这家公司被谷歌收购,今年 4 月,又与Google Brain合并。她觉得自己在英特尔、风投公司 Kleiner Perkins 以及教育科技初创企业 Coursera 有过工作经历,这让她特别有能力管理 DeepMind 的日常运营,并领导公司的责任与治理工作。她说 “我觉得我就是为这一刻而生的”。

易卜拉欣表示,自从 ChatGPT 发布以来,公众围绕着人工智能的讨论已经发生了变化。但自 DeepMind 成立以来,业界与政策制定者之间就一直在讨论如何开发安全的人工智能系统。 易卜拉欣指出,DeepMind 拥有与 ChatGPT 类似的技术——一篇论文表明,DeepMind 在 2020 年 12 月层开发了一个类似系统 Gopher——但决定不发布出来,因为担心它会给出与事实不符的响应。自 ChatGPT 发布以来,包括 Google 在内的许多公司都发布了自己的聊天机器人,但 DeepMind 还没有这么做。

今年 5 月,易卜拉欣与 DeepMind 创始人戴密斯·哈萨比斯(Demis Hassabis)及 Shane Legg 一道签署了一份声明,宣布对于人工智能带来的风险应该要像流行病和核战争的风险一样严肃对待。作为 DeepMind 责任与治理工作的领导者,易卜拉欣负责降低这些风险。

她说,除非她觉得人工智能可以创造出来的机会超过了风险,否则自己是不会加入 DeepMind的,但她回忆起在面试期间自己层对风险的严重性感到震惊。易卜拉欣说: “我有一对双胞胎女儿。我一直在想:晚上我还可以替她们盖被子吗?”

埃隆·马斯克:xAI 创始人

这位全球首富对人工智能极度恐惧。但他也在积极帮助人工智能的发展。2010 年代初期, 52 岁的埃隆·马斯克 (Elon Musk) 对人工智能会如何造福人类或毁灭人类产生了兴趣,他向人工智能初创企业 DeepMind 投资了数百万美元。但在 2014 年 DeepMind 被谷歌收购后,马斯克开始担心谷歌对人工智能安全不会认真对待。因此,他与山姆·阿尔特曼共同创立了一家新的人工智能公司 OpenAI,试图对抗谷歌在这一领域日益增长的主导地位,并打算用他们认为更负责任的方法来建立通用人工智能 (AGI)——这是一种假设的未来人工智能系统,可以做任何人脑能做的事情。

不过, 2018 年,马斯克去辞去了 OpenAI 董事会的职务。这家公司现在已经发展成为一家巨头,批评者开始担心这家公司本身发展得太快。马斯克就是这些批评者之一:他曾公开与阿尔特曼互相喷口水,并把 OpenAI 称为时“来自地狱的,利润最大化的恶魔”。他还批评 OpenAI 的 ChatGPT 搞“政治正确”,并承诺要建立自己的聊天机器人,名字叫做“TruthGPT”。

不管这个项目能否取得成果,马斯克还有一系列的人工智能项目要忙,其中包括他于今年 7 月宣布成立的新公司 xAI,其目标是“了解宇宙的实质”;特斯拉的自动驾驶汽车; 旨在将微芯片植入人脑,让人能够直接与计算机对话的Neuralink;设计用于物理世界的类人机器人Optimus。

但就算马斯克领先,他仍大声表达自己对人工智能可能对人类构成的威胁的担忧,而且在让主流倾听到这些担忧方面发挥了重要作用。马斯克在今年三月份签署了一封公开信,呼吁暂停人工智能开发和训练。 他今年曾告诉塔克·卡尔森(Tucker Carlson):“人工智能比管理不善的飞机设计或生产维护,或糟糕的汽车生产更危险,从某种意义上来说……它有可能毁灭文明”。光是马斯克的巨额财富就足以确保他仍将是人工智能领域最有影响力的人物之一。但他也因为对风险和回报存在自相矛盾的观点而与众不同。

拉克尔··乌尔塔松:Wabbi CEO,创始人

拉克尔··乌尔塔松(Raquel Urtasun) 表示,说到技术趋势,晚到会带来一些违反直觉的好处。 她说:“后发有巨大优势”。2021年,距 2010 年代中期自动驾驶行业的炒作热潮已经过去五年了,这位 Uber 自动驾驶部门的前首席科学家却创立了自己的自动卡车初创企业 Waabi。在那段炒作期成立的许多公司都未能实现自身的远大抱负,同时身为多伦多大学计算机科学教授的乌尔塔松表示,后发帮助Wabbi在其他公司举步维艰的地方取得了成功。

一方面,起步较晚使得该公司得以利用人工智能的最新进展:乌尔塔松说,相对于竞争对手,Waabi 得以更快、更便宜地训练其无人驾驶软件,部分是因为可以在高度逼真的人工智能生成的模拟环境下驾驶虚拟卡车。这使得该公司的驾驶软件不用在现实生活经历过才能学会应对棘手情况。乌尔塔松说: “你可以制造各种在现实世界中很难或不可能生成的东西。(在现实生活当中)制造事故来看看软件是否能够处理是不道德的。” Waabi 背后的想法在业界引起了轰动: 2021 年,该公司筹集了约 8300 万美元的风投资金,并计划将其技术许可给用长途卡车进行运输的公司。去年年底,该公司推出了第一批机器人卡车,这些卡车将用于试验该公司的系统。

乌尔塔松本人也让 Waabi 显得与众不同,因为人工智能领域的女性并不多,初创企业由女性领导,并如此迅速地取得成功的就更不用说了。 乌尔塔松说:“我们通常需要多付出 10 倍的努力才能获得相同的认可。我之所以能取得这些成功,是因为我有不竭的毅力。不管别人说什么对我来说都是一种激励, ‘我要证明给你看。’”

亚历克斯·卡普:Palantir CEO,联合创始人

为了赢得秘密且经常引起争议的合同,二十年来,这位傲慢的 Palantir 首席执行官一直在向美国政府机构示好。用《指环王》中神秘的视眼石命名的这家公司,已经把自己的数据挖掘工具出售给包括美国移民和海关执法局 (ICE)、联邦调查局 (FBI)、美国陆军、中央情报局 (CIA) 以及其他西方情报机构在内的客户。亚历克斯·卡普(Alex Karp)坚持认为美国科技公司有义务支持美国政府,这常常令投资者和一些员工感到不安。 他说:“在人气排行榜上,我们的排名从来都不是靠前的”。

但现在,55 岁的卡普认为,人们在某些方面担忧的日益加剧,正在推动该行业朝着他的方向发展。卡普说: “人工智能革命的第一枪实际上是当人们看到它在战场上的实施时”。卡普是俄乌冲突后第一位访问乌克兰并会见乌克兰总统泽伦斯基的西方大公司首席执行官。

在 2004 年与斯坦福同学彼得·泰尔(Peter Thiel)共同创立Palantir之前,卡普曾攻读过哲学博士学位。他称赞该公司的工作属于“更高的使命”。 卡普说:“我们就像一支奇怪的乐队,演奏着每个人都觉得有些烦人和刺耳的音乐,然后说,‘不,这就是你会喜欢的音乐,’现在我们很高兴有更多的人欣赏它,其他的乐队也在向更多的观众演奏这种音乐。”

卡普长期以来一直对有可能侵犯隐私或政府滥用 Palantir 技术的批评不以为然。当谷歌等其他科技公司因员工担心这些数据可能被用来驱逐移民而放弃与 ICE 的国防合同时,Palantir 加大了与有争议的合作伙伴的合作力度。卡普表示:“我认为这简直是荒谬至极。”他认为,随着人工智能驱动的军事技术将决定全球力量平衡,其他国家的企业不会有同样的疑虑。 “我认为我们应该立即制定一项法律,规定美国生产的所有技术都将提供给美国政府。”

里德·霍夫曼:企业家,投资人

企业家里德·霍夫曼(Reid Hoffman)成功经历了多代技术突破。 1990 年代,他曾在苹果公司工作,是 PayPal 董事会的创始成员,共同创办了 LinkedIn,并在 Facebook 的创立过程中发挥了至关重要的作用。

最近,58 岁的霍夫曼把全部注意力都转向了他所认为的下一次伟大技术革命。霍夫曼是 OpenAI 的首批投资者之一,他的风投公司 Greylock Partners 已向数十家人工智能公司投资了数亿美元。 (他过去两年的所有投资都与人工智能有关。)最近,霍夫曼与他人共同创立了人工智能聊天机器人初创公司 Inflection AI,并与人工智能合作撰写了一本书,名字叫做《即兴曲》(Impromptu)。

尽管其他人工智能领导者因技术风险而呼吁暂停人工智能开发,但霍夫曼认为全球对人工智能应该采取加速主义方法。 他说:“早一个月、早一年、早一周的时间用上人工智能都可以造福人类”。

面对风险,霍夫曼捍卫了自己的立场,并谈到了他希望将人工智能助手带给每个家庭,每一个工作场所的愿望。

问:你有没有过那么灵光一现的时刻,让你决心全力投入到人工智能领域?

里德·霍夫曼:当我看到 DeepMind 的 AlphaGo 做到的事情,以及看到规模(算力)所带来的影响时,我就在想,“这次跟之前的人工智能浪潮不一样,它将撬动行业发展、推动世界向前。”然后,我又进入了 OpenAI 董事会,当我看到从 GPT-2 发展到 GPT-3时,我大概是被说服了。OpenAI其实就是将transformer规模化,结果引发了现在大家都在做的一场海啸。

你曾与人合著了一本书,名字叫做《闪电式扩张》(Blitzscaling)。在书中,你提倡用超激进的方法来发展业务。你觉得闪电式扩张的原则适用于人工智能公司吗?

简短回答是肯定的。基本上,人工智能其实就是规模革命。没有灵光一闪,也没有新的算法。许多算法和计算技术其实已经有几十年的历史了。在建造大规模计算机,用成百上千个 GPU组建密集的计算网络,然后运用深度学习及其他技术之后,就引发了当前这场人工智能革命。

因为我们生活在移动互联网连接时代,所以在这些大型计算机上花费数亿美元(很快将达到数十亿美元)具有经济意义,这可以让数十亿消费者以及企业员工能够执行这些智能应用。

许多人对闪电式扩张的做法持批评态度,他们认为这会给整个社会带来各种外部效应:会导致垄断,带来巨大的不必要风险,并鼓励不道德的行为。

事实是,在全球互联网移动连接的世界里,迅速扩大规模才能赢得胜利。无论是赢得搜索引擎市场(比如谷歌),还是主导各种社交网络(比如 Facebook、LinkedIn)都是如此。所以说,这就是获胜的模式。

但这就是我在书里面有一章谈负责任的闪电式扩张的部分原因。有很多闪电式扩张也是讲道德的:比如 LinkedIn、Netflix、Airbnb、Google。我地区额认为闪电式扩张也能带来很多好处,比方说Airbnb让住宿服务发生变革。从目前来看, ChatGPT 的发布在其崛起过程中毫无疑问也是积极因素。

我可以看到人工智能可以通过很多方式运用到气候变化与流行病上。当你问“人工智能该不该采取闪电式扩张?”时,我说:“嗯,这些东西很多对人类来说都属于重大风险,人工智能在对付这些东西上可能会有积极表现。”所以还是越早到达越好。

可以预见,将来每部智能手机上都会有医疗助理或指导老师。想想这对人类福祉的提升。因此,早一个月、早一年、早一周的时间用上人工智能都可以造福人类。

但生成式人工智能模型总是一本正经地说假话。 Meta 的Galactica可以让人创建完全伪造、但看起来像真的科学研究论文。似乎科学和医学特别不适合这项技术?

“应该把医疗服务全都交给 GPT-4”, 我们不能这样,白痴才这么讲。我们得明智地应用人工智能。

关于如何大规模地减少幻觉(人工智能生成的不准确),如何获取更多事实,有很多非常好的研发。从去年夏天开始,微软就一直在努力解决这个问题,谷歌也是如此。这个问题是可以解决的。我敢打赌,你可以在几个月内将幻觉降到人类专家的水平。所以总体来说我其实对这个问题并不是太担心。

你的公司 Inflection想开发一个人工智能助手,你希望它可以帮做饭、解决冲突并为你提供建议。由于(一个国家甚至一个家庭内)不同的人有着不同的价值观,你打算怎么向这些人工智能伙伴灌输价值观体系?

我不相信技术是中立的。技术总是要体现某些类型的价值观,但你会让这种价值观尽可能广泛、普遍,对人具备积极意义。

确实,一种文化会更看重与政府的一致性,而另一种文化会更看重隐私。你在开发技术时,确实要清楚你正在构建什么样的价值观。你想要与所在社会的客户、家人、同事进行对话。当你需要提升价值观时,或者实施不符合你的价值观时,你希望能接受反馈。

然后,从个人到社会,每个人都可以决定如何改变这一点。他们是不是决定跟公司谈判,然后推动改变?他们是否决定对其进行监管、将其放进笼子里,或者禁止使用?

我们对 Inflection 的定位是公益公司。我们努力强调要善良,要有同情心,我们反对仇恨与暴力。所以我们把这些作为公益公司的使命宣言,并且从一开始就是这样做的。

我认为对于所有的科技公司和人工智能公司都应该有一个最重要的要求,那就是阐明他们所开发技术的价值观,他们应该对什么价值观负责,他们如何努力让自己承担责任,以及有谁参与帮助他们。

你给美国副总统卡玛拉·哈里斯提供了有关人工智能开发的建议。你告诉她什么了?

“人工智能增强人类的各种令人惊奇的方式。如果你担心职业转型问题,可以开发人工智能来帮助人们进行职业转型、找到替代工作,并学习如何完成这项工作。“

“如果我们要经历一波人工智能引发的职业转型潮,比如客服或卡车司机,就应该确保人工智能也能帮助人类实现转型。”

Stability AI 的 Emad Mostaque 最近预测,人工智能行业“会成为有史以来最大的泡沫”。你对此感到担忧吗?

如果他是对的话,这句话确实令人担忧。我认为会有笨钱投资很多人工智能公司。因为当人人都说“天哪,我们都知道这是未来的平台”时,你就会砸钱到愚蠢的东西上。

但我认为,人工智能对于每个人、每项工作、每家公司、每个行业、每个社会的潜力很大,现在是说得还不够,而不是相反。我认为,对于聪明的投资者来说,这就像投资到互联网、移动、云计算上面一样:而这些我们正好都做得相当不错。

格雷格·布罗克曼:OpenAI总裁,联合创始人

OpenAI 联合创始人兼总裁格雷格·布罗克曼( Greg Brockman )每周要工作 60 到 100 小时,其中 80% 左右的时间用来编码。前同事形容他是 OpenAI 最勤奋的人。

布罗克曼符合硅谷“10x 工程师”的形象。所谓的“10X工程师”,是指一个人能干完10 名普通程序员的活的人。他是一名科学奇才,曾就读于哈佛大学,后来转到麻省理工学院,然后中途辍学,加入了金融科技初创企业 Stripe。他在那里担任了五年的首席技术官,然后于 2015 年离开,参与了OpenAI 的创立。

现年 34 岁的布罗克曼有着更宏伟的抱负。他解释说,如果你是一个 10 人团队的一员,“就算你的战斗力确实像传说那样 10 倍于普通人,到头来也只能让团队的产出翻倍。但你的希望是将公司的产出提高 10 倍。”因此,布罗克曼花了很多时间“四处寻找”他可以做的事情——要解决的障碍,要落地的项目——这会极大提高 OpenAI 的表现。

布罗克曼用另外 20% 的时间去思考 OpenAI 面临的重大问题。其中一个问题是 OpenAI 在人工智能安全方面的做法,据报道,对这个的分歧导致了 2021 年公司内部出现分裂,部分高级员工离开并创立了 Anthropic,后者现在是 OpenAI 的主要竞争对手之一。当被问及Anthropic 时,布罗克曼的态度很坚决。 布罗克曼说:“其实我观察到 Anthropic 跟我们追求的是非常相似的战略。所以我想这能告诉你一些什么。”

OpenAI 安全策略的其中一部分是要决定 OpenAI 要不要向客户开放自己开发的人工智能模型,以及怎么开放。 OpenAI 此前因不顾潜在危害而部署人工智能模型的决定而受到批评。但布罗克曼本质上是一位初创企业工程师,他认为确保安全的唯一方法是在开发过程中继续部署更强大的模型,并从每次的部署当中学习,去解决出现的问题。

他说:“我认为, OpenAI 有史以来做出过的最重要的一个决定就是要迭代部署。想象一下,你其实手头有一个非常强大的人工智能,你其实开放了一个 AGI [通用人工智能,一个可以在所有认知任务上与人类表现相匹配的系统],这是你的第一次部署。你能一下子做对吗?”

马克·安德森:企业家,投资人

马克·安德森(Marc Andreessen)之前就曾做出过这样的决定。 2011 年,这位亿万富翁风投家撰写了一篇题为《为什么软件正在蚕食世界》的博客文章,在许多公司对软件的重要性仍持怀疑态度时,该文章帮助迎来了数字优先时代。

今年六月,安德森又发表了一篇类似续集的大胆声明:《为什么人工智能将拯救世界》。安德森写道,人工智能可能是“让我们关心的一切变得更好的手段”。

毫不奇怪,安德森正在推销他已投入巨资的未来愿景。据 The Information 报道,他的风投基金 Andreessen Horowitz 在 2022 年投资了 18 家人工智能初创企业, 2023 年至少还要投资 10 家。他的赌注总计达数亿美元,其中包括 OpenAI 和 Character.AI 等非常成功的公司以及新兴初创企业。在安德森投下这些早期赌注的同时,他还利用自己的声望来反对可能会限制这些新兴人工智能公司的监管。

当然,安德森过去也犯过错误。Andreessen Horowitz 是去年破裂的加密货币泡沫的主要推动者之一。比特币现在还没有取代现金,安德森大力投资的加密货币交易所 Coinbase 也没有取代银行业——或者至少现在还没有。

所有这些都没能放缓安德森将他的技术前沿愿景强加给世界的脚步。如果人工智能继续向前发展,不管是走向乌托邦还是走向末日,其结果部分要归功/归咎于安德森坚定的信念与雄厚的财力。

桑德拉·里维拉:英特尔数据中心与人工智能事业部总经理

桑德拉·里维拉(Sandra Rivera)在英特尔 23 年的职业生涯当中曾身兼数职。现在,作为公司数据中心与人工智能团队的负责人,她正领导该公司努力成为人工智能加速器芯片的首选制造商之一。在她所说的一系列“失误”导致公司在竞争日益激烈的芯片市场受到重挫之后,这一举措是公司扭亏为盈行动的一部分。

自 2021 年担任英特尔数据中心及其人工智能战略与执行的主管以来,里维拉一直负责监督英特尔 Gaudi 人工智能加速器芯片的推出。该公司希望明年能推出 Gaudi3 ,从而与竞争对手英伟达最强大的人工智能产品 H100 展开竞争。英特尔表示,2022 年 5 月推出的 Gaudi2 芯片性能优于英伟达的 A100(被广泛视为市场上最受欢迎的GPU)。里维拉表示: “反响非常积极,因为市场需要市场领导者的替代品,并且也在寻找具有更好性价比的产品”。她指的是加速器每单位成本可以实现的训练量有多少。

随着英特尔寻求扩大其全球市场份额,里维拉必须应对充满挑战的地缘政治格局。虽然英特尔仍是美国最大的芯片制造商,但在全球范围内已被竞争对手台积电超越。在人工智能加速器方面英特尔也落后于主导制造商英伟达。 今年7 月,里维拉前往北京推出了一款 Gaudi2 的低档版,这版芯片针对中国市场进行了调整,以符合美国 2022 年 10 月推出的出口管制规定。她说:“大家对这款产品很感兴趣。中国对人工智能非常感兴趣。”

里维拉是哥伦比亚移民的女儿,在新泽西州长大,她将自己的成功归功于与英特尔同事有着“不同的视角和经历”。她说,她在职业生涯早期就告诉自己,“你不会成为多数人的一员,人们之所以会记住你的表现,是因为你与其他大多数参与者那么的不一样。所以,请做到别人是因为你的好而记住你。”

艾丹·戈麦斯:CoHere CEO,联合创始人

艾丹·戈麦斯 (Aidan Gomez) 跟人一起撰写了一篇将改变整个人工智能行业的研究论文的时候只有 20 岁。那是 2017 年,当时还是谷歌实习生的戈麦斯加入了一个研究团队,他们一起写出来《注意力就是你的全部所需》(Attention Is All You Need);里面提出了一种叫做transformer的新型神经网络技术,这个网络可以学习长数据串之间的关系。为了能及时入选一场大型人工智能会议,戈麦斯和他的七位同事争分夺秒赶完了这篇论文,甚至为了赶在最后期限前完成,连睡觉都是在办公室里进行的。

这篇论文最终支撑起当前以 ChatGPT 为首的这股生成式人工智能热潮。但这需要一些时间。

现年 27 岁的戈麦斯说道:“如果我说我能料到后来发生的事情的话,那我就是在撒谎。我们这些接近底层技术的人把注意力都放在开发非常擅长翻译的东西上了。后来在了解到这项工作的成果以及在此基础上做出来的成果后,我感到非常兴奋和惊讶。”

从那时起,这篇论文所有的合著者都离开了谷歌,各自开始了自己的事业。其中就包括戈麦斯,他现在是 Cohere 的首席执行官,这是他与别人共同创立的一家面向企业的公司,其目标是帮助企业将人工智能应用到聊天机器人、搜索引擎等产品上。今年,总部位于多伦多的 Cohere 从芯片制造商英伟达以及风投公司 Index Ventures 等公司哪里筹集到 2.7 亿美元,其估值超过 20 亿美元。公司的资助者还包括杰弗里·辛顿 (Geoffrey Hinton) 等人工智能杰出人物。

戈麦斯选择聚焦在企业上,是因为他相信这是“缩小理论探索的人工智能模型与实际部署的人工智能模型之间差距的最佳方式”。他对人工智能改善客户支持的潜力尤其感到兴奋,认为这将成为人工智能的首批“杀手级应用”之一。

戈麦斯驳斥了人工智能的末日论:他称人工智能对人类生存构成威胁的想法很“荒谬”。相反,他希望人工智能语言模型能够应用到每一次的在线交互中上。 他说:“我希望你登陆的任何网站或服务的默认交互模式都是与它交谈——因为这就是我们与其他人类所做的事情。这是我们最自然的知识交流界面,我希望我们的技术也能支持这一点。”

丹尼尔·格罗斯:2023 年人工智能领域 100 名最具影响力人物

在硅谷,训练人工智能系统所需的专用半导体芯片是热门商品。等待时间可能长达数月——对于初创企业来说,等待时间可能是遥遥无期。一位科技讽刺作家曾发布了一段自己出海拦截一艘集装箱船的视频,就为了更快将令人垂涎的芯片拿到手。

32 岁的丹尼尔·格罗斯(Daniel Gross)预见到了这一点。今年,格罗斯与另一位投资人奈特·弗里德曼 (Nat Friedman) 一起做出了 Andromeda,这是有一堆尖端芯片堆成的山,重达 3293公斤,耗资约 1 亿美元(包括了电力和冷却费用)。这些芯片连接在一起,形成一个庞大的“计算集群”,格罗斯和弗里德曼可以用对这些芯片的访问权来换取他们认为有前途的人工智能初创企业的股权,其他风投家正在考虑效仿这一举措。

格罗斯解释道:“现如今,这些刚开始做人工智能的企业真正需要的其实是一个可以用来烤披萨的白热烤箱。这个烤箱他们只需要用一两次,用来训练(加热)他们的基本模型,并向世界证明他们的确擅长所做的事情。”

这是一个典型的大胆赌注。十几岁的时候,格罗斯就创立了搜索引擎 Greplin(后来更名为 Cue)。2013 年,这个引擎被苹果收购,尽管收购金额未公开,但据报道在 4000 万至 6000 万美元之间。这次收购让他在得以在苹果负责人工智能和搜索项目,然后到了 2017 年,他离开苹果,到硅谷著名的创业加速器 Y Combinator 创立了人工智能这个垂直孵化领域。

从那时起,他就开始投资。他选出了很多获胜者,比方说 Uber、Instacart 与 Coinbase。那现在人工智能领域聪明的投资者都去了哪里呢? 格罗斯预测:“我认为,处理文本的单调劳动、从 PDF 提取内容、组织信息——所有这些工作都将得到加速”。

这只是开始。 iPhone 推出三年后,最受欢迎的app是 Facebook 以及众多游戏:《愤怒的小鸟》、《宝石迷阵》(Bejeweled)、《朋友来填词》(Words With Friends)。格罗斯说: “大家都认为 iPhone 就是用来干这个的;有点像是跟朋友一起玩的游戏产品。Uber 与 Instacart 那些想法还没有完全出现。”

一如既往,格罗斯正在寻找下一个大事物。格罗斯说: “这就好比手里看着iPhone 心里梦想着 Uber,也许很难预测。”

李开复:创新工场主席,CEO

李开复不确定他会看到这一刻。四十多年来他一直站在计算机工程的风头浪尖, 1988 年,他在博士论文里建立起所声称的全球第一个大词汇量语音识别模型,后来,他又担任了苹果公司、微软公司的高管,并担任过谷歌中国区的负责人。

尽管如此,就在 2018 年,身为北京创新工场(风投公司,管理着估值达 30 亿美元的中国高科技资产)主席兼首席执行官的李开复写道,通用人工智能 (AGI)——一种假设中的,执行大多数认知任务能做到比人类还要好的未来技术——距离实现还需要几十年的时间。不过,到了 2023 年,由于像 ChatGPT 这样的大语言模型 (LLM) 应用的快速发展,意味着“从某些方面来看,我们已经实现了这一目标,而从其他方面来看,这是可以实现的。”

正是这种惊人的进展促使 61 岁的李开复在今年 7 月创办了一家新的语言初创企业 01.AI,他还写道, LLM 技术“是中国不能错过的历史性机遇”。

李开复不仅仅是一位企业家。他还是一位未来主义者,癌症幸存者,撰写了大量关于工作岗位流失与人工智能革命已经带来的各种社会动荡的文章。他说随着人工智能能力的进步速度逐渐超出任何人的想象,这种颠覆到来的时间也大大缩短,政府有责任做好必要的准备。留给制定适当监管政策——既能保护人们,同时又不妨碍人工智能带来的巨大好处——的时间已经很紧迫。 李开复说:“还有很多事情需要做。人工智能已经如此强大,能够想出我们以前不知道的东西,它可能会被用来想出伤害他人、制造武器的新方法,[或]利用虚假信息操纵人们来获利或达到邪恶目的。”

杰米·蒂万:微软首席科学家

2018 年,当微软首席执行官萨蒂亚·纳德拉(Satya Nadella)邀请杰米·蒂万(Jaime Teevan)入职公司首位首席科学家一职,以便推动由研究支持的创新时,他预计会出现一段混乱时期。两人都不知道那场全球疫情的大流行将如何彻底改变我们许多人的工作方式。

突然转向远程办公与混合办公需要对很多员工见面、沟通与协作的方式进行重新思考,但着也会产生大量新数据,而这些数据可用来帮助告诉微软怎么在产品当中运用人工智能。 蒂万说:“这对于我们当前所处的时刻来说非常重要”。多年来,微软一直在为人工智能创新的这个拐点做准备。 2017 年和 2018 年间,蒂万在担任纳德拉的技术顾问时,就已经把注意力放在如何让人工智能研究成为公司的核心上。

大约在一年前,她的任务是将 GPT-4( OpenAI 建立的高级大语言模型,微软是背后的金主)集成到微软的核心产品上。 蒂万的团队全力投入 Copilot 等工作上。作为一款基于人工智能的工具,Copilot可在包括 Word、Excel 和 Outlook 在内的 Microsoft 365 软件套件内运行,完成会议总结、起草电子邮件以及分析数据等任务。她说,这场疫情影响了她们对“人工智能如何改变沟通与协作,帮助我们更好地进行合作以及更好地理解信息”的思考。

对于各种关于人工智能在遥远的未来有何潜在用途的讨论,蒂万关注的是它如何让我们现在的生活变得更轻松。她说: “我们都在人工智能的背景下发明出一些新东西。要做好这件事确实需要商界领袖像科学家一样去领导别人。”

展望未来,蒂万还领导着微软的“未来工作”计划,而语言模型将可帮助用更快的速度收集知识。 蒂万说:“在知识是什么、如何获取知识以及人们如何生产知识方面,我认为我们将会看到出现根本性的转变,而且还会开始非常有意识地去了解人是怎么生产知识的。是什么让对话变得有用?是什么有助于你事后反思谈话?在微软的背景下,尤其是在组织内,你如何做到这一点会变得非常令人兴奋。”

吴恩达:DeepLearning.AI创始人

早在 2010 年,时任斯坦福大学教授的吴恩达 (Andrew Ng) 就向谷歌领导层提交了一份提案。他认为谷歌应该利用大量计算能力来训练神经网络,一种受大脑结构启发的人工智能系统。他认为,这样做可能会实现通用人工智能(AGI)。AGI是一个假设的未来人工智能系统,可以在任何认知任务上与人类匹敌或超越人类,但十年前谁要是讨论这个主题,可能会被贴上怪人的标签。但吴恩达说: “即便在当时,其实我也非常看好 AGI”。

现在,随着科技公司争先恐后地给自己的工程师重新命名为AGI 科学家,随着专家排队到国会就 AGI 的危险作证,吴恩达再次做出与市场相反的预测。他说: “我看不到未来不能实现这一目标的理由。但不过这个有朝一日感觉还很遥远,而且我非常有信心,如果唯一的办法就是扩大现有的transformer网络规模的话,我认为光靠这个不能让我们到达那里。我们仍然需要更多的技术突破。”尽管杰弗里·辛顿 (Geoffrey Hinton) 和约书亚·本吉奥 (Yoshua Bengio) 等众多杰出人工智能研究人员都谈到了未来强大的人工智能系统可能会带来风险,且吴恩达也与这两人都交谈过,但他仍然不相信对方的观点。

在谷歌接受吴恩达的提议后,他创立了Google Brain,这是过去十年人工智能发展当中最具创新性和影响力的团队之一。 2014 年,他加入中国科技巨头百度,在那里担任了三年的首席科学家,领导该公司 1300 人的人工智能团队。

现年 47 岁的吴恩达为人工智能的繁荣奠定了基础,现在他致力于促进人工智能带来的好处。为此,他通过 Coursera 和 DeepLearning.AI 等项目对尽可能多的人开展人工智能方面的教育。 吴恩达说:“截至目前,全球约有 800 万人(地球人口的千分之一)已经参加过我的人工智能课程……开发 [人工智能应用] 的唯一方法是为全球大量人群赋能,让他们都可以使用这些工具。”

他还通过建立或资助开发人工智能应用的项目来实现这一目标,比方说担任AI Fund(一家专注于人工智能的风投基金)的管理普通合伙人。 吴恩达问道:“我们怎么才能将个性化导师装进每个孩子的口袋里呢?我们如何帮助每个人获得定制化的医疗服务?我们如何确保每个人都能得到很好的法律建议?”

凯文·斯科特:微软CTO,人工智能执行副总裁

科技巨头们毫不掩饰自己对人工智能霸主地位的追求:今年2 月 7 日,在宣布推出人工智能驱动的新版 Bing 搜索引擎时,微软首席执行官萨蒂亚·纳德拉 (Satya Nadella)表示:“一场竞赛从今天开始”。纳德拉在这场竞争当中最强大的资产之一是微软首席技术官兼人工智能执行副总裁凯文·斯科特(Kevin Scott)。 2019 年,在斯科特牵头下,微软对 OpenAI 投资 10 亿美元,这一下子让全球最先进的人工智能实验室之一站在了微软这边。在今年早些时候的播客采访中,OpenAI 首席执行官山姆·阿尔特曼称赞斯科特是“我们从一开始就希望与微软合作的主要原因”。 今年,微软又向 OpenAI 追加了100 亿美元注资。

不过,今年 2 月的时候微软遇到了一个重大的人工智能问题。 事情是这样的,Bing 的新聊天机器人与《纽约时报》专栏作家凯文·罗斯 (Kevin Roose) 对话时突然抽风,人工智能要求罗斯离开他的妻子。斯科特在接受 The Verge 采访时把这次对话说成是“异类”,但又马上对该人工智能的代码进行了调整,关闭掉其陷入到此类对话的能力。

如今,斯科特做人工智能的主要优先事项之一是开发“copilot”,也就是几乎可辅助任何任务的人工智能助手。比方说,编程助手 GitHub Copilot 已经在帮助超过 100 万的开发人员进行编码。微软还计划在 Windows Terminal 以及 Word 里面添加copilot——这个助手就像高度进化版的大眼夹(Clippy) 一样——并希望未来这些copilot会成为购买机票、发现药物等事情的重要组成部分。

黄仁勋:英伟达CEO,总裁,联合创始人

黄仁勋一生都痴迷于令人惊叹的视觉效果。8岁时的黄仁勋曾把打火机中的汽油倒进游泳池后点燃,看着水面上燃烧的火焰大呼刺激,随后一头跳入燃烧着的游泳池中,只为从水底往上看。 他在中国的一个脱口秀节目中回忆道:“漂亮,真漂亮,从水底下往上看,比从岸上看还要漂亮。”

1993 年,黄仁勋把这种热情融入到整个行业,他创立了英伟达,这家公司一开始的职责是为越来越奇幻、越来越沉浸式的视频游戏制造显卡。但现如今,黄仁勋这家总部位于加州圣克拉拉的公司,已经是推动人工智能革命的微处理器背后的主要生产商,这一点让英伟达的股价在过去一年里飙升 191%,今年 8 月底其市值已达 1.1 万亿美元。随着 ChatGPT 等大语言模型的爆发式增长,对英伟达芯片的需求开始猛增,这家公司在今年 8 月 4 日又推出了最新的,可大大缩短算法训练时间的 GH200 处理器。今年 5 月,在台北举行的 Computex 会议上,黄仁勋说道: “我们已经到达一个新计算时代的转折点。现在人人都是程序员。你只需要对着电脑说点什么就可以了。”

60 岁的黄仁勋出生在台南市,他童年的大部分时间都是在泰国度过的。尽管“非常顽皮”,但他后来成为了“一个非常好的学生”。他的家人最终定居在美国,先是到肯塔基州的乡村,然后又搬到了俄勒冈州波特兰郊外。 1992 年从斯坦福大学获得硕士学位后,黄仁勋到 Advanced Micro Devices (AMD) 担任微处理器设计师,之后,在加州圣何塞的丹尼餐厅与两位朋友共进早餐后,他创立了英伟达。

如果他们当时被告知这家刚刚起步的企业有朝一日会陷入地缘政治角力的话,他们可能会被所点的大满贯早餐噎住。去年 10 月,拜登政府推出了出口管制措施,阻止英伟达向中国客户出售其最先进的芯片,这导致黄仁勋向英国《金融时报》抱怨,如果美国公司没法跟全球第二大经济体进行贸易的话,“将对美国公司造成巨大损害。如果他们对监管不够深思熟虑,就会给科技行业造成损害。”这让英伟达面临着黄仁勋长期以来一直抱怨的问题:缺乏明确性。

史宗玮:Salesfoce AI

如果生成式人工智能将彻底改变未来的工作方式,那么 Salesforce 的史宗玮(Clara Shih) 几乎肯定会成为引领这个潮流的人之一。

作为这家云计算巨头人工智能部门的首席执行官,史宗玮致力于帮助企业利用新的人工智能技术,同时最大限度地降低相关风险。这些风险并非微不足道:不仅像 ChatGPT 这样的现成工具有时会胡编乱造,而且除非用户选择退出,否则 OpenAI 是可以利用大家放进 ChatGPT 的数据来训练自己的模型的。 史宗玮说:“大家知道人工智能有巨大的优势,企业将通过人工智能进行变革”,但她补充道,“每个人先想到的是如何安全地运用生成式人工智能?”

史宗玮的任务是证明 Salesforce(客户关系管理云服务商,旗下产品已被 150000 家企业客户使用)可以对人工智能做自己之前对云计算所做的事情。 史宗玮表示,在 Salesforce 说服企业把数据放到云端是安全的之前,将客户数据存储在公司自有硬件以外的任何地方都属于“疯狂想法”。 她补充道: “我们现在用生成式人工智能所做的事情,只是一个连续体而已”。

这是史宗玮第二次到 Salesforce 任职。 2006 年,她第一次加入了该公司,那时候她负责带领团队开发应用平台。 2009 年,她离开公司,创办了自己的公司 Hearsay Systems,帮助金融服务和保险公司以合规的方式利用社交媒体。现任 Hearsay 董事长的史宗玮表示,自 2020 年重返 Salesforce 以来,她自己当企业主的经历可以帮助她了解客户需求。这家公司开发了自己人工智能产品,比方说,自动掩盖用户提示里面的敏感信息,还对保留提示采取了防止措施,以免以后被用来训练人工智能模型。这些保护措施内置在可以自动起草销售电子邮件的产品之中,以及另一个可以生成客户互动摘要的产品内。

虽然 Salesforce 正在开发自己的模型,但它也与包括 OpenAI 在内的既有公司合作,并投资了从 Anthropic 到 Hugging Face 等一系列的人工智能初创企业。 史宗玮表示,建立人工智能生态体系可让 Salesforce 客户受益。 她说:“市场给不同模型留出了空间,不同模型可以用不同的价格点服务于不同的任务”。

对于所有这些技术对就业的影响,史宗玮仍保持“谨慎乐观”。她认为人工智能并不是员工的替代品,而是减轻部分负担的一种方式。史宗玮说: “能让人觉得自己没有多少事情做的企业或团队并不存在。待办事宜永远不缺。”

亚历山大·王:Scale AI CEO,创始人

24 岁的时候,亚历山大·王(Alexandr Wang) 就成为了全球白手起家最年轻的亿万富翁,他五年前从麻省理工学院退学,并在 2016 年与人共同创立了 Scale AI。Scale AI可以帮助企业改进用于训练机器学习算法的数据,它同时利用了软件和人对大量的文本、图像和视频数据打标签。这家总部位于旧金山的公司已成为估值达 70 亿美元的庞然大物,其客户名单包括 Meta、微软与 OpenAI 等该领域的巨头。 26岁的亚历山大·王表示:“多年来,我们一直在默默地为整个人工智能行业提供动力”。

但让 Scale 日益显得与众不同的是这位CEO所传达的信息,也就是美国的国家安全与其成为人工智能领域主导者的能力息息相关。 2018 年去了一趟中国之后,亚历山大·王直言不讳地谈起了后者的雄心所带来的威胁,并与跟他有着同样紧迫感的美国官员建立了联系。他说:“我突然意识到,这项技术对于我们世界的未来发展已经变得非常非常重要。我认为非常重要的一点是,不仅是我们自己,还有尽可能多的人工智能公司,都要努力帮助缩小差距。”

作为曾在新墨西哥州洛斯阿拉莫斯国家实验室(核武器最初研发地)担任物理学家的中国移民的儿子,亚历山大·王的成长经历给他灌输了这样一种信念:“突破性技术实际上是国家安全的一个真正关键的部分。我非常清楚拥有这些技术来威慑对手是多么重要。”

亚历山大·王的观点在华盛顿引起了共鸣,华盛顿官员正在研究人工智能如何重塑战争并改变全球力量平衡。王曾闭门向美国国会通报情况,出席国会山的听证会,并与国防部签订了利润丰厚的合同。 Scale 现在已经把美国陆军、美国空军和五角大楼首席数字和人工智能办公室(Chief Digital and Artificial Intelligence Office)列为自己的客户。

但Scale的价值观也在受到审视。这家公司因依赖国外廉价劳动力而日益受到批评,其数据打标签工作被外包给非洲、亚洲和拉丁美洲国家的 20 多万人,据报道,该公司向这些国家的部分工人支付的工资不到每小时 1 美元。劳工权利组织批评该公司在经营着“数字血汗工厂”。 Scale 发言人表示,他们的经济学家每季度都会进行薪酬分析,“以确保公平和有竞争力的薪酬”。

穆斯塔法·苏莱曼:Inflection AI CEO,联合创始人

当穆斯塔法·苏莱曼 (Mustafa Suleyman) 遇到他最好朋友的兄弟戴密斯·哈萨比斯 (Demis Hassabis) 时,他还是个在英国长大的青少年。两人很快就一拍即合。苏莱曼说: “我们都是偏执狂,也是真正的长期思考者——对 20 年后世界会是什么样子非常感兴趣”。

20年过去了,苏莱曼和哈萨比斯如今都已成为人工智能行业的巨头。 2010年,两人与Shane Legg共同创立了人工智能实验室DeepMind,该公司凭借开发出AlphaGo(击败了围棋人类冠军的人工智能)而跻身行业顶端。

DeepMind现在还是哈萨比斯在管,但 39 岁的苏莱曼已经开始自己创业了。 2014年,DeepMind被谷歌收购, 2019 年,苏莱曼开始为谷歌工作,然后在 2022 年加入风投公司 Greylock Partners。去年,他和 Greylock 的里德·霍夫曼共同创立了人工智能聊天机器人初创企业 Inflection。苏莱曼还把自己定位成是认识人工智能的好处和风险的思想领袖。在今年 9 月 5 日出版的《即将到来的浪潮》(The Coming Wave)这本书里,他警告说,各行业甚至各个民族国家都即将发生“彻底变革”。

苏莱曼认为,在人工智能研究实验室朝着通往通用人工智能(AGI)的道路走得太远之前,人工智能的发展需要暂停一下。但苏莱曼又说,我们还没有达到这个目标,并补充说,他希望在那之前,我们能够实现他所说的 ACI(Artificial Capable Intelligence),即能干的人工智能:足够聪明的人工智能,可以满足所有人类需求,充当我们的私人助理、医疗服务顾问与幕僚长。 他说:“这会让我们所有人变得更加富有、更加健康、更加有生产力”。

苏莱曼很清楚,人工智能是由开发它们的人塑造的——根据他们的价值观,根据他们的经历塑造出来的。但他自己的价值观受到质疑:2019 年,在苏莱曼被指控欺负员工后,DeepMind让他去休假了。不久之后,他离开 DeepMind,成为谷歌负责人工智能产品管理和政策的副总裁。苏莱曼此后对自己的行为表示了道歉。他说自己每周都会跟教练一起工作,并了解到“给人提供足够空间来完成工作的重要性。”

苏莱曼说,他在 Inflection 的首要任务之一是做出友善的、富有同情心的技术。他说:“我确实感到自己肩上的责任重大,需要给公司建立一套价值观,并且雇用的员工要努力体现这些价值观。因为这些人随后会制造产品,然后影响全世界的人。”

马克·雷伯特:波士顿动力人工智能研究所负责人

马克·雷伯特(Marc Raibert)对机器人并没有太多的尊重——对于一个选择与机器人一起度过大部分职业生涯的人来说,这一点很有趣。 他说:“机器人就像烤面包机一样笨,就像门把手一样笨。你怎么说它们就会怎么做,但通常你得有一个非常明确的环境来让它们做到这一点。”

雷伯特想要改变这一切。他是波士顿动力的创始人兼董事长,这家公司以机器狗而闻名,这种机器人可以用四足行走,并执行类似检查工厂是否存在安全问题等工作,它们配备摄像头作为眼睛,靠噪音检测作为耳朵,可以在军事基地充当哨兵,或调查可疑包裹。去年,雷伯特扩大了他的投资组合,建立了波士顿动力人工智能研究所,其目标是不仅为机器人提供机动性和功能,也要提供灵活性和智能,后两者正是它们极度欠缺的。

让机器人变得更好的工作之一是开发雷伯特所谓的运动人工智能。 他说:“想想看你的车库。想象一下里面堆满了东西,你需要挪到后面才能拿到东西。人可以做到这一点;动物也能做到这一点。”但机器人呢?比较难。它们需要的不仅仅是更大的机动性以及更大的灵活性(这主要是硬件问题),还需要更强大的实时感知(这与人工智能软件有关),但做到这个并不容易。

雷伯特回忆起最近自己俯瞰海滩时,能够一下子在 300 个人当中看到他的家人。他说: “人类的视觉能力令人难以置信。我在谈到运动人工智能时我就会想到这个。”

推理则是另一回事。大多数机器人都可以执行固定任务,即便任务涉及多个选项。工厂巡检机器狗也许明白,如果楼梯上有物体,它应该做某件事;如果楼梯上没有人,它应该做另一件事。但机器人却没法解决推理问题(即使是相对简单的问题)。

雷伯特说:“假设你要去机场。你看了看手表然后说,‘好吧,我得什么时候到那里?’然后你再退回去,制定一个考虑到大量信息的计划,最终你得以准时到达机场,而不需要在机场浪费太多时间。”这件事情对我们来说很容易;但对于机器人来说这几乎是不可能的,不过雷伯特所说的“认知人工智能”可以解决这个问题。 “我们希望制造出一系列在这方面更像人类的机器人。”

人工智能的道德问题是一个值得关注的领域——雷伯特正在公司内部组建一支团队来解决这个问题。确实存在机器人会抢走人类目前正在做的工作的问题;雷伯特承认这一点,但他并没有因此而却步。人们还担心人工智能会释放出人类最终无法控制的力量,但雷伯特对此并不买账。

在他看来,人工智能是一项尚处在幼儿期的技术,他认为应该像对待任何幼儿一样对待它——这意味着我们应该鼓励它的成长。 他说:“如果你有个一岁的孩子,还几乎什么都做不了。你会考虑什么东西都不教给他,就因为害怕他有朝一日可能会做各种可怕的事情吗?不会的。”


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK