5

GPT-4来了,但不要担心:你还不会失业

 1 year ago
source link: https://www.qianzhan.com/analyst/detail/329/230320-bc8a59db.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

GPT-4来了,但不要担心:你还不会失业

• 2023-03-20 10:45:45  来源:时代周报 E465G0

作者|刘沐轩 来源|时代周报(ID:timeweekly)

没有用过ChatGPT的人可能要抓紧时间了,它的进化速度远远超乎人们的想象。

抛开其复杂的内核,许多人都把ChatGPT当成一个有问必答的AI系统,有时让人惊叹于它渊博的知识、清晰的语言逻辑,有时也不禁使人调侃其“不懂装懂”地给出离谱的答案。

这款由OpenAI公司开发的AI系统——ChatGPT,已经有超过1亿的日活用户。

但这显然只是这个AI系统的一个起步。3月15日,OpenAI发布了全新升级的版本,名为GPT-4。相比于只能接收文字提问的老版本,最新的GPT-4可以识别图片的意思,10秒钟做出一个简单的网站,甚至能回答出“这个表情包为什么好笑”的刁钻问题。

1

△GPT-4煞有介事地解释为什么梗图好笑。(图源:OpenAI)

不仅如此,科学家们现在让GPT-4去考试,发现它在美国律师资格考试中的成绩超过90%的人类考生,在语言考试GRE、“美国高考”SAT中拿到近乎满分,在生物奥林匹克竞赛中超过99%的人类考生。

总体而言,目前这个基于对话训练的GPT-4,在语言方面出类拔萃,但其数学水平似乎有待提高。

ChatGPT还没玩明白,GPT-4怎么就要来了?AI发展的速度令人惊叹甚至惊恐,我们是不是要失业了?而在AI引发的一些列疑问中,失业可能恰恰是最不急迫的那一个。

为什么不必担心失业?

在围棋中战胜人类,在考试中取得满分等等,还只是让人把AI当作新鲜事来看待。然而当AI在简单编程、旅游规划、保费评估和诊断病情等具体场景下出色地完成任务时,做着同样工作的人慌了。

AI不需要吃饭睡觉、没有精神压力,也无需劳动保障。按照内卷的逻辑,打工人岂不是要被这个AI“卷”走了?

这一切似曾相识,却也有些不同。

工业革命后,机器给社会生产方式带来了深刻的变革,大量人员下岗。但直到今天,也没有几个工厂能用得上比肩特斯拉超级工厂的生产方式。

一方面,机器取代了简单的重复劳动,另一方面,有能力取代精密劳动的机器,成本极其高昂。

而不变的是,真正纯粹的体力劳动和人工服务,将越来越贵。

面对AI是否会引发大规模失业的问题,答案是否定的。因为没人想让AI替代自己,打工人不想,老板和各国政府估计也不敢。

假设一家企业的老板执意要把员工都替换成AI,那么老板是否懂得如何管理AI?该从哪里购买统筹AI的服务?

他最终仍然需要雇佣有能力使用AI辅助工作的员工。例如,科技巨头企业微软近期就设立了新职位——指令工程师(Prompt Engineer),专门负责与AI沟通。

即便是企业学会了活用AI,提高效率后进行裁员,也没有国家敢接受大规模失业引发的政治风险。因为选票仍然在人们手中,若是发生大规模失业的情况,福利政策和救济政策需要随时跟进,这对各国政府来说都是不小的压力。

更何况,AI的能力超出了人们想象,目前大多数国家、组织、个人对AI的态度都是谨慎、谨慎、再谨慎。

实际上,在ChatGPT出现前,每个人都已经主动或被动地拥抱AI十几年了。

目前看来,用于消费领域的AI似乎不会造成直接的人员下岗,抖音、淘宝、美团、滴滴等这些互联网平台早已经在用AI为用户提供服务。推荐人们感兴趣的视频或商品、安排外卖骑手接单、规划路线等等,这些决策几乎都有AI的参与,甚至全部被AI接管。

近十几年来,AI就是这样悄无声息地接管了大量的工作,却没有引发大规模的失业。

类似问题其实早已有了案例。例如,让人类迈入信息时代的计算机和互联网,在刚出现的时候也足够颠覆,然而今天,没人会把自己的问题归咎于电脑生产企业或互联网本身。

此前,网络上一种流行的说法也从侧面展示出AI的局限性:“AI不能坐牢,所以不能替代会计”。

正因为AI不能负起相关责任,所以目前看来无法取代人。同理,AI法官和AI医生的判断有可能被广泛接受吗?不然未来所有的纠纷难道都要归咎于OpenAI、谷歌、微软这些企业吗?

面对这样的社会变革趋势,有的人会觉得“礼崩乐坏”,但又不可能完全与AI割席,陷入没有尽头的精神内耗。而有想法的人则开始学习掌握训练AI的能力,直到平台推送的都是他想要的内容,俗称“养号”。

20230320-e1cf7466ffe6d173_600x5000.png

△ 在平台上随便一搜,就有驯化AI的养号攻略。(图源:社交媒体截图)

可预见的未来是,AI想要在工作岗位上替代真人,将依旧是一个隐性的、谨慎的过程,能够活用AI的打工人将具备更强的竞争力和议价能力。

对此,微软德国执行长Marianne Janik也曾表示,新的AI技术已经带来新的变革,大多数人不需要换工作,而是要在此关键时刻学习AI让自己成为专家,为企业的产品与服务增加价值。

他对企业家的建议则是,要开始训练员工使用AI,这样才能顺利过渡到下一个世代。

颠覆认知的潜力与威胁

AI与人的不同之处,恰恰是它的魅力,也需要我们警惕。

通过摄入大量的信息,科学家们发现,AI越来越像一个总是能蒙对答案,但写不出解题步骤的学生。

2020年,麻省理工学院用AI发现了一种新的广谱抗生素Halicin,它能杀死许多具备耐药性的“超级细菌”,却不会让细菌产生耐药性。

科学家们先是教AI了解抗生素分子的普遍规律,然后放手让AI自行模拟了61000个分子,最终找到了Halicin。

20230320-607cf2ecfaa3a855_600x5000.png

△ 由AI找到的抗生素Hailicin。(图源:社交媒体)

但整个事件给人带来的震撼不是AI找得有多快多准,而是AI学生用科学家老师们至今都无法理解的解题方法,得出了Halicin这个正确结果。

这并非特例,早在AlphaGo大战世界围棋冠军李世石时,人们就发现AI经常会走出一些人类棋手匪夷所思的走法。

现在,许多行业的前沿从业者和研究者都在使用AI,但绝大多数人并不知道AI为何如此抉择。如果不及时反思或学习AI的方法论,这将是一件恐怖的事情。

不知道其方法论,那AI所做的一切真的正确吗?如果AI能够轻易完成科研成果、股票交易这些人类社会较高难度的任务,那么追求真理、牺牲精神、人心博弈等这些最具人性的行为又有何意义?

目前仅限于解决特定问题的AI也许还没什么威胁,但等到AI发展到了广泛处理各种事务,接管每个人的方方面面时,情况可能会变得让人哭笑不得。

AI会综合人们知道的、不知道的所有信息,为人们提供决策或建议,而人们可能根本没有核实其对错的能力。在一些小事上,会直接替人作出决策,就像AI现在推送个性化内容一样。

最终,对绝大多数人而言,AI什么都知道,什么都做得比人好。这样的良师益友,为何不尽情地依赖它?又或者会有人将其人格化,甚至将AI奉若“上帝”。

那些早就开发出AI,并供给资源调控其进化速度和方向的公司,也可能会被改名为“教会”。

届时,今天那些沉溺于商品、短视频推送算法,放弃思考、拒绝接受新观点的人,可能最先成为“教徒”。人类社会或许也会面临一轮新的启蒙运动,重新拥抱理性。

这也正是基辛格、谷歌前CEO施密特和麻省理工学院计算机学院的院长胡滕洛赫尔在《AI时代:以及人类的未来》一书中强调的,“任何情况下,真正的决策权应该掌握在人的手里。”

掌握并驾驭AI

所幸,AI领域的先行者们,正在带头警惕AI取代人。

2月24日,开发ChatGPT的OpenAI发布了一则声明,表态该公司正在谨慎地给AI发放学习资料,比如此前人们用的ChatGPT是基于GPT-3.5这个版本的应用,只收录了截至2021年底的信息。

OpenAI还在声明中表示,“我们希望就三个关键问题进行全球对话:如何管理这些系统,如何公平分配它们产生的利益,以及如何公平分享使用权。”

1

△ GPT-3和GPT-4的区别是,后者不仅可以接收文字信息,还可以学习多媒体素材。(图源:社交媒体)

目前,决定AI发展的三大因素是算力、算法和数据(教材),这些都需要人的参与。

算力是物质基础,而这就牵扯到芯片。

GPT对芯片的需求是极大的,且需求量呈指数级增长。GPT-4上一代的GPT-3.5,训练所需的芯片是英伟达的A100型号GPU(图形处理器,俗称显卡),一颗大概要8万元。

而完成整个训练过程,大概需要30000颗A100芯片,也就是2.4亿元。

要知道,训练当年战胜李世石的AlphaGO,也只用了176颗芯片。GPT-4的整个训练过程需要要多少芯片,现在还未可知。

与此同时,训练AI还特别耗电,ChatGPT据说训练一次,就要消耗90多万度电,相当于1200个中国人一年的生活用电量。目前,仅仅是维持日常运转,每天的电费大概就要5万美元。

此外,训练AI的素材目前仍然需要人工筛选。AI该学什么,判断是否正确,这些都需要一种名为数据标注师的工种。美国《时代周刊》在今年1月曾报道过,截止到2022年,全球已经有500万名数据标注师。其中,许多人来自非洲国家,比如肯尼亚。

在算法上,目前的AI比前代更像人,也因此取得了更迅猛的进展。

以往的设计,是“人教给AI语法和词汇,然后让AI讲话”。但语言模型本身就是模糊的,很多概念在人类社会中都没有所谓“正确”的定义。

比如,什么是猫?每个人都可以轻易地判断出猫的照片,但却没人能简单地总结出判断规则。有毛?尖耳朵?大眼睛?人类老师都不一定能解释清楚,如何教给AI学生?

科学家最终发现,直接把100万张猫的照片丢给AI,AI就学会了判断“什么是猫”。因此,现在的算法是把“日常对话”直接丢给AI,让AI自己感受出一种“语感”。

有时,AI的办法让人琢磨不透,有时甚至能启发人。

当前一个亟待解决的问题是,如何保障AI训练数据的准确性?除了事实本身之外,编程语言都是经由英语输入,AI只能“看懂英文教材”。这就意味着,如果要训练ChatGPT回答中文问题,也无法保证不在翻译上出现纰漏。

但抛开这些研发者的苦恼,对个人而言,ChatGPT或许将成为最好的学习工具,颠覆每个人接受教育的方式。

有问必答的ChatGPT可以从头教你如何向它提问,这是一种对话式的学习。从孔子和苏格拉底的时代开始,这种形式似乎就是“学习”最本真的样子。而且在吸收了大量的知识后,ChatGPT甚至可以扮演孔子和苏格拉底,直接与人们对话。

加州大学河滨分校2023年刚刚发布了一项研究,他们把《意识的解释》的作者、美国认知科学家丹尼特的所有的书和文章都输入给ChatGPT。研究者们让ChatGPT扮演丹尼特,回答受试者的问题,并将丹尼特自己的回答也混入其中,让受试者判断。

结果,25个熟悉丹内特领域的哲学家平均正确率为51%,经常阅读丹内特哲学博客的粉丝得分也差不多。也就是说,ChatGPT扮演的丹尼特已经到了真假难辨的程度。

现在,想阅读一本书,ChatGPT不仅可以为人们推荐、做摘要,甚至能在一定程度上替代作者本人答疑解惑。

但作者本人并不会失去价值,他的新思想恰恰是ChatGPT学习的食粮,ChatGPT也将成为敦促他思考的动力。

就像机械普及后,人工服务的价值反而越来越高。AI普及后,人的价值或许也将愈发凸显。

编者按:本文转载自微信公众号:时代周报(ID:timeweekly),作者:刘沐轩 

本文来源时代周报,内容仅代表作者本人观点,不代表前瞻网的立场。本站只提供参考并不构成任何投资及应用建议。(若存在内容、版权或其它问题,请联系:[email protected]) 品牌合作与广告投放请联系:0755-33015062 或 [email protected]

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK