1

哪些饭碗 AI 不好抢?

 2 months ago
source link: https://www.woshipm.com/ai/6035038.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.

哪些饭碗 AI 不好抢?

2024-04-18
0 评论 1914 浏览 9 收藏 20 分钟

之前ChatGPT发布后,就曾有传言称“AI即将取代人类”;而随着Sora、Suno的发布,相信这种说法的人越来越多——毕竟文生文还只是影响到作者、自媒体这些的工作,文生视频和文生音乐,连创意类的作曲、剪辑都能做,波及的范围越来越广。这种情况下,叠加经济增长放缓,担心自己饭碗的人也越来越多。

但其实没必要担心,当前的AI大模型,哪怕继续优化升级到极致,仍然无法取代人类专家——因为这对AI而言超出了能力范畴——它没有情感,没有个体意识,也就无法“涌现”最关键的人类「价值判断」的能力。

2b5c181e-40df-11ee-9458-00163e0b5ff3.jpg

周末跟一位体制内的老友聚,无意中聊到AI,我看友人的表情,疑似是用《三体》中的“冬眠舱”沉睡了十年。

我再次体验到“信息茧房”的威力。

困于茧房的不止友人,还有我。

我太想当然了,以为所有人对社会科技趋势,“至少有个大概的共识”吧。

事实上,这个“共识”远低于我的预期。

2022年底,OpenAI发布ChatGPT,因其在文本领域的“里程碑式突破”,引爆了一波人工智能浪潮,持续至今仍不见衰。

时隔一年多,它究竟发展到什么程度,能做些什么,对我们有哪些深远影响?

对此完全没概念的人竟比预想的多。

这篇专题,简单聊下。

一、与早先的“AI”有什么实质区别?

早先的AI,可以归为两类:

一类是专注特定领域的“单一智能”。

比如,“深蓝”(Deep Blue),1997年国际象棋比塞中击败了冠军。

但这种只能做特定规则范围内的智能,只能称为“某某自优化程序”,跟当下火热的AI不在一个赛道。

另一类是直接与人类语言或行为互动的“AI”,背后其实是搜索引擎或推荐算法。

AI大模型跟这类“传统AI”的实质区别是什么?

用了一段时间,我感触最深的是,当下的AI,它真的是围绕“你的需求”去互动、去组织内容,而之前的只是围绕“关键字”(或行为)去搜罗内容。

比如,我曾在哪看过“大海中与龙门有关”的禅机,想找它的出处,但我不知道这部作品名,甚至连它是不是一本书也不确定。

于是用搜索引擎,不出所料,搜到的要么是“鲤鱼跃龙门”,要么是儿童故事或音乐,总之跟我的目标风牛马不相及。

后来换成AI大模型,同样的描述,它告诉我:出自禅宗名著《碧岩录》第六十回。

嗯,言简意赅,一步到位。

这就是当下AI的突破性之处:

它能“理解”人类语言,于是能根据“你话的意图”而不是“你话里的关键词”去搜罗内容。

这更符合现实情境——我最需要搜索的时候,总是出现在“我连搜索目标都还模糊不清”的时候。

当我都知道目标的“关键字”时,我还要你搜索引擎干嘛?欣赏竞价广告么?

同样的问题也出现在各类“智能推荐”上,我高频浏览某商品,它就老出现在“你或许喜欢”列表上。

这契合现实嘛?

现实中,一个人反复高频搜某一类商品又叉掉,有没有可能他其实不需要这个,但需要的又找不到?

诸如此类,这些统统可以归为“模糊需求”——是现实中更高频出现,也更“刚需”的需求。

但早先的AI对此无能为力。

这是AI大模型“革命式突破”的地方:

理解人类语言,就能洞察你的意图,所以我说它能围绕你的需求去搜索或组织内容,这是它与早先的AI(围绕关键字)最大的区别。

二、理解人类语言,意味着能输出实用交付物

可别小看「理解人类语言」。

没错,站在人类立场,幼儿园小朋友就能做到。

但机器的优势是背后近乎无穷的算法算力,「理解人类」可说是它额头上的那个「指数」。

打个类比,AI的综合能力是以「算力」为底数,以「理解人类」为指数。

不理解人类前,这个指数是个1,它只能做些最呆板最机械的活。理解之后,这个指数可以是10,可以是100,可以是N。

一个亿的一次方不吓人,但一个亿的N次方,光是数字就能把人淹死。

建立在「理解人类语言」的基础上,它就能代入人类视角去「学习更复杂的概念」

起初你嘲笑它的认知,就像是刚发明出来的火车,比马跑得还慢,但调适训练几次,它就能以千万匹马都无法拉动的力量奔跑,甚至能飞上天,后劲无穷。

这就是硅基智能的优势,它可以无止境的「吃」,无止境的「内化」,而且不需要休息!

这正是当前AI的“初步成果”,它已经能输出人类「所需要」的各类文本,包括且不限于:

创作公文、小说、诗歌等纯文字内容;

陪你聊天解闷,甚至谈恋爱;

输出绘画、乐曲、带剧情的视频;

甚至网站代码、表格、简历、PPT等直接作为职场交付物的内容了。

网络上的例子众多,这里不赘述。

当然,我们更关心的不是它能做这些——我画个火柴人那也是艺术呀。

我们关心的,是它到底能做到几成色?

有多可靠?

肉眼可见的未来会顶替职业工作者么?

三、AI达到平替职场人的水平了么?

一段时间评测下来,我体验最深的是,当下的AI,最大的优点跟缺点都是,“AI痕迹”明显。

我说的“AI痕迹”不是贬义,比如,让它出一些建议或分析报告,无论任何领域,它几乎能交出一份「全面」、「均衡」、「精要」的答卷。

但硬伤也恰恰在于此。

我们解决现实业务问题时,最忌讳的恰恰是「均衡」与「全面」

就像高考满分作文,它也就只能在考卷里满分,按现实职场要求,高考优秀作文实在是过于“学生气”。

现实工作,无论哪类业务,最耗脑也最体现能力的实质都是“资源配置”的问题——一个项目,你手头资源(精力)有哪些,按什么步骤、什么组合、多少比例分配。

比如,让你设计一份让人念念不忘的宣传材料。有经验的人都知道,打动人心的关键,一定是要突出某些,压抑某些——即一定要“不均衡”展示。

“不均衡”虽然未必就合理,但「全面」、「均衡」却一定是错的。

所以,在工作中,核心竞争力的体现是在“配置”上,这是专家最需要“动脑子”的地方,也是他们“值钱”所在——不是去指导什么该做,而是把一切不该做的事剔除掉。

而AI的优势在哪里?

在于专家们将资源配置完之后,根据他们的要求,填充细节作为算法与算力——实际上,这些工作原本恰恰是绝大多数初级XX师,XX助理干的活——是不是想到AI威胁最大的群体是谁了?

当然,有人会说,只要数据训练的量级足够,专家资源配置的活,AI也能胜任吧?

不是这样的。

我得出上述结论,并非建立在AI当前的能力之上,我是把它们未来的成长性也考虑在内

我关注的是它们底层的“原生缺失”,这些“缺失”必将导致它们能力的缺陷。

AI缺失的是什么?

无法拥有人类情感,没有个体意识,没有欲望、动机

咦,这是不是跟前面说的「理解人类语言」矛盾?

并非如此。

理解可以通过纯粹的逻辑实现,AI会这么告诉你:

我没有情感,但我填喂过“人类所有的情感状况”后,我就能知道,一个人在某种情境下,他是会喜怒哀乐还是会无感麻木。

这是「理解」。

但理解与体验是不同维度的事。

你想象下,剥夺一个人的一切感官体验(包括恐惧),你觉得他还会有任何欲望、利益、动机么?

他就变成了它了——一个仅剩理性思维的机器。

没有情感体验,AI就无法独立做价值判断——它的一切目标都得“预先导入”——但真实世界中,没有人能预判最优解

别说一个社会或特定人群,哪怕是一个人,就你最懂的「自己」,你能确定明天晚餐你就一定想吃现在最想吃的料理么?

很多人一定还记得那个事例吧:

某系统出问题了,需要技术人员进大厦修理,但这个系统就是负责分配入门资格的,技术人员进不去,而门卫因为技术人员没有入门资格,就是拦住不让进。

这位门卫,更像AI——无法根据当前情境做正常人都会做的“常识判断”

当然,AI比门卫谦逊的多,它很明确知道自己「不能做什么」。

在这类问题上,AI本I大方承认:

21637b10-fcb2-11ee-8c1b-00163e0b5ff3.png

它反复强调“自己是基于历史数据和模式”,对于未知或实质创新——恕我无能

AI无法做价值判断,就无法在当前情境中权衡轻重缓急,我刚才提到专家最核心的事情了吧——配置资源。

没错,AI能通过训练获得历史最优配置,但历史配置能否匹配当前情境或未知领域——这需要价值判断,需要人

* 例子太多,比如,只要牵涉到伦理冲突或长远利益(必存在伦理冲突),AI就没辙了。

因此,只有人类专家才能做出这个判断——AI心里没底。

除了情感与意识问题,还有哪些是AI特别不擅长的?

跨领域联想

只要是表面不相关的两个领域,它就很难充分挖掘两个领域间的内在关联,从而获得「智慧洞察」。

比如,上周我在思考校园霸凌的问题。

分析多了,我发现,只将眼光放在教育体系内,得不到最优解。

我就这类问题跟AI探讨,它能得出的也就那些全面、均衡的建议,再无突破。

实际上,我很快直觉到——抛开校园与教育的范畴,将眼光看向职场,看向成年人社会,从那些表象不是霸凌的成人互动中,找到突破问题的关键。

但无论我怎么暗示AI,它始终不会这么思考。

「少加点班」之所以能始终得到老读者错爱,显然不是因为我的文笔,最大的原因恰恰是专题中偶尔捕抓到的「深刻洞察」,而这些洞察绝大多数正是来自于「跨领域分析」,这是我的个人核心竞争力。

比如,从“控制论”中寻求“意志力改进”的措施;

从水流的特性中获得“碎片时间整体应用”的灵感;

或者从“慢性病的逻辑”中挖掘出“学习与持久性记忆”;

诸如此类与实质创新有关的飞跃,AI仍只能“随机关联”——但因为价值判断缺失,要AI在众多“随机成果”实现最优解的经济效益实在太低。

与「跨领域联想」类似的,还有一个重要的能力是「跳出领域边界」。

比如,你要研究某国历史的复杂问题,那你就必须跳出该国历史去寻求解答。

诚如歌德所说,不懂外语的人,就连自己的母语也只是懂得一知半解(He who knows no foreign languages knows nothing of his own),也隐含类似意思。

无论是「跨领域联想」还是「跳出领域框架」,都是解决复杂问题——或者说的直白点,有极大潜在经济价值的问题——最依赖的能力。

这类能力当前AI很难获得的,因为其中的鸿沟不是“算法或算力”可以弥补,它需要「价值判断」,需要动机、利益、情感、个体意识的参与——而这正是AI与Human的最实质区别。

以上说的是「硬实力」层面的东西。

如果再考虑到「软文化」,诚如职场老油子所评价:

工作很多时候是服务老板/投资人/领导的情绪,是察言观色与人情世故,这方面,AI就更头疼了。

所以,当前的AI大模型,哪怕继续优化升级到极致,仍然无法取代人类专家——因为这对AI而言超出了能力范畴——它没有情感,没有个体意识,也就无法“涌现”最关键的人类「价值判断」的能力。

某种角度看,AI更像一个彻底抛弃了低级趣味、连生命意义都不在乎的「纯粹圣人」,它固然可以告诉你一切事实性知识,但却无法指导一个有血有肉的人如何生活。

四、那AI到底会不会跟人抢饭碗?

首先是体力活的朋友可以直接无视了。

用AI实现精细的手工活,经济效益非常低,在肉眼可见的未来,无需担心。

至于“脑力活”,确实是当前AI的主战场。

从AI的原生缺陷反推,我们不难得出,凡是不涉及情感、不涉及价值判断的一切工作,像是“遵从指令”、“按部就班”、“逻辑推理”、“分析归纳”、“事实性知识”等等那些容易用“效率”去度量的工作,都是AI潜在的顶替项

按人类社会的习惯,经济效益总是主导目标。换句话说,薪酬越高、可自动化程度越高,那么就越可能被率先“优化”

至此,可以总结如下:

不考虑社会因素,AI将导致基础岗的坑位急剧减少,同时,将进一步提升高水平人才的产出质量

那这是不是一定会导致高失业率?

宏观来看,短期内阵痛在所难免,但长期来看,大量冗余的人员必将衍生全新的需求与市场。

这将产生大量全新的工种。

只是无论将来的新业务是什么,把AI耍的像今天“电脑打字”般炉火纯青,肯定是未来职业的趋势了。

五、我们需要怎样适应后AI年代?

前阵子,我经常看到各类“教人如何使用AI 的培训”,这些人喜欢强调一项“能力”——如何向AI提问。

这让我想到了上世纪的原始部落对于飞机的看法:

这些现存的“原始人”总是先听到轰隆隆的声音,然后看到飞机,于是他们得出结论:模仿轰轰发声,迟早就能召唤飞机。

没错,让AI输出内容,得确是通过发问驱动,但发问仅仅是最表象的东西,提出高质量问题的关键从来就不在于“发问技巧”,而在于“你对该业务领域的认知深度”

这类培训大受欢迎,让人不禁替这些白领们担心,AI取代他们可能还真用不了多久。

当然,这不能怪大众。

由于历史原因,我们的教育模式在当初定位的时候,就是想着培养“拥有丰富知识”且能创造性解决按部就班听话的“高级人才”。

谁想这模式下培养的能力,恰巧碰瓷了AI最擅长的领域。

显然,AI进一步放开普及之后,彻底的教育变革也是势在必行了。

专栏作家

李少加,公众号:少加点班,人人都是产品经理专栏作家。《进化式运营》作者,“基于用户视角的用户养成运营框架”提出者,互联网商业独立研究者、运营管理专家。

本文原创发布于人人都是产品经理。未经许可,禁止转载。

题图来自 Pixabay,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK