1

震惊业内:一个晚上赔6900亿

 1 year ago
source link: https://www.pencilnews.cn/p/40748.html?from=article_list
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

震惊业内:一个晚上赔6900亿

6057da0a3d5dea3b11e1ae3e41ee98c3.jpeg

这大概是2023年全世界最赔钱的一款产品了。2月8日,谷歌在巴黎发布一款类ChatGPT的聊天机器人——Bard(巴德),结果遭遇翻车:当天晚上,谷歌的市值便蒸发1020亿美元,折合人民币约6932.5亿元。

按照理想计划,谷歌想用该产品讽刺ChatGPT“胡说八道”、“不负责任”,并称Bard不仅能有问必答,还要真实、负责地回答,不掺杂虚假信息。

骨感的现实是:在发布会上,Bard自己率先胡说八道了。

会上,Bard被问了一个问题:我可以告诉我9岁的孩子关于詹姆斯·韦伯太空望远镜(简称“JWST”)的哪些新发现?

Bard的回答确实精彩,但却隐藏着一个严重的事实错误:它称JWST拍摄到了太阳系外行星第一张照片。而事实的情况是,该照片实际由VLT望远镜于2004年拍摄。

而该错误在资本市场引起较大反响,直接或间接地导致了1020亿美元市值蒸发——这件事给了创新创业者哪些启发?

铅笔道认为,自去年12月份ChatGPT爆火以来,投资人开始由技术的炫酷,而转向关注技术的“实用性”。

铅笔道认为,这种实用性包含2个层面:1,提供真实无误的事实信息;2,提供科学准确的决策参考——而前者是后者的决策依据。

一位长期关注ChatGPT的投资人向铅笔道透露,如果2个价值均无法实现,该技术最终只能沦为一个扯淡神器,供用户娱乐消遣,但无法帮助用户解决大部分工作、生活问题。

当然,这确实对ChatGPT提出了更高的要求。据一部分ChatGPT用户向铅笔道反馈,在产品发布初期,该产品给人留下最惊艳的印象是:1,它能听懂人话;2,它能理解字面背后的需求;3,有模有样地提供事实及建议。

但一个现实问题是,这类产品并不能保证内容的真实与客观性:不仅仅是Bard,ChatGPT也是如此。

一位ChatGPT用户曾提问:请用一张表列举纳斯达克-100指数从创立到今天的年均回报率。ChatGPT很流畅地给出了答案,但实际对比后发现:结果是错的。

真实与准确一直是AI长期追求但难以企及的目标。

以语音AI为例。8年前,一位语音领域独角兽公司的CTO曾向铅笔道编辑交流:作为一个语音机器人,该怎样充分解决用户的实际问题。

他谈到,产品的核心分为3个环节:语音识别、语音分析、知识图谱。语音识别即“听懂字面意思”,语音分析即“听懂字面意思背后的需求”,知识图谱即“提供准确的解决方案”。

举个例子,用户向语音机器人输入“北京天气”。在识别环节,它需要听懂:这是“北京地区天气”的意思;在分析环节,它需要听懂字面意思背后的需求:用户可能是想查询未来3日北京天气,而不是10年前的北京天气。

而在知识图谱环节就复杂了,它需要给出真实客观的答案:比如从气象局调取真实资料,以图表形式呈现阴晴、气温等元素。

在2014年前后,语音AI的阶段还停留在“识别阶段”,行业的平均准确性约为94%;而知识图谱的准确性偏低,达到80%就算优质产品。

即便到了2023年,“识别”环节的准确性也仅从94%提升至98%(顶级水平)——这是一个长期追求但不可一蹴而就的目标。

综上,铅笔道可以将其类比总结为:ChatGPT在“识别+分析”环节有着惊艳的表现,但在“知识图谱”的表现不达资本预期——这一点,可能很大程度上将阻碍其商业化进程。

就好比围棋机器人AlphaGo——如果它是一款很炫酷但总下臭棋的机器人,必然是无法引得全世界瞩目的。AlphaGo的商业价值在于,它不仅会下棋,而且能够战胜99.9999%的人类。

AlphaGo之所以能够取得如此成绩,关键的要素之一在于它的训练集:它学习了1万多幅专业棋手对决的棋谱,完成了3000万盘自我对弈棋局。

这些训练集有真实及科学性,有明确的学习目标(胜败)——而ChatGPT不同。

ChatGPT是一个通用人工智能产品(AGI),它训练集主要来自四大模块:

第一块是Common Crawl(占60%)。简而言之,这是一个“爬虫爬取的巨大互联网数据库”。

第二块是WebText2(占20%)。简而言之,这是一个社交媒体数据库(如Reddit)。

第三块是书籍(占16%)。

第四块是维基百科(占3%)。

以上四点可以发现,前2个模块是未经“真实+科学”检验的内容。由此便可以理解:ChatGPT提供的内容,并不能100%达到用户预期。

这也侧面说明一个问题,当下的类ChatGPT产品,并不能完美地创造两大主流商业价值:1,提供真实无误的事实信息;2,提供科学准确的决策参考。

当然,这并非一个完全无法攻克的问题。若要追求接近100%的真实与科学性,行业可以推出更多垂直版ChatGPT机器人,它们的训练集可以尽可能地来自书籍、百科科学内容。

但令人欣慰的是,业内终于不再就技术讨论技术,而是真正开始关注技术的实用性。在这股用户需求之下,各类ChatGPT产品才能持续行驶在正轨,离商业化越来越近。


Recommend

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK