11

大模型竞速2024:服务、应用、MaaS

 8 months ago
source link: https://www.36kr.com/p/2590359106894727
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

大模型竞速2024:服务、应用、MaaS

光子星球·2024-01-05 00:07
一年过去,大模型终于从技术价值走向生态价值

年末的大模型赛道静悄悄。

既没有电商领域的drama反转,也没有游戏行业那般的连续地震,除了行业媒体的零星解读外,相对突破赛道圈层而进入大众视野的消息,还是字节跳动与百度两家头部与海外大模型相互套壳的新闻。

或因大模型在商业化天平的两端都未曾诞生足够引领潮流的产品,即使国内“百模大战”热闹了一整年,但预想中的“iPhone时刻”仍未到来,以致于市场对相关消息出现了脱敏现象——大模型的推出与后续的刷榜难以再获取市场关注。

在落地成果出现之前,市场进入了明显的冷静期。但不可否认的是,国内的创新仍在发生。过去一年,我们见证了国内大模型从无到有再到枝繁叶茂,其中文领域能力持续爬坡,以及各玩家在商用落地道路上的诸多探索。

说白了,我们踏上这条道路也仅仅一年时间。得与失的讨论更应该集中在“得”而非“失”之上。

头部公司带领的三次转向

亚里士多德提出的第一性原理认为,万事万物都有一个根基性命题或假设,不能缺省,也不能被违背。以此来浅析当下的大模型行业,其数据、算力、能力等维度的攀升显然是题中之义。

因此,领跑中国大模型速度的是头部科技企业,数据与算力储备为他们踏入新时代风口提供了不小的先发优势。

据不完全统计,国内大模型数量已达200以上。共同缔造“中国速度”的先行者是百度、阿里、字节等头部互联网公司。先行者效应下,他们的一举一动也一定程度上牵动行业的发展方向。

自百度三月发布文心一言起,直至年中时期如腾讯、京东、华为等大厂搭上大模型的班车,这段时间可以说是国内大模型赛道的混沌期。

interlace,1

所谓混沌,是初生的无序状态。平台类大厂、互联网大佬与高校科研团三股势力在ChatGPT3.5的爆点后迅速达成“生成式AI代表未来”的共识,以捣鼓出自家的大模型为第一要务。彼时的业内语境中,训练模型被戏称为“炼丹”,然而炼的什么丹、给谁吃、有什么用以及怎么用,大多都还处于盲目的状态。

有人向往AGI的星辰大海,有人希望重塑千行百业,有人仅仅只是炒作拉股价。

这段时期内,大模型的中文领域能力大部分不及GPT3.5,其价值停留在纸面上,有待发掘。自用户层看,“松鼠鳜鱼法”与不少开放测试的大模型一直重复初次回答的糟糕体验亦是混沌期的小小注脚。

年中,距离开源“英雄”LLaMA为业界提供了模型结构、训练方法等标准答案已有4个月,够多个大厂复用其成果。这进一步缩小了国内模型能力代差,GPT3.5的里程碑被越来越多的玩家触及,通用大模型发展进入相对平稳的瓶颈期

与此同时,GPU供不应求下的算力紧张、大模型厂商的造血内需推动将大模型落在实处的清风逐渐吹起。

在商业化落地不明朗,成本、周期难把控等问题下,大干快上通用模型被描绘为春秋笔法。此后两个月是行业大模型的集中发布期。腾讯云的MaaS解决方案、京东产业大模型与华为盘古大模型为赛道的垂直转向定下基调。

一时间,金融、工业、教育等主要产业的垂直模型如雨后春笋般出现。

在PMF(产品市场匹配)的第一性要求下,主流范式是只取基础模型的理解能力与少量对话、推理能力“一瓢饮”,调用大模型时代前的AI模型与数据库获取结果,最后再由大模型“组装结果”。

这一模式虽相较基础模型的万卡规格相去甚远,亦一定程度上缓解幻觉问题,但精调、部署的基本流程下依旧刚需数百张GPU和不短的时间成本。因而其更像是厂商对大模型落地的迫切与客户企业的降本需求“一拍即合”的权宜之计。

此外,一个值得思考的问题是AI生产力工具,为我们带来的究竟是降本还是增效?

针对不同发展阶段的企业,AI工具的能力偏向将显著影响接受度和满意度。通过SFT(精调)行业大模型的范式以快速落地看,企业购买大模型能力并未给业务带来本质上的增效,而是为既有AI工具和模型配上一个大脑。

换言之,此前的行业大模型更偏向于降本而非增效,更适用于收缩期的企业,尤其是已建立起AI工具体系的大型企业。那么行业大模型相对更易向上渗透,抓住大B而非小B的现状也就不难理解了。

此后,垂直模型的技术底座持续演进,目前以调用向量数据库和RAG(检索增强生成)两个“外挂”为中心轴,不过这是后话了。

今年9月,大模型管理办法实施,聚光灯渐渐有从产业向用户转移的趋势。直至以PC为首的消费电子赛道抱上了大模型前进的大腿,既是载体也是入口的智能设备,为大模型在C端的商业落地找到全新场景。

自脱离混沌期起,国内大模型玩家就一同走上了产品化的道路。但总体来看,早在3月末便提出的主线任务——MaaS还处于未发力的状态。就像早期的行业大模型一般,赛道向外兜售的只是模型能力,而非模型服务。

两字之差,指向大模型未能从技术价值转换为生态价值。做个不算恰当的比喻,在AI高速公路上,各厂商只能象征性地建几所收费站。

目前基础模型底座能力无人称王,大家同台竞技之下无人能站稳生态高位。整体情况导向了两条2024年的大模型掘金之路——模型服务创新与应用。

大厂创企,机会均等

逐鹿九州,是大模型厂商试图冲击生态位置的现状。

只是目前看来,追求模型能力已不是冲击高位的最优解,就像Sam·Altman所言:“扩大模型规模的收益在递减”。

首当其冲的是愈发紧张的AI算力,据Omdia统计数据,今年Q3也就是英伟达发布GPU禁令前,腾讯、百度、阿里三家购入100系GPU的数量分别为50K、40K与25K,三者相加也不及微软和OpenAI其一。

另一方面,OpenAI虽给出 Scaling Law(模型能力虽训练计算量提升的扩展定律)来解释大模型之“大”,但包括算力、人力、电力等在内的成本侧已无法容忍过多资源投入仅为百尺竿头更进一步,这一点基本已是业内共识。

interlace,1

大力不能出奇迹,意味着大厂先发的算力、规模等优势正在逐渐消弭。

从AI infra来看,规模效应递减的根源在于算力紧张与数据敝帚自珍。但自技术层面,更多问题已经成为南墙:有毒内容与幻觉尚未有解法、AI前沿为商业公司把持后,开源程度日益递减等。

参数量的顶级规格已经停留在万亿量级许久,玩家们开始思考如何通过巧思而非大力来推动AI行业向前。

一条路径是“小而美”,曾有传言称GPT4是由十数个MOE小模型聚合而成,MOE也成为当下微软、谷歌等头部企业竞逐的新领域。尤其是其和端侧设备的结合,新时代AI硬件有着足够的想象空间。

大模型的软硬件生态从结合到协同的发展速度令人咂舌。今年初,大模型语境中的模型训练还是万卡集群,年末时候,高通骁龙8 Gen3便展现了百亿参数模型的端侧运行能力。国内已有OPPO、vivo、小米等手机厂商推出端侧模型,其服务与应用或将于2024年全面爆发。

另一条路径是Long Context,模型能力突破艰难的情况下,让模型底座发挥作用的惯常范式是SFT,然而训练成本掣肘,长文本的Prompt有可能在向量数据库与检索增强生成的基础上彻底消磨精调的存在。

回首创企,智谱AI、月之暗面、百川智能等创业独角兽也携AgentTuning(智能体增强)、Long Context、RAG等独特的模型服务创新崭露头角。

创业公司的“破坏性创新”能力早在此前的商业史上便屡有验证。由“生成式AI”代表未来这一基本共识发散开来的不同技术路线昭示着更多样化的AI未来图景。

重塑开发生态

OpenAI塑造了2023年AI赛道关于大模型的共识,追赶的旋律就此开始谱写。此后的GPT4以及GPT4V的出现更让人深感大山似乎不可逾越。

但近来发生的两件事情,终归给到国内玩家们希望。

先有《The Verge》报道字节跳动因使用ChatGPT的API以训练自家大模型,因而遭OpenAI予以“封号”处理;后有谷歌最新发布的Gemini-Pro承认在中文领域训练中使用了百度文心一言的数据。

interlace,1

不出意外,重复造轮子的基础模型之争于此踩了一下刹车,而数据集的价值再次被放大。随着推特、Reddit 等移动平台关闭免费的API接入点,在不远的未来,或许通过数据采集器搜集平台数据用于AI训练的 Pretrain 模式将彻底成为历史。

进一步说,字节套壳GPT亦或是谷歌套壳文心一言,本质上是模型架构的趋同与数据价值的跃升。那么中文高质量数据实际上也是国内大模型的护城河。

在此基础上,我们更不需要担心模型层会落后于海外过多。反而是在应用层面,百花齐放才是AI时代应有的面貌。如此来看,李彦宏一直反复唠叨,“我们不需要这么多基础大模型,我们需要更多应用”的说法有其合理性。

应用本身是商业化落地的终极载体之一,更重要的是应用的开发过程——率先构筑完善AI Native应用开发生态的基础模型厂商将抢占生态价值的高位,推动自家大模型的价值从技术价值转为生态价值。

典型的案例便是苹果税,或是手游行业众所周知的安卓渠道商。只是移动生态早已固化,远非当下“百模大战”的混乱可比。

如果我们沿用上文的比喻,当下大模型厂商加码模型能力,试图做AI高速公路收费站,或许现在更需要的是收费站中间的服务站。完善的应用开发工具链所构筑的开发生态能极快加速爆款应用的出现时间。

12月20日,百度副总裁侯震宇将AI原生应用开发新范式定义为AI Native 应用生态的关键组件之一,百度亦再次迭代应用开发工具链并推出了AppBuilder,正如文心一言发布时一般抢先了一个身位。

可以预见的是,我们也将很快看到除百度外的玩家通过新场景、新系统共同打造新的开发生态。

即使AI应用开发生态的必然性前置会让应用爆发的时间节点稍为后置,但考虑到今年大模型的“中国速度”,2024年基本可以确定是AI应用喷涌之年。

目前来看,国内AI社交、AI游戏的发展已初具规模,更多赛道正在接受AI的改造,重塑应用的生产力与生命力。AI加入后是否会变更赛道既往的商业模式,是产品经理迫切需要解决的Konw How 。

我们确定,2023年的结束并非大模型周期的结束。或许我们仍会为GPT等海外大模型的能力提升而感到压力,但我们也能还之以应用层的创新。而不再时刻盯着OpenAI的中国大模型,也将真正走出属于自己的道路。

本文来自微信公众号“光子星球”(ID:TMTweb),作者:吴坤谚,编辑:吴先之,36氪经授权发布。

该文观点仅代表作者本人,36氪平台仅提供信息存储空间服务。


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK