0

百度的2023Q1:用云稳住现在,用大模型构建未来

 1 year ago
source link: https://www.36kr.com/p/2260536446300033
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

百度的2023Q1:用云稳住现在,用大模型构建未来

晓曦·2023-05-16 13:38
携AI狂飙一季后的财报,能读出哪些百度经验?

5月16日,百度交出了今年第一季度答卷。

无论作为整体经济好转后的第一份答卷,还是作为AI赛道狂飙一季后的第一份答卷,百度这份财报都颇具标志性意义。整体上,百度的表现超出市场预期。常态化的降本增效和审慎的业务拓张卓有成效:第一季度,百度实现营收311亿元,同比增长10%;净利达57亿元,同比大幅增长48%。

得益于宏观经济形势的好转,作为百度第一增长曲线的广告业务强势复苏,核心在线营销收入达166亿元,同比增长6%,给百度打下了稳健的基本盘。

围绕“商业化”这一命题,百度搜索、电商、智能驾驶均取得了亮眼的成绩。3月,百度App月活达6.57亿,同比增长了4%。搜索业务的稳健增长也促成了电商季度GMV55%的同比增长。与此同时,自动驾驶业务萝卜快跑这一季度的订单量同比增长236%至66万单,财报透露,目前萝卜快跑稳居全球最大的自动驾驶出行服务提供商。

值的关注的是,作为AI的基础设施和第二增长曲线,百度智能云已经实现了季度盈利,收入同比增长8%至42亿元,业务健康度提升。

正如百度创始人、董事长兼首席执行官李彦宏所言,“在2023年第一季度,百度核心交出了一份稳健的业绩答卷,收入较前季度增速加快,经营利润率得到改善,实现经营杠杆效应。”

稳健的增长背后,百度也为变革埋下了名为“AI大模型”的伏笔。

自ChatGPT在去年底掀起全球大模型热潮,初期鼓吹者众多,但真正入局者寥寥。2月7日,百度做出了发布对标ChatGPT的大语言模型的决定,成为国内首个宣布自研大语言模型的互联网厂商。

3月16日,“文心一言”内测如约而至——而11天后,百度智能云就迅速基于“文心一言”进行了商业化部署,“文心千帆”企业级大模型服务平台公开内测。对技术变革的快速响应、研发,甚至是商业化,百度亦向市场展现出了深厚的AI技术储备和行业经验。

围绕“文心一言”,李彦宏亦明确了未来百度的发展方向:“我们计划逐步将文心一言融入我们的所有业务,为我们的产品及服务赋能,吸引更广泛的用户及客户。围绕文心一言在新的时代中建立新生态。这也将助力我们实现长期、可持续的增长。”

01

拐点来临,AI赋能第二增长曲线

长期以来,AI是一项好业务,却不是一门好生意。

翻阅国内外AI领域上市企业的财报,可以发现AI解决方案虽在收入上亮眼,但毛利率极低。这也侧面反映出,面对愈发旺盛的市场需求,AI厂商依然无法摆脱高投入、低回报的增长困境。

AI服务能否成为好生意?答案是肯定的。百度这一季度的数据印证了拐点的来临。从2022年第二季度起,百度智能云构建了一套“可持续增长”的商业模式,为关键客户构建标准化、规模化的人工智能解决方案。

标准化对智能云利润的推动是显著的。这一季度,百度智能云收入达42亿元,同比增长8%,并首次实现了盈利。这也意味着,AI解决方案建立起了稳固的毛利基本盘。

究其缘由,在于AI服务的标准化。

在以往的“千人千AI”定制化模式中,每面对新客户、新场景,企业就要另起炉灶,重制方案。应用场景的碎片化使得高额的研发投入难以摊薄,AI企业往往陷入投入多、回报少的泥淖,同时也变相增加了下游客户企业接入定制化AI模型的成本。

如此种种,不少国内外云厂商近几年喊出的“让AI成为第二增长曲线”口号,迟迟未能成为现实。

AI解决方案标准化的意义,则在于将原来大且全的“重型”方案拆分成标准化的单元。针对不同的业务需求和应用场景,企业可以像搭乐高一样,将不同的AI模型灵活组合和高效复制。标准化既降低了企业使用AI的门槛,也容易让企业在实际场景中看到人工智能带来的降本增效。

举个典型的案例:在百度AI开放平台提供的8大领域智能产品服务中,通用文字识别服务及运用在“智能教育”领域的作业辅导批改,也应用于“智能医疗”领域下的医疗文档结构化场景。同理,人脸实名认证技术也可以灵活出现在教育、医疗、零售等服务领域。

再比如,针对质量管控场景,传统的机器识别精度低,假点率高达70%以上。这就意味着被判定不合格的产品中,有70%以上的产品实为合格。在与苏州常熟东南相互电子的合作中,百度智能云的智能质检解决方案可以过滤掉80%的假点,一年可以节约人工成本200多万元。如今,这套智能质检解决方案已经实现可复制化,在常熟当地的扬宣电子、生益科技等多家企业落地使用。

v2_9398068056234162931424f63db98238@39566_oswg122761oswg1080oswg720_img_000

完成“0-1”的标准化改造后,AI厂商需要快速进入到“1-10”的推广普惠阶段,积累优质的客户资源。例如在水务领域,百度智能云先是在福建的泉州自来水公司打磨出智慧水务解决方案,然后将先进的预测用水和控制水压经验复制到广州自来水公司。如今,在第一季度,标准化解决方案又复制到了远在1000公里之外的甘肃省临洮县自来水公司。丽江与百度合作的智慧城市建设经验,也可以运用在昆明市官渡区,且部署时间还缩短了50%。

“实战”的作用,用百度集团执行副总裁、百度智能云事业群总裁沈抖的话来讲,主要在两方面:一方面用AI解决关键场景中的痛点问题;另一方面,通过不断获得的反馈,持续优化技术,为客户提供高性价比的AI服务。

02

模式变革,MaaS托举第二曲线

当AIGC技术的发展引领着AI新浪潮迅速席卷全球时,不少业内人士都判断,云计算行业是最先受到影响的行业,也是红利最为长尾和稳定的行业。不仅模型服务调用的需求激增,自研模型的科技型企业也愈来愈多——这两个现象,都意味着计算需求的剧增。

而为AI这一大脑不断输送血液和能量的AI芯片和云服务,会率先吃到这一波红利。一个典型的案例是:微软2023年Q1的财报超出了市场预期,其中云服务Azure在微软财报电话会议中被提及了20次。这份云上的答卷着实答得漂亮:微软智能云收入221亿美元,同比增长了16%,其中Azure和其他云服务收入增长了27%。

百度作为国内首家提出“云算一体”概念的企业,智能云服务一直是财报中的中流砥柱。今年Q1,智能云服务稳固了在业务中的中坚地位,收入占总营收的13.5%。

但仔细观察,就能发现百度智能云业务侧重点的变化。从原来几乎单卖算力的商业模式,逐渐过渡到出售模型能力——这也侧面反映了云计算市场预期的变化:从单点服务转变为“端到端”的一站式服务。

这和AI行业高密集的算力、金钱和人力投入不无关系。以往靠出售算力和存储空间的粗粝模式商业链条短、竞争壁垒低。与此同时,客户还需在框架层从头搭建服务,对不少企业而言,躬身入局AI赛道的门槛短期内会越来越高。

MaaS,Model as a Service(模型即服务),这是百度创始人兼CEO李彦宏在“文心一言”发布会上,对大模型时代三大产业机会的其中一个判断。

这也是一种全新的云计算服务模型——相较于传统的IaaS(基础设施即服务)、SaaS(软件即服务)和PaaS(平台即服务)等云服务模式,MaaS模糊了层级之间的边界,具有更高的灵活性和适应性,能够根据企业数字化的发展目标和业务场景,提供定制化的解决方案。

今年3月27日上线的“文心千帆大模型平台”,就是百度智能云推出的MaaS层服务。除了以“文心一言”为核心提供大模型服务,帮助客户对产品和生产流程进行AI化改造外,“文心千帆”作为一个大模型生产平台,将模型开发、训练、调优、运营等复杂过程封装,帮助企业基于平台上任一开源或闭源的大模型,开发自己的专属大模型,实现大模型能力的低门槛、高效率获取。

在5月9日的“文心千帆”技术交流会上,百度智能云直观地展示了基于“文心千帆”大模型平台的MaaS能力。算法工程师仅传输了100条标注数据,就在几分钟内通过可视化工具实现了模型的微调,原来无法画出折线图的模型成功绘制出了某企业全国各省份销售额的报表。

对客户而言,MaaS模式下,软件开发的门槛比SaaS更低。即便没有强科技研发基础的小企业和个体,也有直接调用能力开发软件的入局机会。对于业务场景复杂的大中型企业而言,灵活的MaaS模式可将AI模型的掌握权从服务提供商转移到自己手中,接入后就能随调随用——相较于技术理解和使用门槛均较高的独立定制化AI服务,MaaS已经将技术快速落地的图景描绘在客户的眼前。

随即而来的,是云计算市场态度的快速转变。百度集团副总裁侯震宇举了个例子,曾经“一把手”们来聊,只是想了解一下;但今年以来,客户开始关心如何落地。

得益于通用基座文心大模型在多个垂直行业的落地经验,百度已经积累了大量的行业认知,这也让“文心一言”在推出后,能够迅速对政务、金融、智能创作、数字人直播、企业知识管理和“智能客服”六大领域的智能产品进行升级。

3月以来,已经超过300多家百度智能云生态伙伴参与“文心一言”内测,百度智能云销售线索同比增长超过400%,申请加入文心一言内测的企业数量也突破了15万。

v2_5231a7bda9e64bef88e93bd0a27bb6f4@39566_oswg121394oswg1080oswg716_img_000

只是对于客户而言,模型服务调用门槛的降低是直观的,但前期选择模型的门槛仍然较高。对于多数缺乏AI 基因的企业而言,灵活使用Prompt(测试集)对模型能力进行检测依然过于专业。

目前市面上并没有评判MaaS能力的明晰标准,这也带来云计算市场的另一个转变:未来云厂商推出的大模型服务,从第一天起就需要提高技术能力和成本的可见性,以回应市场的期待。

在侯震宇看来,模型能力判别指标很复杂,但市场期待很直观:“最终能够让大模型服务推广开的只有两个原因:第一个是模型效果,第二个是成本。”

为了让模型效果可见,5月9日百度成了国内首家现场演示微调的企业。一旦企业接入使用,还能发现不少技术迭代所带来的效果提升:自3月16日发布以来,“文心一言”已经在内测过程中完成了4次关键技术升级,包括首创支持动态插入的分布式推理引擎。数据直观地显示了技术升级的效果:单机QPS(每秒查询率)相对线上版本提升123%,模型推理效率提升10倍,推理性能提升50%,算力利用率提升1倍。

成本的优化则更为清晰可见。软件服务的成本依然讲求规模效益,比如OpenAI刚推出的第一个月,对话的成本就下降了超过90%。随着用户规模的扩大和技术的优化,“文心一言”的调用成本同样会不断降低。侯震宇透露,相较于今年3月16日“文心一言”刚发布的时候,成本降低了90%。

03

基建落成,技术投入打造第二曲线

集成多层服务模式的MaaS,并不意味着研发流程的简化。相对的,云厂商在每一层架构上需要提供更高技术含量的服务。

“分层来说,传统的IaaS,在云上提供了计算存储,但在AI大模型时代,IaaS层还是计算存储网络,但是会有更高要求——比如专门的网络、高密度计算能力,软件层面要能够支撑AI训练和推理、通信加速、算子加速;而在PaaS这层,AI需要完整的MLops工具链来支持开发、管理和运维。”百度集团副总裁谢广军举了个例子——当然,这也要求更高的算力和更高效的配套算法。

未来,哪朵云能集成更多的算力,并且通过统一布局和高效协同压低服务成本,就能在技术发展浪潮中引领更多变革的发生。

从这个层面来看,在芯片、框架、模型、应用四大层面均有布局的百度,在集成资源和端到端优化上有强劲的优势。比如通过构建智算集群、模型训推加速库,以及大模型的自动并行和容错训练等机制,百度智能云让AI开发效率提升了100%,资源利用率提升了70%,千卡加速比提升了90%。

与此同时,百度智能云还推出了全套自研的新型基础设施:百度AI大底座。作为10年AI技术积累和行业经验的集大成之作,百度AI大底座为了整合芯片层的基础架构AI IaaS层,以及整合框架层和模型层的应用平台AI PaaS层。

全套核心产品自研,能够将各层深度耦合,并将“端到端”优化的效力发挥最大。比如在生命科学领域,官方信息显示,百图生科基于与百度智能云联合构建的生物超算平台,训练出了全球首个、也是目前最大的生命科学领域的千亿大模型“xTrimo”。在地平线的智能驾驶解决方案全生命周期开发中,百度AI大底座为高性能数据存储和模型训练提供支持。

开源模型的迅猛发展,给客户提供了更多元选择的同时,也引发了云厂商们的竞争隐忧。“开源模型更快、更可定制、更私密且功能更强大。”谷歌内部近期泄露的一份内部文件直言,“……当免费、无限制的替代品在质量上有所突破,人们将不会为受限制的模型付费。我们应该思考我们真正的价值是什么。”

但开源模型提供的是技术,而非服务。对于站在智能化转型浪尖的非科技型企业而言,如何选择合适的开源模型、如何对开源模型进行微调等一系列难题变相拔高了入局的门槛。而对于科技型企业而言,调用开源模型的算力支出依然不可避免,同时还要承担因底层模型漏洞而出现Bug的风险。

“开源模型会比百度全栈优化的要便宜吗?不会。”百度集团副总裁侯震宇解释,“一方面,一般企业不见得能够用得起两三千张集群卡,另一方面是不一定能够用好,在这么大的集群量中如果出现了Bug很难调整,需要有整体的调优服务能力。大模型贵是因为量大且训练时间长,在成本这方面,最终要看是否有整体端到端的成本控制能力,这样一定会比纯粹去买成本要低。”

面对开源模型的冲击,通过“端到端”的优化,云厂商依然能够有效把控模型训练、托管全流程成本,做到算力普惠。百度智能云的“文心千帆”大模型平台在未来也将支持第三方的开源模型,为其提供训练、调优等服务。

这将是个持续投入、持续创新的过程。

入局者众多,但能在技术研发上做到数十年如一日的投入却并不容易。百度核心研发费用占核心收入的比例已经连续7个季度超过20%。即便全面进行了降本增效,今年Q1技术研发投入仍占到了核心收入的17.43%。

正如侯震宇所总结的,大模型时代下,企业的创新要脱颖而出,不但需要智能的算力、灵活的框架平台、丰富的大模型体系以及优质的应用方案,还需要这四者之间端到端的适配与优化,这是一个“既要、又要、还要”的端到端创新工程。

从微软狂飙突进的半年来看,具有ChatGPT技术、同时拥有配套云服务的微软,已经聚集了愈来愈多的客户资源。目前,已有超过15000名的客户使用了Azure云服务,同比增长超过150%。

与此同时,AI重塑的云服务赛道讲求的是先发优势和规模效应。增长的用户规模,会以数据反馈的形式,作用于AI模型的能力和服务能力。在内部信中,李彦宏就强调,一定要有足够的规模,“端到端”才是效率最高的。

随着愈来愈多云厂商布局AI+MaaS,最先用“文心一言”交出答卷的百度依然具有显著的先发优势。Q1是满踩油门起点,未来,更多变革将在云端发生。

本文由「晓曦」原创出品, 转载或内容合作请点击 转载说明 ;违规转载必究。

寻求报道 。

本文图片来自:企业授权


Recommend

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK