7

百度文心大模型4.0最快下周见 万卡训练史上最大参数模型

 11 months ago
source link: http://tech.caijing.com.cn/20231009/4963556.shtml
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

百度文心大模型4.0最快下周见 万卡训练史上最大参数模型

近日,有媒体报道称,百度正加紧训练文心大模型4.0,已经接近可发布状态,该版本将是文心大模型3.5版本之后的又一个重磅版本。如果文心大模型4.0能够如期发布,也意味着百度5个月实现了文心大模型从3.5到4.0的升级,进展比预期快很多。

消息称,此次4.0版本将是基础模型的大升级,在理解、生成、逻辑、记忆核心能力都将提升,特别是在逻辑推理、代码和数学等方面提升最明显。

随着版本的迭代,文心大模型4.0的参数规模也要大于之前所有公开发布参数的LLM,也是国内首次使用万卡集群训练的大模型,这意味着文心大模型4.0的参数规模预计突破万亿级别。根据国盛证券报告《ChatGPT 需要多少算力》估算,大模型的前期训练成本很高,一次训练的成本超过百万美元。这个费用不仅涵盖了模型的架构、算法和训练数据的选择,还包括了模型训练所需要的大量计算资源和时间成本。而且随着大模型版本的升级,其训练成本也呈几何式增长。

万卡集群训练的大模型通常用于大规模语言模型(LLM)的训练。使用万卡集群进行大模型的训练可以大大提高模型的训练效率和效果,因为这种方式可以充分利用计算资源和并行计算的优势。万卡集群训练大模型也需要解决大规模系统的算力性能和稳定性问题,以及容错和故障恢复问题等。资料显示,百度智能云自研了集群组网故障管理机制,使模型有效训练时间达到95%以上。同时,百度智能云还基于分布式并行训练策略,使千帆平台在万卡规模集群中的加速比可以达到95%,充分释放集群的整体算力。

大模型训练成本的提升也引发了行业关于其商业模式的思考,国外的OpenAI的ChatGPT和谷歌的LaMDA均已提出各自的收费模式。OpenAI合作推出的ChatGPT,提供API供开发者使用。目前有两种定价方式,一种是按请求量计费,每千个请求收费0.002美元,即每100个请求收费0.02美元;另一种是按使用时间计费,每分钟收费0.01美元。普通用户想要使用最先进的GPT-4模型,也需要付费订阅Plus版本。谷歌推出的LaMDA模型,提供API供开发者使用。目前仅提供按使用时间计费的方式,每分钟收费0.06美元。此外,亚马逊推出的Alexa,提供API供开发者使用。它按请求量计费,每千个请求收费0.01美元。

有行业分析人士认为,国内toC大模型要实现商业化闭环,或将采取付费模式,逐渐培养用户付费习惯,由此产生促进行业良性发展的动力。当然想要用户掏出真金白银为大模型买单,就需要大模型能够为用户提供有价值的服务。需要建立起消费者对品牌的认知,并不断优化和迭代模型,提高模型的准确性和效率,结合用户需求和反馈,不断改进和优化模型,提高用户体验。

此外,随着AI技术的快速发展和应用,合规和风险管理变得越来越重要。需要加强对数据安全和隐私保护的管理和保障,避免潜在的风险和法律问题。同时,也需要对AI技术的伦理问题进行思考和探讨,确保AI技术的应用符合社会道德和伦理规范。由此可见,可持续发展的商业化闭环是大模型发展的必由之路,同时也需要平台企业为用户提供真正有价值的服务,并处理好相关风险。

编辑:靖程

About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK