人工智能

金融机构如何破解大模型存力之困?《金融领域先进AI存力报告》正式发布|爱分析报告

金融行业走在大模型落地前列,AI先进存力面临突出挑战。

2023年12月01日
  • 人工智能
  • 金融

 

引言:先进存力是金融行业大模型落地的必答题

2023年,是大模型商业化落地元年。根据《2023爱分析·中国大模型市场商业化进展研究报告》,2023年中国大模型市场规模约为50亿元,预计2024年将达到120亿元。
大模型表现出的强大的理解、生成和推理能力,让各行各业的企业用户普遍预期大模型将带来巨大甚至变革性的价值,纷纷探索大模型的落地应用。可以预见的是,大模型将引发新一轮AI应用建设浪潮。同时,为了支撑大模型时代的AI应用,企业IT基础设施也将被重塑。

01 大模型时代算力“木桶效应”下,存力重要性凸显

1.1 大模型将带来算力需求指数级增长
在大模型落地过程中,算力、数据和算法是三大支撑要素,而其中算力需求最先迎来爆发。在当前探索可研和试点应用阶段,企业一般从大模型训练和微调入手,而基于大数据量、大规模参数进行的大模型训练,需要消耗大量算力资源。例如,根据OpenAI公开信息,13亿参数规模的GPT-3 XL模型,训练一次需要的算力约为27.5 PFlop/s-day(每秒千万亿次运算一天)。
大模型时代,算力日益成为数字经济的新型生产力。随着未来大模型技术向多模态等方向演进,参数量将持续膨胀,算力需求还将呈指数级增长。同时,传统自建集群、云服务租用等算力供给方式,将在性能和成本上面临挑战,算力基础设施需要向以智算中心为代表的先进算力进行升级。
1.2 先进算力存在“木桶效应”,存力是容易被忽视的短板
在此背景下,国家政策层面也高度重视算力发展。2023年10月,工业和信息化部等6部门联合印发了《算力基础设施高质量发展行动计划》(以下简称《行动计划》)。《行动计划》指出,算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力,强调计算、网络、存储和应用需要协同创新、共同发展。
图1:算力是集信息计算力、网络运载力、数据存储力于一体的新型生产力
值得注意的是,本次《行动计划》高度重视先进存力的建设。主要目标方面,明确提出到2025年存储总量超过 1800EB 、先进存储容量占比达30% 以上的目标;同时,将“强化存力高效灵活保障”列入重点任务之一,提出了加速存力技术研发应用、持续提升存储产业能力 、推动存算网协同发展等具体任务和相应措施。其中,先进存储是指应用全闪存阵列、SSD 等先进存储部件,采用存算分离、高密等先进技术,单位容量数据操作能力达到万 IOPS(每秒读写次数)以上的存储模块。
在大模型算力建设方面,企业普遍将注意力投向价格高昂、技术供给上有卡脖子风险的GPU。相比以GPU为代表的计算力,存力的重要性往往被忽视。但事实上,大模型对算力的要求如此之高,必须依托由高性能计算芯片、存储和网络共同构成的大规模算力集群。而算力集群存在“木桶效应”,如果存储和网络性能无法支撑大规模数据存储、读写和传输,高性能计算芯片也用武之地,价值将大打折扣,最终影响大模型训练效率。
因此,作为AI算力基础设施的关键组成部分之一,先进存力同样是大模型落地的前提条件。大模型训练等场景对于存力提出了一系列新挑战,而存力也往往容易成为“木桶效应”中的短板,制约计算力的效能发挥,成为大模型落地过程中潜藏的风险。