2022年中国AI市场规模将达130亿美元 大模型已具备“通用智能”雏形
近日,IDC与浪潮信息联合发布了《2022-2023中国人工智能计算力发展评估报告》(以下简称“报告”)。报告预测,2022年中国人工智能市场相关支出将达到130.3亿美元,并有望在2026年达到266.9亿美元,2022至2026年年复合增长率达19.6%。
其中,人工智能服务器仍是人工智能市场增长的主力军。IDC数据显示,2021年全球人工智能服务器市场的同比增速为39.1%,超过全球整体人工智能市场增速(20.9%),是整体人工智能市场增长的推动力。
在中国,人工智能应用的加速落地很大程度推动了中国人工智能服务器市场的高速增长。2021年人工智能服务器市场规模59.2亿美元,与2020年相比增长68.2%,预计到2026年,中国人工智能服务器市场将达到123.4亿美元。
与此同时,中国的算力规模,尤其是智能算力规模,也正在高速增长。报告称,2021年中国通用算力规模达47.7EFLOPS(每秒百亿亿次浮点运算),预计到2026年通用算力规模将达到111.3EFLOPS。
而中国智能算力规模在2021年达到155.2EFLOPS,2022年将达到268EFLOPS,预计到2026年可进入每秒十万亿亿次浮点计算(ZFLOPS)级别,达到1271.4EFLOPS。
这也意味着,2021-2026年期间,中国智能算力规模年复合增长率可达52.3%,同期通用算力规模的年复合增长率为18.5%。
近几年业内比较流行的大模型就是在智能算力驱动下最为典型的重大创新。报告称,得益于模型泛化能力强、长尾数据的低依赖性以及下游模型使用效率的提升,大模型被认为具备了“通用智能”的雏形,并成为业内探索实现普惠人工智能的重要途径之一。
大模型的技术基础是transformer架构、迁移学习和自监督学习,transformer架构应用于NLP领域并取得了突破性进展,其在视觉任务上也同样证明了有效性。从算力的视角看,语言类、视觉类模型容量和相应的算力需求都在快速扩大,大模型发展的背后是庞大的算力支撑。
如果用“算力当量”(PetaFlops/s-day,PD),即每秒千万亿次的计算机完整运行一天消耗的算力总量,来对人工智能任务所需算力总量进行度量,AI+Science领域的AlphaFold2、自动驾驶系统、GPT-3等模型训练需要几百甚至几千PD的算力支持,如GPT-3训练需要3640PD的算力。
在大模型的能力加持下,包括以文生图以及虚拟数字人等AIGC类应用快速进入到商业化阶段,并为元宇宙内容生产带来巨大的变革。报告认为,大模型正在让人工智能技术从五年前的“能听会看”,走到今天的“能思考、会创作”,未来有望实现“会推理、能决策”的重大进步。
不过,大模型的发展同样给算力带来巨大的挑战。报告称,大模型训练的计算和存储资源开销之大,对加速计算系统和人工智能软件栈都有很高的要求,训练千亿、万亿模型动辄需要上千块加速卡,对大模型的推广和普惠带来了很大的挑战。
同时,受限于边际递减效应,模型复杂度与精度的进一步提升将会需要更大比例的计算资源开销,对计算效率问题的顾虑会限制大模型参数规模的持续扩张。
正因如此,尽管目前的大模型参数数量还没有达到人脑神经系统的突触规模,但市场对于大模型的认知趋于理性。业内逐渐认识到,大模型的发展更要注重绿色低碳、服务能力下沉以及商业模式的实践,这将为大模型在各行各业的规模落地铺平道路。
报告指出,总体来看,人工智能在各个行业的应用程度都呈现不断加深的趋势,应用场景也越来越广泛,人工智能已经成为企业寻求新的业务增长点、提升用户体验、保持核心竞争力的重要能力。
同时,在2022年中国人工智能城市排行榜中,北京、杭州、深圳继续保持前三名,上海和广州分列第四、五名,天津进入前十名。除了 TOP10 城市之外,诸如合肥、武汉、长沙等多个城市在自身产业优势及各种因素推动下,人工智能应用取得了较大进展。