在预训练大模型时代,我们可以从应用落地过程里提炼出标准化的工作流,AI Infra的投资机会得以演绎。传统ML时代AI模型通用性较低,项目落地停留在“手工作坊”阶段,流程难以统一规范。而大规模预训练模型统一了“从0到1”的技术路径,具备解决问题的泛化能力,能够赋能“从1到100”的各类应用,并存在相对标准化的工作流,由此衍生出AI Infra投资机会。GPT 4的开发经验也体现专业分工的必要性:根据OpenAI的披露,在GPT 4的开发过程中,其对249人研发团队进行了明确分工,并使用了数据标注、分布式计算框架、实验管理等点工具。我们认为这也说明了在大模型时代应用基础软件的必要性。目前,AI Infra产业处于高速增长的发展早期,我们预计未来3-5年内各细分赛道空间或保持30%+的高速增长,且各方向均有变现实践与养成独角兽企业的潜力。
“AI = Data + Code”,组织AI所需的养料即数据,管理AI模型的训练部署过程,以及支持从模型到应用的整合是AI Infra工具的关键能力。1)数据准备:无论是支持经典的机器学习模型还是大规模预训练模型,数据准备都是耗时较久、较为关键的一环。我们认为,LLM浪潮下高质量的标注数据和特征库需求将持续增长,未来海量训练数据的需求或由合成数据满足。此外,我们强调Data+AI平台厂商的关键卡位。2)模型训练:预训练模型的获取使得模型库更加流行,LLM大规模训练需求也驱动底层分布式计算引擎和训练框架的迭代。此外,我们认为实验管理工具重要性较高。3)模型部署:LLM模型端的突破释放出大规模应用落地的潜能,更多模型从实验走向生产环境,我们认为有望整体提振模型部署和监控的需求。4)应用整合:LLM赋能应用催生对向量数据库和应用编排工具等的新需求。我们观察到经典的机器学习时代与大模型时代工具栈需求侧重点有所不同,同时,部分点工具正在拓宽产品功能边界,LLMOps平台型产品的可及市场空间天花板或更高。