(一)人工智能定义
根据国家标准化管理委员会发布的《人工智能标准化白皮书(2018年)》,人工智能(Artificial Intelligence, AI)是指利用数字计算机或者由数字计算机控制的机器,模拟、延伸和扩展人类的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术和应用系统。
人工智能是计算机科学的一个分支,被定义为能够模拟与人类大脑相关联的认知智能行为的“机器”,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。1956年由约翰.麦卡锡首次提出,当时的定义为“制造智能机器的科学与工程”。人工智能目的就是让机器能够像人一样思考,让机器拥有智能。时至今日,人工智能的内涵已经大大扩展,是一门交叉学科。
人工智能的功能维度从“计算→感知→认知→创造”层层递进。
√计算智能指对数据的基础逻辑计算和统计分析;
√感知智能指基于视觉、听觉的信号,对目标进行模式识别与分类;
√认知智能指实现对信息的认知、理解、推理和决策,并实现人、物、企业等智慧实体的认知与协同;
√智能创造指利用人工智能技术进行文学、艺术等方面的创造性创作以及工业领域的智能制造。它的出现不仅改变了传统的创作方式、思维方式和工业模式,也为拓宽人类的能力边界增添了新的可能性。
(二)人工智能分类 1.按能力分类 机器学习(Machine Learning):通过大量数据的学习和训练,让计算机能够自动提取数据中的规律和特征,并据此作出判断和预测。它是人工智能的重要基础之一。 深度学习(Deep Learning):是机器学习的一种高级形式,利用多层神经网络对数据进行处理和分析,实现更加复杂的任务,如图像识别、语音识别、自然语言处理等。 自然语言处理(Natural Language Processing , NLP):让计算机能够理解和处理人类自然语言,实现语音识别、语音合成、自动翻译等任务。 机器视觉(Computer Vision , CV):让计算机能够理解和处理图像和视频,实现图像识别、目标检测、人脸识别等任务。 决策式AI:指学习数据中的条件概率分布,根据已有数据进行分析、判断、预测,主要应用模型用于推荐系统和风控系统的辅助决策、用于自动驾驶和机器人的决策智能体。 生成式AI:即Generative Artificial Intelligence AIGC,指学习数据中的联合概率分布,并非简单分析已有数据而是学习归纳已有数据后进行演技创造,基于历史进行模仿式、缝合式创作,生成了全新的内容,也能解决判别问题。简单理解,生成式AI就是利用现有文本、音频文件或图像创建新内容的技术。比如,通过文字描述生成图像。人工智能在经历前期技术积累和迭代后,逐渐突破传统分析型AI领域,生成式AI正急速发展。 狭义人工智能 (ANI):Narrow AI,现有AI技术达到的状态,也称弱人工智能,此处的弱不是指能力,而是相对于人类智能。尽管可执行任务可能由高度复杂的算法和神经网络实现,依然是ANI,因为是单一目标驱动。 典型案例:人脸识别、搜索、自动驾驶。 通用人工智能 (AGI):可成功执行人类才能完成的智力型任务。与ANI一样,AGI 可以从经验中学习,发现和预测模式,但是 AGI 的智能水平更胜一筹。AGI 从先前数据或算法未解决的各种任务中推断出这些知识。 典型案例:Summit 超级计算机,全球为数不多的可以演示 AGI 的超级计算机之一。每秒可以执行 200 千万亿次计算,而人类完成这些计算需要十亿年。 超人工智能 (ASI):ASI 拥有完全自我意识。除了简单模仿、理解人类行为,还能从根本上掌握人类行为。 ASI 不仅具备人类特质,还拥有远胜于人类的处理能力和分析能力,ASI呈现了一个反乌托邦式的科幻未来,到那时人类将被逐渐淘汰出局。 (三)人工智能特征 根据人工智能的技术逻辑,人工智能有以下特征: (1)大数据为基底,算法为核心 人工智能是建立在数据之上的技术。人工智能发展的高度取决于数据为其提供的大量知识和丰富的经验,即通过在各个领域巨大的数据库中进行采集、加工、处理、分析和挖掘;在有丰富数据的基础上,通过人工智能算法,形成有价值的信息和知识模型,以此为人类提供服务。 (2)硬件为桥梁,人机合一 人工智能是智能化机器,是智能物体与人类智慧的融合。人工智能系统能够借助传感器等硬件对外界环境进行感知。具体而言,通过人的五种基本感觉,视、听、嗅、味、触接收各方信息,并以此通过文字、语音、表情输出必要的反应。借助人工智能作为现实与虚拟的接口,可实现人类与机器、人类与人类之间的共同协作。 (3)具备学习、推理能力,实现动态迭代 人工智能具有适应特性,能够随环境、数据或任务变化自动调节参数,优化模型。充分利用机器洞察人心的能力、人类对机器的驾驭能力,深入数字化连接,实现机器的自我迭代。 (4)三要素:数据、算力、算法 数据、算力、算法是人工智能三要素。人工智能模型的应用分为训练、推理两大环节。其中,数据与算力是模型训练的基础,算法是模型实现路径,近年人工智能的快速发展得益于三大要素的共同进步。 数据:人工智能“燃料”,全球数据量指数级增长。深度学习算法是推动人工智能技术突破性发展的关键技术理论,大量训练数据的训练支撑是深度学习算法的基础。训练数据越多、越完整、质量越高,模型推断的结论越可靠。根据Dimensional Research的全球调研报告,72%的受访者认为至少使用超过10万条训练数据进行模型训练,才能保证模型的有效性和可靠性。根据中国信通院数据,到2035年,全球数据量将达2142ZB,是2020年数据量的45-46倍。数据量的指数级增长有望为人工智能产业发展提供“燃料”。 算力:人工智能“底座”,AI芯片是核心。人工智能模型的训练依赖大量算力支持,海量算力是大规模训练及生产人工智能模型的前提。数据海量增加,算法模型愈加复杂,应用场景的深入和发展,带来了对算力需求的快速提升。根据《2022-2023中国人工智能计算力发展评估报告》,2021年中国智能算力规模达155.2每秒百亿亿次浮点运算(EFLOPS),2022年智能算力规模将达到268.0EFLOPS,预计到2026年智能算力规模将进入每秒十万亿亿次浮点计算(ZFLOPS)级别,达到1,271.4EFLOPS,2021-2026年期间年复合增长率达52.3%,而同期通用算力规模年复合增长率为18.5%。AI芯片专门用于处理人工智能相关的计算任务,其架构针对人工智能算法和应用进行专门优化,具有高效处理大量结构化和非结构化数据的特征。AI芯片类型包括GPU、NPU、ASIC、FPGA等,其中GPU是主要的人工智能加速芯片,根据《2022-2023中国人工智能计算力发展评估报告》,2021年GPU占据中国AI芯片约89%的份额。 算法:人工智能“发动机”,深度学习是主流方向。2006年深度学习算法的提出使AI进入新发展阶段,其通过卷积的方式,取代了机器学习中特征提取环节。我们认为,近年AI应用的繁荣来源于AI算法持续突破创新,而且是在大数据、大算力的支持下发挥出较大的威力。深度学习典型算法包括卷积神经网络(CNN)、递归神经网络(RNN)、前馈神经网络(FNN)、生成对抗网络(GAN)等。2017年谷歌提出Transformer算法,此后Transformer广泛应于自然语言处理,并逐步在计算机视觉等领域应用,OpenAI最近发布的ChatGPT也是以此为基础构建。 1962年:Rosenblatt出版《神经动力学原理》,及其1957年设计的模拟计算器,被视作深度神经网络模型的算法原型。 1969年:Minsky与Papert出版《感知器》,指出人造神经元的运算极限严重受限于计算机的算力不足,造成神经网络领域在1970年代面临寒冬。 1985年:Hinton与Sejnowski发表基于玻尔兹曼机的“多层神经网络”。 1986年:Rumelhart和Hinton发表“BP反向传播算法”。 1989年:Mead出版“Analog VLSI and Neural Systems”,开创基于仿生芯片的神经形态工程领域。 2006年:Hinton提出受限玻尔兹曼机模型与深度信念网络成功训练多层神经网络,解决反向传播算法局部最佳解的问题,并把多层类神经网络称作“深度学习”。 2012年:Krizhevsky与Hinton的团队在ImageNet大赛中,将图像识别错误率降到18%,并在NIPS会议上发表图像识别论文“ImageNet Classification with Deep Convolutional Neural Networks”。 1993年:Yann LeCun的团队使用DSP在一台486电脑上实现深度学习算法,其作为推理芯片,已可辨识手写的数字。 1994年:Michael Gschwind等人使用FPGAs实现 神经网络的算法应用。 2009年:Rajat Raina和吴恩达发表利用GPU完成深度学习训练的论文“ Large-scale Deep Unsupervised Learning using Graphic Processors”。 2014年:陈天石博士的研究团队,从这年开始发表以DianNao为名的系列论文,开启人工智能芯片(ASIC)的研究领域。 2015年:Jason Cong在2015年的FPGA大会上,发表一篇论文“ Optimizing FPGA based Accelerator Design for Deep Convolutional Neural Networks”,使得FPGAs迅速大火。 2016年:Google发表为TensorFlow框架设计的TPU芯片。 人工智能按产业链来划分,可分为基础层、技术层和应用层三大层面。 基础层:侧重基础支撑平台的搭建,包含传感器、AI芯片、数据服务和计算平台; 技术层:侧重核心技术的研发,主要包括算法模型、基础框架、通用技术; 应用层:注重产业应用发展主要包含行业解决方案服务、硬件产品和软件产品。 基础层提供数据资源、硬件设施以及计算力平台等一系列基本支持。具体来看,基础层包括人工智能芯片、传感器、大数据及云计算等,其中大数据与智能传感器的主要任务是数据采集,AI芯片与云计算则负责数据分析与运算,技术门槛较高,生态搭建已基本成型。目前,浪潮、戴尔、HPE分列全球人工智能基础设施市场份额前三,其中浪潮以16.4%的市场占有率成为全球人工智能基础设施的龙头玩家。 通用计算芯片CPU、GPU全球市场基本被Intel、Nvidia等美国芯片厂商垄断,技术与专利壁垒较高,卡脖子现象严重。华为麒麟、巴龙、昇腾及鲲鹏四大芯片有望突破此壁垒。未来几年,全球各大芯片企业、互联网巨头、初创企业都将成为该市场的主要玩家。计算力指数国家排名中美国列国家计算力指数排名第一,坐拥全球最多超大规模数据中心,这是美国算力的基础保障。中国列第二,AI算力领跑全球。日本、德国、英国分别位列第三至第五名。计算平台方面,全球市场被亚马逊、谷歌、阿里、腾讯、华为等公司基本垄断,但小公司的计算平台凭借价格优势仍有生存空间。 技术层是AI产业发展的核心,包括通用技术、AI技术框架以及算法模型等。这一层级依托于海量数据的挖掘处理与机器学习建模,来进行各种应用技术的开发,从而解决实践中的具体类别问题。计算机视觉、自然语言处理、语音识别、机器学习、深度学习、知识图谱为这一层级的代表性技术。优势企业如谷歌、亚马逊、Facebook加快部署机器学习、深度学习底层平台,建立产业事实标准。 3.产业链下游2.按模型分类
3.按实现阶段
(四)人工智能行业发展历程
1.神经网络发展历程
2.人工智能芯片发展历程
(五)人工智能产业链分析
1.产业链上游
2.产业链中游
应用层是人工智能技术在各不同场景下的商业化应用。人工智能已在金融、教育、交通、医疗、家居、营销等多垂直领域取得较大发展;与此同时,智能终端、模型预测控制、推荐系统、定位与地图构建等服务层面及自动驾驶汽车、无人机、智能机器人、智能语音助手等人工智能产品发展迅速。受人工智能技术应用的链条长、短期获益难度大等因素影响,一些早期的技术型企业也纷纷将重心转移到等垂直领域的软硬件解决方案当中。众多人工智能各类企业“从谋求单点技术的极致,向场景化综合生态发展”,这无疑推进了AI技术与商业应用场景的落地与融合。国外应用企业以苹果、IBM等为代表,而中国企业在应用层发展最为活跃,除华为、小米、阿里巴巴等大型企业外,众多中小型企业也纷纷加入应用层的竞争行列当中。
(一)行业政策分析
近年来,中国人工智能行业受到各级政府的高度重视和国家产业政策的重点支持,国家陆续出台了多项政策,鼓励人工智能行业发展与创新,《关于支持建设新一代人工智能示范应用场景的通知》《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》《新型数据中心发展三年行动计划(2021-2023年)》等产业政策为我国人工智能产业发展提供了长期保障。
在2024两会政府工作报告中,更是首提“人工智能+”概念,报告提出,深化大数据、人工智能等研发应用,开展“人工智能+”行动,打造具有国际竞争力的数字产业集群。
截止2023年国家层面有关人工智能行业的政策重点内容见下表:
随着AI算力行业国家政策引导力度加强,北京、浙江、河南、贵州、云南、四川、广东、上海、山东、陕西等省份也纷纷发布相关政策规划,央地协同推动AI算力发展。
全球人工智能产业规模快速增长,软件占比提升。随着数据量的增长及相关复杂性不断增加,传统软件无法处理、分析及提取其中有用的信息,产生人工智能技术需求。根据沙利文的报告,2020年全球人工智能技术支出(包括硬件、软件、服务)为687亿美元,预计2025年达到2212亿美元,年复合增速达到26.3%。其中人工智能软件支出占比将提高,预计2025年全球人工智能软件市场规模将达到1218亿美元,占总支出比例达到55.1%,2020-2025年复合增速达到31.9%。
人工智能支出已经成为支持企业数字化转型支出的主力之一。根据IDC数据,全球范围内,企业在包括硬件、软件和服务在内的人工智能(AI)市场的技术投资增速,将显著高于数字化转型(DX)支出和GDP增速。
中国是全球人工智能第二大市场,预计增速有望全球第一。根据沙利文的报告,2020年中国人工智能市场规模为295亿元,预计2025年达到1671亿元,年复合增速为41.5%,其中软件市场规模占比将由2020年的9%提升至2025年的24.1%。
大模型方面,根据大模型之家、钛媒体数据,预计2023年全球大模型市场规模达到210亿美元,同比增长94.4%。预计到2028年全球大模型市场规模将达到1095亿美元,2022~2028年复合增长率约为47.12%,根据IDC预测,全球生成式AI计算市场规模将从2022年的8.2亿美元增长至2026年的109.9亿美元,CAGR约为91.34%。预计2023年中国大模型市场规模达到147亿人民币,同比增长110.0%。预计到2028年中国大模型市场规模将达到1179亿人民币,2022~2028年复合增长率约为60.11%,市场规模快速成长。
AI Agent是一种超越简单文本生成的人工智能系统。它使用大型语言模型(LLM)作为其核心计算引擎,使其能够进行对话、执行任务、推理并展现一定程度的自主性。简而言之,Agent是一个具有复杂推理能力、记忆和执行任务手段的系统。Chat强调的是“说”,Agent强调的是“做”。 基于大模型的Agent不仅可以让每个人都有增强能力的专属智能助理,还将改变人机协同的模式,带来更为广泛的人机融合。生成式AI的智能革命演化至今,从人机协同呈现了三种模式: (1)嵌入(embedding)模式。用户通过与AI进行语言交流,使用提示词来设定目标,然后AI协助用户完成这些目标,比如普通用户向生成式AI输入提示词创作小说、音乐作品、3D内容等。在这种模式下,AI的作用相当于执行命令的工具,而人类担任决策者和指挥者的角色。 (2)副驾驶(Copilot)模式。在这种模式下,人类和AI更像是合作伙伴,共同参与到工作流程中,各自发挥作用。AI介入到工作流程中,从提供建议到协助完成流程的各个阶段。例如,在软件开发中,AI可以为程序员编写代码、检测错误或优化性能提供帮助。人类和AI在这个过程中共同工作,互补彼此的能力。AI更像是一个知识丰富的合作伙伴,而非单纯的工具。 实际上,2021年微软在GitHub首次引入了Copilot(副驾驶)的概念。GitHub Copilot是一个辅助开发人员编写代码的AI服务。2023年5月,微软在大模型的加持下,Copilot迎来全面升级,推出Dynamics 365 Copilot、Microsoft 365 Copilot和Power Platform Copilot等,并提出“Copilot是一种全新的工作方式”的理念。工作如此,生活也同样需要“Copilot”,“出门问问”创始人李志飞认为大模型的最好工作,是做人类的“Copilot”。 (3)智能体(Agent)模式。人类设定目标和提供必要的资源(例如计算能力),然后AI独立地承担大部分工作,最后人类监督进程以及评估最终结果。这种模式下,AI充分体现了智能体的互动性、自主性和适应性特征,接近于独立的行动者,而人类则更多地扮演监督者和评估者的角色。 对智能体记忆、规划、行动和使用工具四个主要模块的功能分析来看,智能体模式相较于嵌入模式、副驾驶模式无疑更为高效,或将成为未来人机协同的主要模式。 基于Agent的人机协同模式,每个普通个体都有可能成为超级个体。超级个体是拥有自己的AI团队与自动化任务工作流,基于Agent与其他超级个体建立更为智能化与自动化的协作关系。现在业内不乏一人公司、超级个体的积极探索。 AI Agent范式将原本由人类主导的功能开发,逐渐迁移为以AI为主要驱动力。以大模型为技术基础设施,Agent为核心产品形态,把传统软件预定义的指令、逻辑、规则和启发式算法的任务层级演变成目标导向的智能体自主生成。这样一来,原本的架构只能解决有限范围的任务,未来的架构则可以解决无限域的任务。未来的软件生态,不仅是最上层与所有人交互的媒介是Agent,整个产业的发展,无论是底层技术,商业模式,中间组件,甚至是人们的生活习惯和行为都会围绕Agent来改变,这就是Agent-Centric时代的开启。 AI Agent是人工智能成为基础设施的重要推动力。几乎所有的人都认同,人工智能会成为未来社会的基础设施。而智能体正在促使人工智能基础设施化。这不仅得益于低成本的Agent软件生产优势,而且因为Agent能够适应不同的任务和环境,并能够学习和优化其性能,使得它可以被应用于广泛的领域,进而成为各个行业和社会活动的基础支撑。 多模态模型是指将不同类型的数据(例如图像、文字、视频、语音等)结合起来进行分析处理的模型。其通过不同数据类型的相互关联和结合,可以大幅提高模型的准确性和鲁棒性,应用场景进一步拓展。其次,多模态更接近人类学习的模式,在物理世界中,人类认知一个事物并不是通过单一模态,例如认知一只宠物,可以从视觉(宠物形貌)、听觉(宠物叫声)、嗅觉(宠物体味)、触觉(宠物毛发、宠物体温等)等多模态全面立体认知,是未来人工智能的发展方向。 多模态向通用人工智能(AGI)迈前一步。多模态大模型同时处理文本、图片、音频以及视频等多类信息,与现实世界融合度高,有望成为人类智能助手,推动AI迈向AGI:多模态更符合人类接收、处理和表达信息的方式。从整体技术趋势来看,AI模型必将从单模态走向多模态,实现复杂场景下的智能决策。 目前,多模态大模型已成为大模型发展前沿方向。2022年及之前,大模型处于单模态预训练大模型阶段,主要探索文本模式的输入输出。2017年,Transformer模型提出,奠定了当前大模型的主流算法结构;2018年,基于Transformer架构训练的BERT模型问世,参数规模首次突破3亿;随后GPT系列模型推出,2022年底至今ChatGPT引爆全球大模型创新热潮。步入2023年,大模型发展从文本、图像等单模态任务逐渐发展为支持多模态的多任务,更为符合人类感知世界的方式。大模型公司的比拼重点转移为多模态信息整合和数据挖掘,精细化捕捉不同模态信息的关联。 2023年9月,OpenAI推出最新多模态大模型GPT-4V,增强了视觉提示功能,在处理任意交错的多模态方面表现突出。 2024年2月16日,OpenAI发布Sora模型,将视觉数据转化为patch。过去的视频模型(循环网络、生成对抗网络、自回归Transformer和扩散模型等):只关注特定类型的视觉数据、较短或者固定尺寸的视频;Sora:通用的视觉数据模型,能生成各种持续时间(甚至长达1分钟)、宽高比和分辨率的视频和图片,借鉴了LLM的思想。 把AI由云端延伸至边缘侧正在成为一个大趋势。为它可以有效改善或者解决AI发展中面临的个性化定制、安全和隐私风险、算力成本高昂、性能表现不及预期、交互能力弱等阻碍。端侧AI芯片性能提升,存储、模组等升级打通了终端硬件运行AI算法的道路。在将来,人们除了在云端之外,也会把探索云和端的组合(混合AI)当成一项重要的工作去做。 端侧AI核心在于手机和PC,AI Phone和AI PC将开启新时代。AI PC核心升级在于芯片。AI PC不同于传统PC的主要之处在于其SoC芯片中要有AI模块,通过AI芯片中的NPU等模块为硬件终端提供算力支撑,从而运行端侧AI大模型。过去PC芯片主要是以Intel为代表的x86架构芯片,AI PC的提出要求了SoC芯片有AI算力,在端侧AI推理能力方面,过去手机上就搭载了NPU,高通经验积累深厚,Intel的笔记本芯片则是CPU+GPU。生态上,Windows也开始全力支持Arm体系,自去年开始了多轮支持Arm架构芯片的操作系统更新,高通大概率会在PC市场上拿到部分份额。除芯片外,DRAM、计算模组等有望迎来新的升级与市场机遇。 其次,大模型轻量化带动端侧AI发展。越来越多的终端设备企业,包括华为、小米、OPPO、vivo、联想,以及高通、联发科等芯片企业开始探索在终端设备中部署轻量化模型。近期,清华大学和哈尔滨工业大学联合发布了一篇论文:把大模型压缩到1.0073个比特时,仍然能使其保持约83%的性能。 通用人工智能 (AGI) 是一种智能体能够理解或学习人类或其他动物可以完成的任何智力任务的能力。 谷歌DeepMind在论文(Levels of AGI)里对AGI做出了详细划分。根据AGI 的现有定义,提炼出六个原则:关注模型能力,而不是过程;关注通用性和性能;关注认知和元认知任务;关注潜能,而不是部署;关注生态的有效性;关注AGI 发展道路,而不是只关心终点。 在这些原则上,DeepMind 从性能和通用性两个维度提出了「AGI 等级(Levels of AGI)」。 Level 0:无 AI(No AI),如 Amazon Mechanical Turk; Level 1:涌现(Emerging),与不熟练的人类相当或比之更好,如ChatGPT、Bard、Llama 2 ; Level 2:有能力(Competent),达到50%的人类水平,广泛任务上还没实现; Level 3:专家(Expert),到达90%的人类水平,广泛任务上还没实现, Imagen、Dall-E 2 在特定任务上已经实现; Level 4:大师(Virtuoso),达到99%的人类水平,在广泛任务上还没实现,Deep Blue 、AlphaGo 在特定任务上已经实现; Level 5:超人类(Superhuman),胜过100%人类,广泛任务上还没实现,在一些任务范围内,AlphaFold 、AlphaZero 、 StockFish 已经实现。 OpenAI CEO Sam Altman坚定地认为,AGI将在5年内实现。英伟达CEO黄仁勋的观点与Altman不谋而合:如果我们对「像人类一样思考的计算机」的定义是通过人体测试能力,那么AGI在五年内就会到来。 自2015年以来,人工智能被先后写进“十三五”、“十四五”国家发展规划纲要。此后,中央部委出台了诸多人工智能工作计划、实施意见。在国家持续推动下,各地也紧跟大潮,充分结合自身优势和产业基础,积极布局人工智能发展规划。 通用大模型的发展正在赋能各行各业,行业专属大模型也在不断涌现。金融、教育、医疗、法律、自动驾驶、智能物流、安防等多个领域的行业公司都已相继加入行业大模型的研发中。 顺应大模型趋势,算力需求急剧攀升,算力正在成为影响国家综合实力和经济发展的关键性要素。若网络带宽不够大、时延不够低,不仅会让算力边际递减,还会进一步增加大模型训练的时间成本。未来,数据中心需夯实优化算力基础设施建设,积极提升网络带宽、能源散热等方向以应对大模型带来的高运行要求。此外,实现AI芯片的自主性供给,是中国中长期发展算力产业的重中之重。为了适配大模型的训练及推理,AI芯片对其内存、软硬架构协同、片间及片内互联能力等提出更高要求,给国内厂商带来挑战与机遇。 在人工智能的快速发展中,加强AI监管与推动AI技术的进步同等重要。AI能力带来应用的便利性,同时也可能引发数据隐私、算法偏见AI伦理等一系列问题。 从技术角度来看。可以通过可解释AI等技术手段增强AI的可信度。从规范角度来看,各国政府也都已经开始采取行动,制定和执行各种AI政策和法规。4月份,我国网信办出台《生成式人工智能服务管理办法(征求意见稿)》,明确了生成式人工智能的定义,从明确条件要求、划定责任主体、形成问题处理机制、明晰法律责任几个方面为行业划定底线。(三)行业技术发展分析
1.AI Agent (LLM Agent)
2.多模态
3.大模型轻量化带动端侧AI发展
4.AGI (Artificial General Intelligence 通用人工智能)
(四)行业发展趋势
1.人工智能政策红利日益凸显
2.AI与多领域结合,助力产业升级
3.大模型为算力设施带来更高要求与发展机遇
4.AI可解释性亟待增强,监管紧迫性日益凸显
(一)AI芯片的定义及分类
AI芯片的定义:目前市场上的对于AI芯片并无明确统一的定义,广义上所有面向人工智能(Artificial Intelligence,AI)应用的芯片都可以被称为AI芯片。
从实现方式来看,AI芯片主要分为图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、中央处理器(CPU)四大类。
根据机器学习算法步骤,AI芯片分为“训练(Training)”芯片和“推理(Inference)”芯片。
根据部署场景,AI芯片可用于端、边、云三种场景,具体而言:
1)终端AI芯片追求以低功耗完成推理任务,以实际落地场景需求为导向,在能耗/算力/时延/成本等方面存在差异;
2)边缘AI芯片介于终端与云端之间,承接低时延/高隐私要求/高网络带宽占用的推理或训练任务;
3)云端AI芯片以高算力/完成训练任务为目标,包括CPU/GPU/FPGA/ASIC 等多种类型。
(二)行业发展概况 当前AI运算指以“深度学习”为代表的神经网络算法,需要系统能够高效处理大量非结构化数据(文本、视频、图像、语音等)。这需要硬件具有高效的线性代数运算能力,计算任务具有:单位计算任务简单,逻辑控制难度要求低,但并行运算量大、参数多的特点。对于芯片的多核并行运算、片上存储、带宽、低延时的访存等提出了较高的需求。 针对不同应用场景,AI芯片还应满足:对主流AI算法框架兼容、可编程、可拓展、低功耗、体积及造价等需求。 早在上世纪80年代,学术界已经提出了相当完善的人工智能算法模型,但直到近些年,模型的内在价值也没有被真正的实现过。这主要是受限于硬件技术发展水平,难以提供可以支撑深度神经网络训练/推断过程所需要的算力。直到近年来GPUFPGAASIC等异构计算芯片被投入应用到AI应用相关领域,解决了算力不足的问题。 人工智能芯片作为人工智能产业底层算力基础,在整个产业链中发挥着至关重要的作用。整体产业链可分为上中下游三部分,上游以AI芯片的研发设计企业为主,中游以AI芯片的生产制造和封装测试环节为主,下游为芯片具体应用场景,包括云端和边缘端,按照应用领域不同而分类。 上游研发设计:目前在芯片的研发设计环节,虽然国际上涌现出了英伟达、博通、英特尔、东芝、三星、苹果等巨头企业,但近几年尤其是2020年芯片危机出现以来,我国政策的不断加持与鼓励,使得芯片设计行业日益受到重视,目前已经成为社会公认的芯片产业链环节上最具潜力的环节之一,诞生了众多优秀企业,如华为海思、大唐电信、北京君正、汇顶科技等,国产设计能力不断提升、创新和突破,目前我国在芯片设计能力与国外差距不断减小,甚至某些领域呈超越态势。 中游生产制造:在生产制造环节,由于基础理论、关键设备等仍落后于国际一流水平,因此芯片制造环节与国外仍有较大差距,并且短期内难以追赶和超越。 下游具体应用:数字化转型升级趋势直接加速了AI芯片在各行各业的应用,并且随着我国大型算力中心的不断增多,间接拉动了AI芯片在云端服务器上的应用。目前AI芯片比较常用的领域除了云端,还有边缘端的智能驾驶、智能安防、智能医疗、智能制造、智能教育、智能金融、智能家居等领域,整体市场容量仍在不断增大。 从国内人工智能芯片发展来看,虽然与国际芯片技术水平相仍存在较大差距,但随着AI应用的快速落地,未来我国AI芯片需求增长可能更为迅速。据了解,当前我国人工智能芯片行业的下游应用场景主要聚集在云端、自动驾驶、智能手机、无人机、智能、安防等领域,但随着元宇宙、量子计算等技术的突破,未来芯片应用场景将扩展到社会各行各业,前景十分可观。 据艾瑞咨询数据,2022年中国AI芯片市场规模约为385亿元。我国AI芯片市场处在起步阶段,市场对国产替代、高性价比产品需求日益扩大,国产市场潜力巨大,未来我国AI芯片市场规模仍将保持高速增长态势,预计到2027年将达2,164亿元。 中国作为全球最大的半导体消费市场,芯片自给率不足,严重依赖进口。数据显示,2022年国内AI芯片国产自给率不足10%。为发展国产芯片,实现进口替代,近年来政府出台了一系列政策支持国产芯片行业发展。2020年8月,国务院发布的《新时期促进集成电路产业和软件产业高质量发展的若干政策》提出将从财税、投融资、研究开发、进出口、人才、知识产权、市场应用、国际合作等8个方面对集成电路和软件产业进行扶持,以加快集成电路和软件产业发展。 AI已经进入“大模型”时代。自2018年GPT-1.0模型首次发布以来,OpenAI不断迭代模型,最近发布了GPT-4.0模型,它拥有更大的参数量、更长的迭代时间和更高的准确性。随着人工智能的快速发展,算力的提升也被加速推动。人工智能非常依赖于相关基础设施,包括计算、储存和网络等。随着数据不断增长和算法复杂度提高,人工智能对计算力提出了更高的要求。全球人工智能算力基础设施产业正在加速发展,为人工智能技术在更广泛场景中落地创造可能。 后摩尔时代,芯片制程已接近物理极限,通过大力发展Chiplet等先进封装工艺,将多个芯片高速互联,是实现算力的提升方式之一。据Gartner,受益于AI产业需求激增,2024年全球Chiplet芯片产值有望达505亿美元,2020-24年CAGR接近100%——按Chiplet封装+测试占芯片产值20%计算,2024年全球Chiplet封测市场空间有望达100亿美元。 国产Chiplet有望实现较全球平均水平更快成长。中国大陆封测产业居全球领先,具备良好的产业基础承接来自全球的Chiplet封测需求。 随着摩尔定律逼近极限,存储带宽已经在制约计算系统的有效带宽,系统算力增长步履维艰。也就是在这一背景下,存算一体成为探寻极致计算效率道路上一个新方向,业界甚至称它为“AI算力的下一极”,继CPU、GPU之后的算力架构“第三极”。 存算一体的特点,就是在存储单位内部完成部分或全部的计算。从架构层面,它可以实现两个天然优势:由于计算和存储两个部分更近,减少了不必要的数据搬移,因此延时低、效率高。 存算一体正面向大算力、通用性、高计算精度等方面持续演进。面向智能驾驶、数据中心等大算力应用场景,它们在可靠性、算力方面有较高要求,业界认为,存算一体芯片有望另辟蹊径抢占云计算市场。 到2030年,基于存算一体技术的中小算力芯片市场规模约为1069亿人民币,基于存算一体技术的大算力芯片市场规模约为67亿人民币,总市场规模约为1136亿人民币。 我国人工智能芯片行业属于信息产业,技术水平较高,替代品威胁较小;现有竞争者数量不多,但市场集中度较高;上游供应商一般为半导体材料、半导体设备,由于光刻机的技术壁垒较高,行业亟需突破技术瓶颈,议价能力较高,而下游消费市场主要是云计算、消费电子、无人驾驶,议价能力适中;同时,因行业资金、技术门槛较高,潜在进入者威胁较小。 国内人工智能芯片行业依据企业的注册资本划分,可分为3个竞争梯队。其中,注册资本大于10亿元的企业有华为、地平线;注册资本在1-10亿元之间的企业有:寒武纪、思必驰、天数智芯;其余企业的注册资本在1亿元以下。 以下对比了AI芯片头部企业的自研芯片情况: 目前大模型的应用已经不局限于NLP领域,包括图片、语音、视频、代码等多种模态的应用开始涌现,而大模型、生成算法与多模态等底层技术的突破成为了AIGC的质变的关键。一方面,目前大模型可以广泛适用于各类下游任务,当前已经成为了AIGC的底层框架。许多跨领域的 Al应用均是构建于大模型之上,能够解决多任务、多场景、多功能需求,支撑各种模态的生成:另一方面,包括生成对抗网络(GAN)、变分自编码器(VAE)、扩散模型(Diffusion Model)、神经辐射场(Nerf)等快速涌现的生成算法,以大模型为基础,能够创造出文字、图片、语音视频、代码等各种模态的内容,而基于此之上的多模态应用开始涌现。 1) 文本生成: 目前技术最成熟的领域,随着新一代大模型的发布,未来将看到更高质量的输出、更长形式的内容和更好的垂直特性; 2) 图像生成: 过去一年技术进化速度最快的领域,2014年出现生成对抗网络 GAN是图片生成的主流算法,但一直存在对输出结果控制力弱,难以生成新图像等缺点。随后扩散模型、CLIP 模型等技术的成熟,文生图的能力大幅增强,包括 DALL-E2、Stable Diffusion 等主流文生图应用均是基于扩散模型所构建; 3) 视频生成: 目前尚未有非常成熟的视频生成算法,许多应用还是依赖于图像生成的算法; 4) 3D 模型生成: 3D模型生成还处于早期,其中这一领域关键算法神经辐射场(NeRF)于 2020 年于 ECCV 会议上提出,目前已经成为3D模型构建的主流算法,并广泛应用于游戏。数字人、虚拟现实、增强现实、电子商务等领域,未来具备广阔的应用空间; 5) 代码生成: GPT-4等大模型具备很强的代码能力,未来将会对软件开发人员生产力产生重大影响,同时能够使非专业开发人员更容易生成代码; 6) 音频生成: 音频合成在技术和商业化上已经非常成熟,近年来大模型和优化算法的成熟能够基于大量音乐数据集训练和优化算法来创建 A1 虚拟歌手,更加趋近于真人发声效果; 7) 其他: 从生物蛋白质分子模型到其他垂直领域,许多行业都在进行垂类模型的研发。 随着GPT以及扩散模型等底层模型和算力能力的突破,生成式AI应用在近3年来取得了跨越式的发展。当前时点,B端应用场景逐渐成熟,AI应用即将进入全面商业化阶段。 2021年: GPT-3催生出第一批生成式AI应用。2021年第一批生成式AI应用诞生得益于2020年5月GPT-3的发布,相较于GPT-2及其他语言模型,GPT-3在机器翻译、聊天间答和文本填空上等语言任务上有着非常出色表现,并且开始能够完成一些比较困难的NLP 任务,比如生成新闻报道和撰写文章。因此从2021年开始,包括JasperAI 在内第一批基于大模型生成式人工智能应用诞生,大多是基于GPT-3的能力,并以类SaaS服务的形式进行收费。 2022年: AI作画的爆发与ChatGPT的发布,2022年是生成式人工智能的元年。随着扩散模型等生成算法的突破,一系列AI作画应用相继诞生,其中包括了MidJourney、Dal-E2lmagen 等在线文生图应用,以及StabilityAl的开源模型 Stable Diffusion,AI 图像生成的效率与精度提升到了前所未有的量级。22年底,生成式AI的“杀手级应用”ChatGPT正式发布,基于对超大规模数据的深度学习,ChatGPT 在文本生成领域的能力得到了空前提高。除此之外各种视频生成(Make-a-Video、ImagenVideo),以及 3D模型生成(DreamFusion、Magic3D和 Get3D),包括代码生成工具 GitHub Copilot 开始受到广泛关注。 2023年: C端应用面临洗牌,B端应用即将进入全面商业化。2023年生成式AI在基础模型实现了持续的突破,GPT-4发布的大语言模型在多项任务上进一步提升,而开源型Llama为初创企业和其他企业提供了一个强大的免费选择,和OpenAI 的闭源模型阵营形成竞争。在模型能力快速进化的同时,一方面是各类生成式AI的项目数量开始激增,另一方面,B端应用在处在商业化的前夜,自3月微软发布了基于GPT-4的AI办公助手 Office Copilot,此后包括企业服务、营销、低代码、安全、教育、医疗、金融等领域的AI 应用开始陆续发布。7月份,Microsoft365 Copilot 公布定价,为每个用户30美元/月,同时全球CRM龙头Salesforce 宣布正式向所有用户开放AI产品,并给出了单个产品每用户每月50美元的定价。随着两大软件巨头AI功能定价发布,Al应用将正式进入商业化落地阶段。 生成式 AI 应用按应用领域可以分为:工具软件,通用软件、行业软件、智能硬件四大类。 1) 工具型应用:包括聊天机器人、搜索引擎、文本工具、AI 作画以及代码工具等,应用领域主要集中在C端,产品的同质化程度较高,对底层模型的能力存在高度依赖,目前C端应用正进入第一轮洗牌阶段; 2) 通用软件:主要包括办公软件、企业服务、IT运维、软件开发、网络安全、数据智能等领域,各个赛道上均已出现标杆产品,大多数是智能助理(Coplilot)的形态,预计将在四季度进入商业化落地的关键阶段; 3) 行业软件:涉及金融、医疗、教育、工业、游戏、法律等多个行业,行业间差异化程度较大,2B 场景下产品目前成熟度仍低于通用软件,金融、医疗等头部厂商开始打造垂类大模型,未来对行业数据价值的充分挖掘是竞争的关键; 4) 智能硬件:汽车、机器人、智能终端等,无论智能驾驶还是机器人均具备巨大的市场空间,当前的瓶颈在于感知层与决策层,需要计算机视觉等底层技术的进一步突破。 ●微软 投资OpenAI,并将AI融入旗下应用 ●谷歌 大模型基础Transformer的研发者 ●Meta 大模型有望助力公司元宇宙发展 ●百度 文心大模型 ●腾讯 混元大模型 ●阿里 通义大模型 ●华为 盘古大模型 ●昆仑万维 致力研究国产开源大模型,Opera接入ChatGPT,StarMaker探索AI作曲。(三)产业链构成
(四)市场规模
(五)行业发展趋势
1.AI芯片发展受益政策支持及国产化进进程
2.AI大模型推动算力需求爆发
3.封测端:Chiplet是AI芯片大势所趋
4.存算一体走向商用
(六)行业竞争格局
1.市场集中度
2.竞争梯队
3.竞争对手比较
(一)应用发展历程
(二)应用领域
(三)AI大模型应用情况
1.海外大模型
2.国内大模型