人工智能AI行业深度研究报告:大模型驱动AI全面提速

2022-7-6 22:48| 发布者: uhu9y9em99dymz| 查看: 1720| 评论: 6

这里是默认签名
(报告出品方:中信证券)
报告缘起

人工智能(AI)指利用技术学习人、模拟人,乃至超越人类智能的综合学科,过去十 年来,伴随技术理论、算力、应用场景等核心要素的不断进步&完善,持续成为科技产业 的创新焦点,以及资本市场的投资热点。2016 年以来,大量 AI 相关的学术论文转化为实 际落地的专利,技术上的创新快速推动了人工智能的商业化,并成为了资本市场追逐的热 点。在人工智能的相关专利方面,2021 年提交的专利数量是 2015 年的 30 倍以上,复合 年增⻓率为 76.9%。中国的专利申请数已经占了世界⼀半,并获得约 6%的授权。
人工智能产业发展史:“三起两落”,从运算智能,逐步走向感知智能、认知智能。人 工智能技术可以显著提升人类效率,在图像识别、语音识别等领域快速完成识别和复杂运 算。此外,面对开放性问题,人工智能技术亦可通过穷举计算,找到人类预料之外的规律 和关联。自 1956 年“人工智能”概念&理论首次被提出,AI 产业&技术发展主要经历如下发 展阶段:
1)20 世纪 50 年代~20 世纪 70 年代:受制于算力性能、数据量等,更多停留在理论 层面。1956 年达特茅斯会议推动了全球第一次人工智能浪潮的出现,当时乐观的气氛弥 漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形, 增强学习就是谷歌 AlphaGo 算法核心思想内容。而 70 年代初,AI 遭遇了瓶颈:人们发现 逻辑证明器、感知器、增强学习等只能做很简单、用途狭隘的任务,稍微超出范围就无法 应对。当时的计算机有限的内存和处理速度不足以解决任何实际的 AI 问题。这些计算复杂 度以指数程度增加,成为了不可能完成的计算任务。
2)20 世纪 80 年代~20 世纪 90 年代:专家系统是人工智能的第一次商业化尝试,高 昂的硬件成本、有限的适用场景限制了市场的进一步向前发展。在 80 年代,专家系统 AI 程序开始为全世界的公司所采纳,而“知识处理”成为了主流 AI 研究的焦点。专家系统的能 力来自于它们存储的专业知识,知识库系统和知识工程成为了 80 年代 AI 研究的主要方向。但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向 巨大的失望。另一方面,1987 年到 1993 年现代 PC 的出现,其费用远远低于专家系统所 使用的 Symbolics 和 Lisp 等机器。相比于现代 PC,专家系统被认为古老陈旧而非常难以 维护。于是,政府经费开始下降,寒冬又一次来临。





3)2015 年至今:逐步形成完整的产业链分工、协作体系。人工智能第三起的标志性 事件发生在 2016 年 3 月,谷歌 DeepMind 研发的 AlphaGo 在围棋人机大战中击败韩国职 业九段棋手李世石。随后,大众开始熟知人工智能,各个领域的热情都被调动起来。这次 事件确立了以 DNN 神经网络算法为基础的统计分类深度学习模型,这类模型相比于过往 更加泛化,通过不同的特征值提取可以适用于不同的应用场景中。同时,2010 年-2015 年 移动互联网的普及也为深度学习算法带来了前所未有的数据养料。得益于数据量的上涨、 运算力的提升和机器学习新算法的出现,人工智能开始大调整。人工智能的研究领域也在 不断扩大,包括专家系统、机器学习、进化计算、模糊逻辑、计算机视觉、自然语言处理、 推荐系统等。深度学习的发展,让人工智能进入新的发展高潮。
人工智能第三次浪潮带给我们一批能给商业化落地的场景,DNN 算法的出色表现让语 音识别与图像识别在安防、教育领域贡献了第一批成功的商业案例。而近年来基于神经网 络算法之上的 Transformer 等算法的开发让 NLP(自然语言处理)的商业化也提上了日程, 有望在未来 3-5 年看到成熟的商业化场景。
伴随全球 AI 产业主要配套环节(芯片、软件框架、应用算法、数据积累)的逐步清晰、 完善,以及部分简单应用场景(图像识别、语音合成、多轮会话、推荐系统等)的持续落 地等,我们判断全球 AI 产业有望在经历前期徘徊之后,进入快速发展期,但作为一个极为 复杂的学科和产业板块,一系列的技术、产业问题仍困扰着投资者。在本篇专题报告中,我们将尝试从理论技术、产业应用等维度,就当下 AI 产业发展的核心问题展开分析讨论, 并在此基础上构建我们对全球 AI 产业的中期投资框架: 1. 当前 AI 产业面临的主要技术约束在哪里?如何实现 AI 模型通用性、逻辑可解释性之 间的平衡?AI 技术演进的速度、路径等如何影响下游的应用场景? 2. 基于现有技术发展水平、可能演进路径等,AI 产业稳态的产业链组织形态、各产业环 节(芯片、软件框架、平台&算法、应用场景等)价值分配结构如何? 3. 中期维度,从市场空间、竞争格局等维度,AI 哪些产业环节更具有吸引力,各环节的 核心竞争力是什么,如何结合中长期时间线,形成完整的 AI 产业投资框架&蓝图?
产业现状:逐步形成完整产业分工、协作体系,落地场景亦不断扩展

经历过去 5~6 年的发展,全球 AI 产业正逐步形成分工协作、完整的产业链结构,并 开始在部分领域形成典型应用场景。基于广泛的产业共识,我们将 AI 产业链简化为如下环 节:芯片、算力设施、AI 框架、算法模型、应用场景等。在本部分内容中,我们将对上述 环节的发展现状展开分析探讨。
AI 芯片:从 GPU 到 FPGA 、ASIC 等,性能不断提升
芯片是 AI 产业的制高点。本轮人工智能产业繁荣,缘于大幅提升的 AI 算力,使得深 度学习和多层神经网络算法成为可能。人工智能在各个行业迅速渗透,数据随之海量增长, 这导致算法模型极其复杂,处理对象异构,计算性能要求高。因此人工智能深度学习需要 异常强大的并行处理能力,与 CPU 相比,AI 芯片拥有更多逻辑运算单元(ALU)用于数 据处理,适合对密集型数据进行并行处理,主要类型包括图形处理器(GPU)、现场可编 程门阵列(FPGA)、专用集成电路(ASIC)等。从使用场景来看,相关硬件包括:云侧 推理芯片、云侧测试芯片、终端处理芯片、IP 核心等。在云端的“训练”或“学习”环节,英 伟达 GPU 具备较强竞争优势,谷歌 TPU 亦在积极拓展市场和应用。在终端的“推理”应用 领域 FPGA 和 ASIC 可能具备优势。美国在 GPU 和 FPGA 领域具有较强优势,拥有英伟 达、赛灵思、AMD 等优势企业,谷歌、亚马逊亦在积极开发 AI 芯片。





芯片类型:从 GPU 起步,正逐步扩展至 FPGA、ASIC 等领域。目前 AI 芯片主要用 于语音识别、自然语言处理、图像处理等大量使用 AI 算法的领域,通过芯片加速提高算法 效率。AI 芯片的主要任务是矩阵或向量的乘法、加法,然后配合一些除法、指数等算法。 AI 算法在图像识别等领域,常用的是 CNN 卷积网络,一个成熟的 AI 算法,就是大量的卷 积、残差网络、全连接等类型的计算,本质是乘法和加法。2014 年以来,GPU 在卷积神 经网络方面的良好表现,以及大量的图像识别&计算机视觉模型的部署,让其成为了 AI 推 理芯片的主要解决方案。随着人工智能模型的复杂度加剧,FPGA、ASIC 等灵活性较高、 单位功耗较低的芯片种类也加入到了竞争之中。
部署场景:从数据中心向边缘扩展。在高性能计算市场,借助 AI 芯片的并行运算能 力实现对复杂问题的求解是目前的主流方案。据 Tractica 数据显示,2019 年全球 AI HPC 市场规模约 13.6 亿美元,预计到 2025 年市场规模达 111.9 亿美元,7 年 CAGR 为 35.1%。 AI HPC 市场规模占比由 2019 年的 13.2%提高至 2025 年的 35.5%。同时 Tractica 数据显 示,2019 年全球 AI 芯片市场规模为 64 亿美元,预计到 2023 年市场规模达 510 亿美元, 市场空间增长近 10 倍。





参与厂商:继欧美芯片厂商之后,国产 AI 芯片厂商亦快速崛起。近两年内,国内涌 现了大量自研的芯片类公司,以自研 GPU 的摩尔线程、自研自动驾驶芯片的寒武纪等为 代表。摩尔线程于 2022 年 3 月发布了 MUSA 统一系统架构及第一代芯片“苏堤”,摩尔线 程的新架构支持英伟达的 cuda 架构。根据 IDC 数据,在 2021 年上半年中国人工智能芯 片中,GPU 一直是市场首选,占有 90%以上的市场份额,但随其他芯片的稳步发展,预 计到 2025 年 GPU 占比将逐步降低至 80%。
算力设施:借助云计算、自建等方式,算力规模、单位成本等指标不断改善
过去算力发展有效缓解了人工智能的发展瓶颈。人工智能作为一个年代久远的概念, 过去的发展一直受限于算力不足,其算力需求的主要来源于两个方面:1)人工智能最大 挑战之一是识别度与准确度不高,而要提高准确度就需要提高模型的规模和精确度,这就 需要更强的算力支撑。2)随着人工智能的应用场景逐渐落地,图像、语音、机器视觉和 游戏等领域的数据呈现爆发性增长,也对算力提出了更高的要求,使得计算技术进入新一 轮高速创新期。而过去十几年算力的发展有效缓解了人工智能的发展瓶颈,未来智能计算 将呈现出需求更大、性能要求更高、需求随时随地且多样化的特点。
由于接近物理极限,算力增长的摩尔定律逐步失效,算力行业正处于多要素综合创新 阶段。过去算力供应提升主要通过工艺制程微缩,即在同一芯片内增加晶体管堆叠的数量 来提高计算性能。但随着工艺制程不断逼近物理极限,成本不断提高,使得摩尔定律逐渐 失效,算力产业进入后摩尔时代,算力供应需要通过多要素综合创新提高。当前算力供给 有四个层面:单芯片算力、整机算力、数据中心算力和网络化算力,分别通过不同技术进 行持续演进升级,以满足智能时代多样化算力的供给需求。此外,通过软硬件系统的深度 融合与算法优化提升计算系统整体性能,也是算力产业演进的重要方向。
算力规模:根据中国信通院 2021 年发布的《中国算力发展指数白皮书》,2020 年全 球算力总规模依旧保持增长态势,总规模达 429EFlops,同比增长 39%,其中基础算力规 模 313EFlops、智能算力规模 107EFlops、超算算力规模 9EFlops,智能算力占比有所提 高。我国算力发展节奏与全球相似,2020 年我国算力总规模达到 135EFlops,占全球算 力规模的 39%,实现 55%的高位增长,并实现连续三年增速保持 40%以上。





算力结构:我国与全球发展情况相似,智能算力增长迅速,占比从 2016 年的 3%提升 至 2020 年的 41%。而基础算力占比由 2016 年的 95%下降至 2020 年的 57%,在下游需 求驱动下,以智能计算中心为代表的人工智能算力基础设施发展迅猛。
截至 2021 年底,我国在用数据中心机架总规模达到约 400 余万架(标准机架),近 5 年年均增速超过 30%,随着数字经济的发展,数据中心需求量还将持续上升。商汤 Ai 计 算中心是国内厂商自建算力中心的代表之一,这是由商汤科技打造的一个开放、大规模、 低碳、节能的先进计算基础设施,该项目于 2020 年 7 月开工建设。作为 SenseCore 商 汤 AI 大装置计算基础设施的重要组成部分,AIDC 一期工程的设计算力为每秒 3740 Petaflops,是亚洲最大的超算中心之一。
数据存储:非关系型数据库以及用于储存、治理非结构数据的数据湖迎来需求爆发。 近年来全球数据量呈现爆发式增长,据 IDC 统计,2019 年全球产生的数据量为 41ZB,过 去十年的 CAGR 接近 50%,预计到 2025 年全球数据量或高达 175ZB,2019-2025 年仍 将维持近 30%的复合增速,其中超过 80%的数据都将是处理难度较大的文本、图像、音 视频等非结构化数据。数据量(尤其是非结构化数据)的激增使得关系型数据库的弱点愈 加凸显,面对几何指数增长的数据,传统为结构型数据设计的关系型数据库纵向叠加的数 据延展模式难以满足。非关系型数据库以及用于储存、治理非结构数据的数据湖,因其灵 活性以及易延展性逐渐占据市场中越来越多的份额。根据 IDC,2020 年全球 Nosql 数据 库的市场规模为 56 亿美元,预计 2025 年将增长至 190 亿美元,2020-2025 年复合增速 为 27.6%。同时,根据 IDC,2020 年全球数据湖市场规模为 62 亿美元,2020 年市场规 模增速为 34.4%。





企业数据向云端迁移为高确定性趋势。根据 IDC 数据,存储在公有云中数据占比将 在 2020 年追平传统数据中心,且占比仍将不断提升;而根据 Alphawise 的调研数据,到 2023 年,欧美企业 IT 部署中 43%将为云,较目前的 23%提升近一倍。而在应用层面,根 据 IDC 数据,预计到 2023 年,全球云原生应用数将达到 5 亿个,相较 2019 年 0.7 亿的 水平增加逾 6 倍,2019-2023 年复合增速为 62.3%。云原生下的应用开发将成为未来开发 的主流环境,这对数据库本身的灵活性和延展性提出了更多要求。在企业数据库部署模式 上,数据库向云端迁移将成未来的主要趋势。
AI 框架:相对趋于成熟,少数巨头主导
Tensorflow(产业界)、PyTorch(学术界)逐步实现主导。谷歌推出的 Tensorflow 为主流与其他开源模块如 Keras(Tensorflow2 集成了 Keras 模块)、Facebook 开源的 PyTorch 等一起构成了目前 AI 学习的主流框架。Google Brain 自 2011 年成立起开展了面 向科学研究和谷歌产品开发的大规模深度学习应用研究,其早期工作即是 TensorFlow 的 前身 DistBelief。DistBelief 在谷歌和 Alphabet 旗下其他公司的产品开发中被改进和广泛使 用。2015 年 11 月,在 DistBelief 的基础上,谷歌大脑完成了对“第二代机器学习系 统”TensorFlow 的开发并对代码开源。相比于前作,TensorFlow 在性能上有显著改进、构 架灵活性和可移植性也得到增强。 Tensorflow 与 Pytorch 虽然本身是开源模块,但因为深度学习框架庞大的模型与复杂 度导致其修改与更新基本完全是由谷歌完成,从而谷歌与 Facebook 也通过对 Tensorflow 与 PyTorch 的更新方向直接主导了产业界对人工智能的开发模式。





Microsoft 在 2020 年以 10 亿美元注资 OpenAI,获得 GPT-3 语言模型的独家许可。 GPT-3 是目前在自然语言生成中最为成功的应用,不仅可以用于写“论文”,也可以应用于 “自动生成代码”,自今年 7 月发布后,也被业界视为最强大的人工智能语言模型。而 Facebook 早在 2013 年创立了 AI 研究院,FAIR 本身并没有像 AlphaGo 和 GPT-3 那样 著名的模型和应用,但是它的团队已经在 Facebook 本身感兴趣的领域发表了学术论文, 包括计算机视觉、自然语言处理和对话型 AI 等。2021 年,谷歌有 177 篇论文被 NeurIPS (目前人工智能算法的最高期刊)接收并发表,Microsoft 有 116 篇,DeepMind 有 81 篇, Facebook 有 78 篇,IBM 有 36 篇,而亚马逊只有 35 篇。(报告来源:未来智库)
算法模型:神经网络算法为主要理论基础
深度学习正在向深度神经网络过渡。机器学习是通过多层非线性的特征学习和分层特 征提取,对图像、声音等数据进行预测的计算机算法。深度学习为一种进阶的机器学习, 又称深度神经网络(DNN:Deep Neural Networks )。针对不同场景(信息)进行的训练 和推断,建立不同的神经网络与训练方式,而训练即是通过海量数据推演,优化每个神经 元的权重与传递方向的过程。而卷积神经网络,能考虑单一像素与周边环境变量,并简化 数据提取数量,进一步提高神经网络算法的效率。
神经网络算法成为大数据处理核心。AI 通过海量标签数据进行深度学习,优化神经网 络与模型,并导入推理决策的应用环节。90 年代是机器学习、神经网络算法快速崛起的时 期,算法在算力支持下得到商用。90 年代以后,AI 技术的实际应用领域包括了数据挖掘、 工业机器人、物流、语音识别、银行业软件、医疗诊断和搜索引擎等。相关算法的框架成 为科技巨头的布局重点。





在过去五年,我们观察到以 CNN 与 DNN 为主的神经网络算法是近年来发展最快的机 器学习算法,因其在计算机视觉、自然语言处理等领域中的优异表现,大幅加快了人工智 能应用的落地速度,是计算机视觉、决策智能迅速迈向成熟的关键因素。从侧视图可以看 出,在语音识别任务上,标准的 DNN 方法相较于传统的 KNN、SVM 与随机森林等方法都 有着明显的优势。
训练成本上看,神经网络算法训练人工智能的成本明显降低。ImageNet 是一个包含 超过 1400 万张图像的数据集,用于训练人工智能算法。根据斯坦福 DAWNBench 团队的 测试,2020 年训练一个现代的图像识别系统仅需约 7.5 美元,比 2017 年的 1100 美元下 降了 99%以上,这主要受益于算法设计的优化、算力成本的下降,以及大规模人工智能训 练基础设施的进步。训练系统的速度越快,评估并用新数据更新系统的速度就越快,这将 进一步加快 ImageNet 系统的训练速度,提高开发和部署人工智能系统的生产力。
训练时间分布上看,神经网络算法训练所需时间全面降低。通过分析每个时期的训练 时间分布,发现在过去几年中,训练时间大大缩短,且训练时间的分布更加集中,这主要 受益于加速器芯片的广泛使用。





在卷积神经网络的推动下,计算机视觉准确率测试成绩明显提升,正处于产业化阶段。 计算机视觉准确率在过去的十年中取得了巨大的进步,这主要归功于机器学习技术的应用。 Top-1 准确度测试人工智能系统为图像分配正确标签的能力越强,那么其预测结果(在所 有可能的标签中)与目标标签越相同。在有额外的训练数据(例如来自社交媒体的照片) 的情况下,2021 年 1 月在 Top-1 准确度测试上每 10 次尝试中会出现 1 次错误,而 2012 年 12 月每 10 次尝试中会出现 4 次错误。而另一项精确率测试 Top-5 会让计算机回答目标 标签是否在分类器的前五个预测中,其准确率从 2013 年的 85%提高到 2021 年的 99%, 超过了代表人类水平的成绩 94.9%。
在神经网络算法发展的过程中,Transformer 模型在过去五年里成为了主流,整合了 过去各种零散的小模型。Transformer 模型是谷歌在 2017 年推出的 NLP 经典模型(Bert 就是用的 Transformer)。
AI 大模型化是过去两年内兴起的新潮流,自监督学习+预训练模型微调适配方案逐渐 成为主流,AI 模型走向大数据支撑下的泛化成为可能。传统的小模型用特定领域有标注的 数据训练,通用性差,换到另外一个应用场景中往往不适用,需要重新训练。而 AI 大模型 通常是在大规模无标注数据上进行训练,将大模型进行微调就可以满足多种应用任务的需 要。以 OpenAI、谷歌、微软、Facebook、NVIDIA 等机构为代表,布局大规模智能模型 已成为全球引领性趋势,并形成了 GPT-3、Switch Transformer 等大参数量的基础模型。2021 年底英伟达与微软联合开发的 Megatron-LM 拥有 83 亿条参数,而 Facebook 开发的 Megatron 拥有 110 亿条参数。这些参数大多来自于 reddit、wikipedia、新闻网站等,对大 量数据存储及分析所需的数据湖等工具将会是下一步研发的焦点之一。





应用场景:逐步在安防、互联网、零售等领域实现落地
目前在应用端最成熟的技术是语音识别、图像识别等,围绕这些领域,国内、美国都 有大量的企业上市,并形成一定的产业集群。在语音识别领域,比较成熟的上市企业包括 科大讯飞与此前被微软以 290 亿美元收购的 Nuance。
智慧医疗:AI+医疗多应用于医疗辅助场景。在医疗健康领域的 AI 产品涉及智能问诊、 病史采集、语音电子病历、医疗语音录入、医学影像诊断、智能随访、医疗云平台等多类 应用场景。从医院就医流程来看,诊前产品多为语音助理产品,如导诊、病史采集等,诊 中产品多为语音电子病例、影像辅助诊断,诊后产品以随访跟踪类为主。综合整个就诊流 程中的不同产品,当前 AI+医疗的主要应用领域仍以辅助场景为主,取代医生的体力及重 复性劳动。AI+医疗的海外龙头企业是 Nuance,公司 50%的业务来自智能医疗解决方案, 而病历等临床医疗文献转写方案是医疗业务的主要收入来源。
智慧城市:大城市病和新型城镇化给城市治理带来新挑战,刺激 AI+城市治理的需求。 大中型城市随着人口和机动车数量的增加,城市拥堵等问题比较突出。随着新型城镇化的 推进,智慧城市将会成为中国城市的主要发展模式。而智慧城市涉及的 AI+安防、AI+交通 治理将会成为 G 端的主要落地方案。2016 年杭州首次进行城市数据大脑改造,高峰拥堵 指数下降至 1.7 以下。目前以阿里为代表的城市数据大脑已经进行了超过 15 亿元的投资, 主要集中在智能安防、智能交通等领域。我国智慧城市产业规模持续扩大,前瞻产业研究 院预计 2022 年可达 25 万亿元,2014 年至 2022 年的年均复合增长率为 55.27%。





城市交通是智慧城市落地的重点场景。从城市问题与落地的技术瓶颈来看,交通 领域具有优先的落地价值。以城市大脑为中枢,连接摄像头、车辆标签、交通流 量等数据,通过云端的分析和整合,从而实现对城市的精准分析、整体研判、协 同指挥,缓解拥堵、停车困难、路线规划、事故处理、违章告发等首要交通问题。
AI+安防:基于图像识别等推动产业能力边界、商业模式极大延伸。传统安防设 备将音视频材料简单记录后,需要大批量人工进行逐一甄别或实时监控。引入 AI 后,算法可以自动将人像及事故场景与预设标签比较,识别出特定人物及事故, 充分盘活原有音视频及图像数据。AI+安防可用于市政治安管理,提升智能发现 的事件数目,降低事件发生处理平均时长,对警、消、救等各类车辆进行联合指 挥调度。也可以用于车站、机场等需要验证信息的特殊场景,减少人工成本及审 核时间,提高效率。





智慧物流 2020 年市场规模高达 5710 亿元,智能仓储迎来千亿市场。物流行业成本 居高不下及数字化转型的背景下,仓储物流及产品制造环节面临着自动化、数字化、智能 化转型的迫切需求,以提升制造和流通效率。根据中国物流与采购联合会的数据,2020 年中国智慧物流市场高达5710亿元,2013-2020年的年均复合增长率为21.61%。物联网、 大数据、云计算、人工智能等新一代信息技术既促进了智慧物流行业的发展,又对智慧物 流行业提出了更高的服务要求,智慧物流市场规模有望持续扩大。据 GGII 测算,2019 年 中国智能仓储市场规模近 900 亿元,而前瞻研究院预计这一数字将在 2025 年达到 1500 亿以上。
新零售:人工智能将带来人力成本的缩减与运营效率的提升。Amazon Go 为亚马逊 提出的无人商店概念,无人商店于 2018 年 1 月 22 日在美国西雅图正式对外营运。Amazon Go 结合了云计算和机器学习,应用拿了就走技术(Just Walk Out Technology)和智能识别 技术(Amazon Rekognition)。店内的相机、感应监测器以及背后的机器算法会辨识消费 者拿走的商品品项,并且在顾客走出店时将自动结账,是零售商业领域的全新变革。
云化的人工智能模块组件是各大互联网巨头目前在人工智能商业化的主要发力方向, 将人工智能技术集成在公有云服务中进行出售。Google Cloud Platform 的 AI 技术一直走 在行业的最前沿,并致力于将先进的 AI 技术融入云计算服务中心。近年来,谷歌收购多家 AI 公司,并发布 AI 专用芯片 TPU、云服务 Cloud AutoML 等产品完善布局。目前谷歌的 AI 能力已经覆盖认知服务、机器学习、机器人、数据分析&协作等领域。区别于部分云厂 商在 AI 领域相对分散的产品,谷歌在 AI 产品的运营上更加完整和体系化,将垂直应用整 合为 AI 基础组件,将 Tensorflow 与 TPU 运算整合为基础设施,形成了一个完整的 AI 平台服务。



百度是中国 AI 能力最强的公有云厂商,百度 AI 的核心战略是开放赋能。百度搭建以 DuerOS、Apollo 为代表的 AI 平台,开放生态,形成数据与场景的正向迭代。基于百度互 联网搜索的数据基础,自然语言处理、知识图谱和用户画像技术逐步成熟。在平台以及生 态层,百度云是很大的计算平台,开放给所有的合作伙伴,变成基础的支撑平台,上面有 百度大脑的各种能力。同时还有一些垂直的解决方案,比如基于自然语言的人机交互的新 一代操作系统,以及与智能驾驶相关的 Apollo。整车厂商可以调用其中他们需要的能力, 汽车电子厂商也可以调用他们需要的相应能力,共建整个平台和生态。
产业变化:AI 大模型逐步成为主流,产业发展有望全面提速

最近几年来,AI 产业的技术演进路线主要呈现如下特征:底层模块性能的不断提升, 注重模型的泛化能力,从而帮助 AI 算法的通用性优化,并反哺数据收集。AI 技术的持续 发展依靠底层算法的突破,这同时需要以算力为核心的基础能力建设以及有大数据支撑进 行知识和经验学习的环境。大模型在产业内的快速流行,大模型+小模型的运作模式,以 及芯片、算力基础设施等底层环节能力的不断改善,以及由此带来的应用场景类别、场景 深度的持续提升,并最终带来产业基础能力、应用场景之间的不断相互促进,并在正向循 环逻辑下,驱动全球 AI 产业发展不断提速。





算法模型:大模型嵌套小模型成为主流
大模型带来较强的通用问题求解能力。当前大部分人工智能正处于“手工作坊式”,面 对各类行业的下游应用,AI 逐渐展现出碎片化、多样化的特点,模型通用性不高。为提高 通用求解能力,大模型提供了一种可行方案,即“预训练大模型+下游任务微调”。该方案指 从大量标记和未标记的数据中捕获知识,通过将知识存储到大量的参数中并对特定任务进 行微调,提高模型泛化能力。
大模型有望进一步突破现有模型结构的精度局限,结合嵌套小模型训练,进一步提升 特定场景下的模型效率。过去十年中,模型精度提升主要依赖网络在结构上的变革,但随 着神经网络结构设计技术逐渐成熟并趋于收敛,精度提升达到瓶颈,而大模型的应用有望突破这一瓶颈。以谷歌的视觉迁移模型 Big Transfer,BiT 为例,使用 ILSVRC-2012(128 万张图片,1000 个类别)和 JFT-300M(3 亿张图片,18291 个类别)两个数据集来训练 ResNet50,精度分别是 77%和 79%,大模型的使用使得处于瓶颈的精度进一步提高。另 外使用 JFT-300M 训练 ResNet152x4,精度可以上升到 87.5%,相比 ILSVRC-2012 +ResNet50 结构提升了 10.5%。
大模型+小模型:泛化大模型人工智能的推广并结合特定场景下的数据优化将成为中 期人工智能产业商业化的关键。原先针对特定场景重新提取数据训练的模式,已经被实践 证明难以盈利,重新训练模型的成本过高,而获得的模型泛用性低下,难以重复利用。而 在芯片算力性能不断提高的大背景下,大模型嵌套小模型的尝试提供给了厂商另一个思路, 通过分析海量数据获得泛用模型,再通过嵌套特定小模型的方式为不同场景进行优化,节 省了大量成本。阿里云、华为云、腾讯云等公有云厂商都在积极开发自研的大模型平台, 提升模型的通用型。
芯片厂商:软硬结合,推动 Transformer 等算法的硬件实现&封装
以英伟达为代表的 AI 芯片巨头,在新一代芯片中针对产业中常用的 AI 模型,特别设 计了新引擎以大幅提升计算能力。英伟达的 Hopper 架构引入了 Transformer 引擎,大幅 加速了 AI 训练。Transformer 引擎采用软件和自定义 NVIDIA Hopper Tensor Core 技术, 该技术旨在加速训练基于常见 AI 模型构建模块(即 Transformer)构建的模型。这些 Tensor Core 能够应用 FP8 和 FP16 混合精度,以大幅加速 Transformer 模型的 AI 计算。采用 FP8 的 Tensor Core 运算在吞吐量方面是 16 位运算的两倍。Transformer 引擎利用定制的、经 NVIDIA 调优的启发式算法来解决上述挑战,该算法可在 FP8 与 FP16 计算之间动态选择,并自动处理每层中这些精度之间的重新投射和缩放。根据英伟 达提供的数据,Hopper 架构在训练 Transformer 模型时,效率可以达到安培模型的 9 倍。(报告来源:未来智库)





算力设施:云厂商参与度持续提升
在大模型技术趋势下,云厂商正在逐步成为算力市场中的核心玩家,在人工智能技术 框架通过大模型往泛用化发展后,云厂商也能够借助 PaaS 能力把底层 IaaS 能力与 PaaS 结合,为市场提供通用性解决方案。我们看到随着大模型的出现,人工智能需要处理与分 析的数据量日渐上升,同时这部分数据从过去的专业性数据集转化为通用型大数据。云计 算巨头可以通过本身强大的 PaaS 能力与底层 IaaS 基础相结合,为人工智能厂商提供一 站式的数据处理,这也帮助云计算巨头成为本轮人工智能浪潮的主要受益者之一。
目前 AWS、Azure 等国际主流云厂商与阿里云、腾讯云、华为云等国内头部云厂商都 已开始在数据储存、数据处理等 PaaS 能力上重点发力。存储能力方面,NoSQL 类型数 据库与在数据种类日益繁杂的未来会涌现更多机会,如 Google Cloud 就已经在对象类、 传统的关系型数据库以及 NoSQL 类型数据库分散布局。而在数据处理方面,Data Lake 与 Data Warehouse 的重要性愈发凸显,云计算巨头通过完善这部分产品线,构建了一个 完整的数据循环模式,并结合其底层的 IaaS 基础能力。完整的产品线与闭合的数据循环模式将是未来云计算巨头在 AI 中间层竞争的最大优势。





应用场景:从 CV 到 NLP、推荐系统等,应用场景、技术深度等不断改善
目前商业化的典型应用场景包括语音识别与计算机视觉,但与此同时我们也注意到 NLP、推荐系统等场景在技术的驱动下正在不断拓展。全球科技巨头近年来积极布局 NLP 以及推荐系统等应用场景化尝试,并寄希望于此开辟全新的商业化路径,这也意味着我们 未来能在人工智能赛道上看到更多的商业化布局。
图像识别
图像识别的核心技术是计算机视觉。计算机视觉(Computer Vision,CV)是用机器 替代人眼,对目标进行识别、跟踪和测量等,并处理为人眼观察或易于机器检测的图像的 技术。技术上需要大量的图像数据对计算机进行训练,如人脸、动物图片、证件图片等, 依靠 AI 芯片和深度学习算法进行归类判断,最终对输入图像进行识别。图像识别技术已经 用于动态人脸识别、在线/离线活体检测、超大人像库实时检索、证件识别、行人检测、轨迹分析等领域,具体到 2G 和 2G 端可用于地产、安防、交通、无人驾驶、零售、商业等 具体场景。





语音识别
依靠深度学习和芯片突破,语音识别的准确度不断提升。语音识别将人发出的语音词 汇内容,转换为文字或指令,主要是分析句子、句法以及结构,以便将人类语言转换为计 算机语言。以深度神经网络算法取代传统模型后,语音识别的单词错误率每年下降约 18%, 以谷歌、微软、亚马逊为代表的巨头已经开发出具备人类级别的语音识别系统。
自然语言处理
NLP 是研究人机之间以人类语言进行交流的方法的过程,近两年来 NLP 相关的研究 与应用场景尝试明显增多。由于底层算力的提高,以往算力无法支持的算法得以实现,尤 其是深度学习方面,正在向深度神经网络过渡。计算机视觉(CV)层通过机器学习取得巨 大突破,而目前这一方法正逐渐向自然语言处理(NLP:Natural Language Processing) 延伸。可处理数据类型也从图像延伸至文本,使得计算机有处理人类自然语言的能力,并 因此催生出搜索引擎优化、推荐算法等实际应用场景。NLP 包括多方面步骤,基本由认知、 理解、生成等部分。基于数据及知识图谱,计算机通过阅读(知识)自动获取信息,通过 NLP 可以将输入的语言变为有具体含义的符号,再根据使用者意图进行处理,重新编为人 类语言输出。与语音识别关注准确度不同,NLP 更多关注语言的具体含义及语境,试图理 解句子意图和上下文含义。





在 NLP 语言测试 SuperGLUE 中,人工智能表现超过“人类基线”。近年自然语言处 理技术的进步导致数十亿人访问的大规模系统发生了重大变化,并已开始对世界产生有意 义的经济影响。谷歌和微软都在他们的搜索引擎中部署了 BERT 语言模型,而 OpenAI 等 公司也开发了其他大型语言模型。此外,NLP 的性能也得到了极大提升,在任务测试表现 上达到甚至超过人类水平。SuperGLUE 是 2019 年推出的单指标基准,用于评估模型在已 建立数据集上的完成语言理解任务的性能。SuperGLUE 标定的“人类基线”的平均得分为 89.8,而微软的 DeBERTa 模型目前得分为 90.3,这意味着 AI 系统在整个套件的平均性 能超过了人类基线的表现。
知识图谱
知识图谱提供了管理组织海量数据的能力。知识图谱融合了认知计算、知识表示和推 理、信息检索与抽取、自然语言处理与语义 Web、数据挖掘与机器学习,是人工智能的重 要研究领域。知识图谱的应用可以直接为用户提供答案和解决方案,直接显示满足客户需 求的结构化信息内容。
以语音和图像作为知识图谱,AI 技术快速渗透。对 AI 来说,数据多为无效或原始信 息,需要大量的归类与标签工作,才能为后期的分析与学习所用。而语音和图像数据由于 来源广,可得性高,语音及图像知识图谱与行业数据库,成为当前人工智能的积累重点。
个性化推荐
个性化推荐系统是近年来另一个科技巨头聚焦的商业化尝试,基于庞大的数据支持, 人工智能系统可以根据用户的性格画像进行分类,准确推荐用户感兴趣的服务与商品。支 撑 TikTok 业务腾飞的是字节跳动的人工智能推荐算法,该系统能够根据用户的兴趣和活动 提供经过筛选的相关内容。TikTok 在开发推荐算法时主要考量了三个因素:用户在应用程 序上的互动,比如喜欢某个视频或关注某个账号;感兴趣的内容包括什么——在短视频中 就是诸如音乐和主题标签等信息;以及用户所处的环境,诸如语言偏好、国家和地区设置 以及设备类型。基于以上三点,人工智能算法便可以快速分类,为视频内容对用户的符合 程度进行打分,并按由高到低进行推荐。





中期判断:产业价值链趋于稳定,并逐步向两端靠拢

产业链结构:芯片+算力基础设施+AI 框架&算法库+应用场景。伴随 AI 产业链结构的 逐步清晰,以及大模型带来的产业运作效率、技术深度的大幅改善,中期维度,假设 AI 技术不发生跳变式跃迁前提下,我们判断 AI 产业链价值有望逐步向两端靠拢,中间环节价 值有望持续减弱,并逐步形成“芯片+算力基础设施+AI 框架&算法库+应用场景”的典型产业 链结构,同时在这样的产业结构安排下,我们预计上游的芯片企业、云基础设施厂商,以 及下游的应用厂商有望逐步成为 AI 产业快速发展的核心受益者。
AI 芯片:GPU+FPGA+ASIC 并存局面。技术理论层面,GPU 的峰值性能与泛用性更 为出色,尤其是英伟达推出了 CUDA 编程框架,大大降低了开发难度。但 GPU 底层无法 编辑,如果出现底层算法的更改需要重新部署。FPGA 具有足够的计算能力和足够的灵活 性,FPGA 也是一种半定制的硬件,通过编程可定义其中的单元配置和链接架构进行计算, 因此具有较强的灵活性。相对于 GPU,FPGA 能管理能运算,但是相对开发周期长,编程 语言非常复杂,算法开发难度大。ASIC 是根据产品的需求进行特定设计和制造的集成电 路,能够在特定功能上进行强化,具有更高的处理速度和更低的能耗。缺点是研发成本高, 前期研发投入周期长,且由于是定制化,ASIC 可复制性一般,因此只有用量足够大时才 能够分摊前期投入,降低成本。





AI 训练环节:GPU 料将占据主导地位。伴随谷歌借助 BERT 模型在对话式 AI 领域的突破,以及微软的跟进,AI 训练端芯片的需求再次被激发。我们判断,在 当前技术可预期的范围,对话式 AI(主要用于 NLP 等)、广度&深度推荐系统将 构成中期市场核心应用场景之一。同时相较于此前的图像识别&计算机视觉,对 话式 AI、推荐系统模型参数&复杂度的大幅增加亦会对芯片&硬件提出更高的要求。英伟达系统级产品布局、在训练环节的突出表现&领先优势已基本成为市场 的共识,而在推理领域,伴随新一代安培架构的升级,以及由此实现的训练、推 理的统一,以及对稀疏矩阵运算问题的良好支持,目前在推理方面,英伟达最新 的 A100 芯片的 Int 8 Tops 已经达到 1248,较上一代提升超过 5X。同时在训练 环节,根据英伟达 2021GTC 大会上提供的 Mlperf 评测,在图像识别、对话式 AI、推荐系统等多个模型的对比评测中,英伟达芯片训练性能全面领先华为、谷 歌等主要竞争对手。基于技术层面的全面分析,我们判断英伟达有望在企业对外 服务(训练、推理)、企业内部服务(训练)环节保持持续领先。
AI 推理环节:市场百花齐放,核心在于应用场景的匹配。不同于训练类芯片, 更注重功耗、成本以及延迟类的需求,GPU 在推理环节优势并不明显,FPGA 与 ASIC 等新兴产品将会百花齐放。相较于训练环节,推理环节是一个更大、更 具吸引力的市场,但同时相较于训练环节,推理环节对于计算复杂度、计算精度 要求不高,但对于延迟较为敏感,本身技术要求和训练存在明显不同。同时传感 器技术的成熟、通信网络的发展等,亦将极大促进边缘智能计算设备的需求,以 及最终带动对推理芯片的需求。但在企业内部服务(推理)仍面临延迟、功耗等 层面的明显短板。





算力设施+基础算法框架:云计算厂商料逐步实现主导。大模型带来 AI 底层基础技术 架构的统一,以及对算力的庞大需求等特征,天然有利于云计算公司在此过程中发挥基础 性角色:云计算具有全球分布最为广泛、最为强大的硬件算力设施,同时 AI 框架、通用算 法最为一种典型 PaaS 能力,亦倾向于被整合到云厂商的平台能力当中。因此从技术通用 性、实际商业需求等维度,在大模型的推动下,云计算巨头有望逐步成为算力设施+基础 算法框架环节能力的主要提供商,并不断侵蚀现有的 AI 算法平台商的商业空间。从过去云 厂商各类产品的报价中可以发现,以 AWS 与 Google 产品为例,美国东部地区的 Linus 按需使用价格正在阶梯式降低。
应用场景:从计算智能到感知智能、认知智能。在目前的算力条件与可展望的技术能 力支持下,应用端将继续通过数据获取实现算法迭代与优化,完善目前认知智能当中仍存 在的不足(图像识别方向),并尝试往决策智能发展。根据目前的技术能力以及硬件算力 支持,实现完全决策智能仍需较长时间;现有场景的继续深化的基础上做出局部性的智能 化将是 3-5 年内的主要方向。目前的 AI 应用层面仍然过于单点化,而完成局部性的串联将 成为实现决策智能的第一步。人工智能的软件类应用将包括从底层的驱动程序,到上层的 应用程序、算法框架,从面向商业(制造、金融、物流、零售、地产等),到人(元宇宙、 医疗、人形机器人等)、自动驾驶等领域:
商业:在过去几年,我们看到主流的软件 SaaS 厂商均在其产品中融入 AI 能力, 和具体应用场景深度融合。同时,AI 能力的融入也成为软件厂商提价、吸引客户 向高阶产品切换的重要手段,比如微软在 office 产品中借助 AI 实现文本语法自动 纠错、文本翻译等,ZOOM 借助 AI 技术实现同声传译、语音文字转录,Salesforce 在 CRM 产品中借助 AI 帮助客户更为准确地识别潜在客户、转化客户等。展望未 来,我们相信软件厂商提供的 AI 能力将实现由单点智能向全局智能、由认知智 能向决策智能的跨越,比如我们已经看到部分流程挖掘厂商在通过对于底层日志 数据的机器学习对上层可优化的业务流程进行改进,从而实现由流程挖掘到流程 自动化的闭环;我们也看到领先的 IT 运维厂商在通过对海量 IT 监控指标的机器 学习,从而对 IT 性能问题实现主动式、预测性的运维,保证整个 IT 堆栈的稳定 运行。





元宇宙:过去 20 年,互联网改变人类生活,将人和人的交流数字化;未来 20 年 乃至更久,元宇宙将把人与社会的关系数字化。元宇宙中,人机交互水平达到或 超越人和人的交互体验,从“社会关系的数字化”到“人与世界的关系数字化”。过去 20 年,互联网把现实世界中人和人的关系数字化到网络上,在线聊天、电商、 视频会议等,都是人和人的社会关系被数字化;未来 20 年,在元宇宙的世界中, 我们将与更聪明的 AI 或机器人更频繁地互动,互动体验有机会达到或超越人和 人的交互体验。同样,我们认为,这种人机交互将不只发生在网络上,也有可能 发生在物理世界中,类似于科幻作品中的仿生机器人。无论虚拟世界还是物理世 界,现有的认知智能是无法满足元宇宙时代的人机交互需求的,仍需硬件、算力、 算法、数据等要素持续迭代升级,进而实现更为理想的交互体验。
自动驾驶:近五年来,卷积神经网络算法(CNN)的推广大大提高了 AI 处理图 像识别任务与依托于庞大训练数据的智能决策系统的准确性。在自动驾驶领域, 基础算法的突破首次为图像处理类任务提供了可商业化的前景。在接下来的 3-5 年,我们将看到更多学术界的新兴人工智能模型应用于自动驾驶任务,如目前广 泛用于 NLP 的 Transformer 模型。近两年学术界有多项工作在图像处理任务中 尝试用 Transformer 模型代替 CNN 模型(Ramachandran 等人,2020;Wang 等人,2020a)。此前这类模型虽然在理论上很高效,但由于使用了专门的注意 力模式,在现代硬件加速器上还没有得到有效的扩展。而英伟达即将推出的下一 代 Hopper 架构将专门为 Transformer 模型优化,为其在自动驾驶图像处理任务 的应用提供硬件支持。具体方案进展方面,随着特斯拉、小鹏汽车等造车新势力 的商业化进程持续推进,L3 技术未来几年处于快速导入期,有望由 2019 年的 0.8%提升至 2025 年的 10.0%。而 L4、L5 技术仍处于试验、封闭或半封闭园区 运营阶段(如:百度、滴滴沃芽、文远知行等公司先后在上海、广州、长沙、北 京等地区特定场所提供 Robotaxi 服务;图森未来在美国高度公路开始了无人驾 驶货车配送;Waymo 在美国开始提供 Robo-taxi 和无人驾驶货车配送等服务)。 据亿欧智库数据显示,未来 3 年左右,高级别自动驾驶技术有望在封闭式&半封 闭式环境中实现试点运营和小规模商业化应用;未来 5-10 年后,高级别自动驾 驶技术有望在开放式环境中(如 RoboTaxi)实现商业化应用。





未来随着自动驾驶级别的提高,智能汽车对车载计算平台的算力要求也逐步提高,目前 DPU 化的自动驾驶芯片解决方案将带给我们更多可能。地平线数据显示,L4 级别的车载 计算平台计算能力将达 320 TOPs、L5 级别的车载计算平台算力将超过 4000 TOPs。罗兰 贝格数据显示,随着智能汽车渗透率的提高&计算平台算力的提高,其市场规模有望从 2017 年的 11 亿美元提升至 2025 年的 795 亿美元(CAGR=70.1%)。同时 2020 年以来, 受新冠疫情影响,市场催生出对无人配送、非接触式配送、无人驾驶环卫车的刚性需求。 海内外公司如 Nuro AI、智行者科技、小马智行、Argo AI 利用无人驾驶技术为居民或医院 提供无人驾驶配送服务或无人消毒服务,在很大程度上加速了无人驾驶技术的普及与落地。(报告来源:未来智库)
投资分析

全球 AI 产业集群效应逐步凸显。目前在全球范围内,无论是在二级市场,还是在一 级市场,均有大量的、分布于 AI 各产业环节的相关公司出现和壮大,并相应吸引大量投资 者的参与,包括海外的英伟达、高通、Palantir、C3.AI,以及国内的商汤、格灵深瞳等, 产业集群效应不断凸显。
1)一级市场:据第三方数据统计,2021 年中国人工智能领域一级市场融资事件 1132 起,融资金额共 3996.4 亿元,同比 2020 年增长 48.2%。2021 年中国新成立人工智能企 业 57 家,远低于 2017 年的 1057 家;单笔融资金额 2021 年为 3.53 亿元,同比增长 16%, 说明 2015 年至 2017 年时段成立的中国人工智能企业已经逐渐迈向成熟期。2018 年至 2020 年间,一级市场融资方向以企业服务、金融、汽车为主流,2020 年融资金额共占到 全部融资事件的 38%。





近几年来国内一级市场涌现了大量自研 DPU 与 GPU 的一级市场公司,以外购 IP 加 自研模块的商业模式为主。相比于完全自研 IP 的模式,这种外购 IP 结合自研的模式类似 于华为与苹果曾经的发展路径:通过外购 IP 迅速流片出成品有利于快速回收资金补贴研发 费用,并在后续的研发过程中逐步加入自研技术,与外部同 IP 产品形成竞争优势。
2)二级市场:目前在芯片、算力设施、算法框架、应用等环节,中美市场均有大量 的上市公司存在,包括我们熟知的英伟达、高通、百度等,以及近期新上市,以及后续有望登陆资本市场的大量新兴 AI 企业,包括国内的商汤、云从等,以及海外的 Palantir、C3.AI、 图森未来等,市场对该板块的关注度不断提升。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。未来智库 - 官方网站
这里是默认签名
回复

使用道具 举报

上一篇:“善良”的你为什么过的不好?怎样才能算得上真正的好人?

下一篇:研究发现AI深度学习也有类似“前额叶皮层”,杨立昆点赞

sitemap.txt | sitemap.xml | sitemap.html |Archiver|手机版|小黑屋|彩虹邦人脉系统 ( 皖ICP备2021012059号 )

GMT+8, 2024-11-23 08:56 , Processed in 0.319715 second(s), 64 queries .

快速回复 返回顶部 返回列表