- 1、本文档共25页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
北交所行业主题报告
目 录
1、 引言:AIGC 迎技术与应用拐点,大模型+云计算走向全民化、普惠化4
2 、 AI 算力是新时代核心基建,复盘第三方数据中心看算力租赁厂商增长路径4
3、 洞察趋势:AI 大模型引领算力服务商发展,GPU 基建建设加速扩张9
4 、 发掘壁垒:聚焦软硬件多元优化,虚拟化与资源调度促成本效率提优 14
5、 公司布局:多赛道龙头加码GPU 算力,蓝耘&并行彰显专精优势22
6、 风险提示26
图表目录
图1: 通用及行业大模型不断涌现、进化,AIGC 开启全球产业技术新引擎4
图2 : 英伟达多路线AI 硬件持续迭代,将大模型训练、部署从两年周期缩短到一年4
图3 : 微软OpenAI+GPU 算力资源打造协同效应,同时云服务对外提供租赁业务 5
图4 : 第三方数据中心厂商通过绑定核心客户长期租赁模式,实现快速扩张 6
图5 : 2014-2018 年是数据中心“跑马圈地”核心阶段 6
图6 : 资源向内生能力转化,毛利率整体维持20-40% 6
图7 : 非流动资产占比普遍高,重资产长线运营为主7
图8 : 销售费用率普遍较低,绑定大客户无需大量推广7
图9 : AI“算力租赁”与第三方数据中心厂商扩张模式类似,聚焦于资源层能力7
图10: “算力租赁”本质上是AI 算力云业务的一种具体商业模式 8
图11: 算力租赁厂商与常规算力云厂商的商业模式有较多差异,具备独特竞争力 8
图12: AI 算力服务产业链中,云服务商(包括第三方算力租赁商)集成芯片、服务器,形成算力服务供给9
图13: 2022 年全球智能算力规模增长25.6%/EFLOPS 10
图14: 2022 年中国智能算力规模增长41.4%/EFLOPS 10
图15: AI 模型算力需求主要来自于训练和推理两大类 11
图16: 2021 年GPU 应用于中国89%的计算加速场景 12
图17: 预计AI 服务器用于推理计算比例将提升至6 成 12
图18: 智能算力是驱动计算机视觉产业链发展的基础 12
图19: AI 时代GPU 算力需求预计每年翻倍,10 年内实现千倍增长 13
图20 : AIGC 成核心驱动力,预计全球CAGR 超90% 13
图21 : 预计中国AI 服务器市场2026 年达 123 亿美元 13
图22 : 成本端核心是优化数据中心系统工程投入,收入端核心在于提升算力利用率、实现算力调优 15
图23 : NVIDIA 加速计算全栈平台横跨芯片层、系统层和软件层布局 15
图24 : 从芯片层、服务器层到云架构层,服务商均需要持续优化算力资源体系 16
图25 : 开放加速计算系统全栈设计方法涉及芯片、散热等辅助硬件、系统方案、性能调优等环节紧密配合 16
图26 : AI 服务器集群建设过程需要在架构等硬件层的设计经验上有深厚积累 17
图27 : GPU 云计算集群通过网络、存储协同部署以及容器化,构建AI 云服务 17
图28 : GPU 容器共享技术可依托K8S 与调度算法实现 18
图29 : AI 算力网络在算力池化基础上,通过AI-VPC 实现多租户隔离 19
图30 : 租户隔离与多租户资源调度优化是优化AI 算力资源的一大重点 19
图31 : 资源层、代码层到系统层的各级优化实现是定制化服务能力的一大核心20
图32 : 业内主要通过RDMA 技术实现大带宽、低时延的端到端通信,其中InfiniBand 是主要实现方式21
图33 : 智能算力需要应对不同场景对带宽、时延的需求21
请务必参阅正文后面的信息披露和法律声明 2 / 28
文档评论(0)