华西证券:AIGC行业深度报告(5)-ChatGPT-加速计算服务器时代到来.pptx

华西证券:AIGC行业深度报告(5)-ChatGPT-加速计算服务器时代到来.pptx

  1. 1、本文档共36页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
ChatGPT: 加速计算服务器时代到来 AIGC行业深度报告(5) 华西计算机团队 2023年3月8日 分析师:刘泽晶 SAC NO:S1120520020002 邮箱: liuzj1@ 仅供机构投资者使用 证券研究报告|行业深度研究报告 请仔细阅读在本报告尾部的重要法律声明  大模型出现有望带动AI服务器需求爆发 我们认为ChatGPT具备跨时代的意义的本质是AI算法大模型,因此科技巨头已经开始算力“军备赛”,大模型的出现有望带动AI服务器 需求爆发。服务器架构随负载量扩张不断优化,已经经历传统单一部署与集群模式,目前正处于分布式模式的转变阶段。 CPU、内部存储和外部 存储是服务器的核心部件。  加速计算是服务器成长的核心驱动力 按照CPU指令集架构的差异,服务器可分为CISC(复杂指令集)、 RISC(精简指令集)、VLIM等架构,代表架构为X86。人工智能应用场景下的 加速计算服务器是中国服务器的核心驱动力 ,AI服务器相较于通用服务器区别在于硬件架构、加速卡数量与设计方面;我们认为AI服务器众芯片 组为服务器的核心,且价值成本占比较高。  算力时代到来,服务器价值再次凸显 我们认为服务器是“伴科技类”的硬件产品,随着科技的服务形式和应用方式不断进步,服务器同样在不断迭代升级或更新换代,近年 来随着互联网+、云计算、 AI+、边缘计算的出现,服务器市场迎来了极大的发展;根据IDC的数据显示,国家计算力指数与GDP/数字经济的走势 呈现出了显著的正相关, 而AI服务器作为算力载体为数字经济时代提供广阔动力源泉,更加凸显其重要性。  投资建议: 关注两条投资主线: 1)AI服务器生产商,重点推荐中科曙光,其他受益标的为浪潮信息、拓维信息、神州数码; 2)具备算力芯片的厂商,受益标的为寒武纪、海光信息、龙芯中科、景嘉微。  风险提示: 核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。 核心逻辑: 2 目录 01 AI服务器需求呈现加速状态 02 拥抱AI服务器的星辰大海 03 投资建议: 梳理AIGC相关受益厂商 04 风险提示 3 01 AI服务器需求呈现加速状态 4  大模型是人工智能发展的必然趋势 : 大模型即“大算力+强算法”结合的产物。大模型通常是在大规模无标注数据上进行训练,学习出 一种特征和规则。基于大模型进行应用开发时,将大模型进行微调,如在下游特定任务上的小规模有标注数据进行二次训练,或者不进 行微调,就可以完成多个应用场景的任务。  大模型是辅助式人工智能向通用性人工智能转变的坚实底座 : 大模型增强了人工智能的泛化性、通用性,生产水平得到质的飞跃 ,过去 分散化模型研发下,单一AI应用场景需要多个模型支撑,每个模型需要算法开发、数据处理、模型训练、参数调优等过程。大模型实现 了标准化AI研发范式,即简单方式规模化生产,具有“预训练+精调”等功能,显著降低AI开发门槛,即“低成本”和“高效率”。  算力是打造大模型生态的必备基础,服务器是算力的载体 : 算力是训练大模型的底层动力源泉,一个优秀的算力底座在大模型(AI算法) 的训练和推理具备效率优势;服务器是算力的底层载体,包含CPU、GPU、内存、硬盘、网卡等,在ChatGPT中具有举足轻重的作用,算 力是服务器通过对数据进行处理后实现结果输出的一种能力。 资料来源: IDC,华西证券研究所 5 1.1 ChatGPT的竞争本质即大模型储备竞赛 数据、平台、算力、算法关系示意图  我们认为大模型的出现有望带动AI服务器需求: 我们认为除了对低延迟低功耗算力的性能需求,在服务器的种类上也产生了多样化、细 分化的场景应用需求。各行业与人工智能技术的深度结合及应用场景的不断成熟与落地,使人工智能芯片朝着多元化的方向发展,为了 迎合芯片的多元化,服务器的类型也将越来越丰富,并适用越来越多的行业应用场景。根据IDC的数据,在2021年的统计,预计到 2025年中国加速服务器市场规模将达到108.6亿美元,且2023年仍处于中高速增长期,增长率约为20%。  AI大模型对算力的需求分别来自训练和推理两个环节。 1)训练环节:通过标记过的数据来训练出一个复杂的神经网络模型,使其能够 适应特定的功能,模型具有一定的通用性,以便完成各种各样的学习任务。该环节需要处理海量的数据,注重绝对的计算能力。2)推 理环节:利用训练好的模

文档评论(0)

专注于能源管理领域开发、方案设计、实施等,可承接开发咨询、方案设计文档等多方面内容。

1亿VIP精品文档

相关文档

相关课程推荐