MindSpore超大规模AI技术及在Transformer和推荐大模型中的应用.pdfVIP

MindSpore超大规模AI技术及在Transformer和推荐大模型中的应用.pdf

  1. 1、本文档共38页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
昇思MindSpore超大规模AI技术 - Transformer和推荐大模型中的应用 苏腾 华为昇思MindSpore副首席专家 目 录 1. 大模型的发展趋势和挑战 2. 昇思MindSpore的解决方案和实践 • 大模型分布式并行训练推理关键技术 • Transformer类大模型训练实践 • 推荐大模型训练实践 • 自动化并行策略搜索 3. 昇思MindSpore大模型生态建设 模型增长与算力增长的剪刀差 如何解决模型的 “摩尔定律”与算力的 “摩尔定律”不匹配的问题 模型向多模态多任务演进 ,趋向 “One Model, One Brain” • 算力需求增长万倍 : • 模型规模增长万倍 ; • 数据量增长百倍 ; • 芯片算力只增长了十倍 ; 大集群训练大模型的挑战 解决方案 内存墙 :2000亿参数模型 ,参数内存 占用745GB内存 ,训练过程需要 3500GB+内存 (参数 +激活 +梯度 +优化器状态),一个模型需要128张卡才 能放下。 • Scale out :多维混合并行 (数据并行、 模型并行、流水并行、MoE并行、优 性能墙 :大模型切分到集群后 ,通信成了主要的性能瓶颈 ,综合考虑参数 化器并行、多实例并行) 量、计算量、计算类型、集群带宽拓扑和样本数量等才能设计出性能较优的并 • Scale up :多维内存优化 (内存复用、 行切分策略; 重计算、异构并行CPU Offload、 Tensor Swap、NVMe Offload), 图算融合 效率墙 :算法的分布式并行开发一直并行计算领域的一大难题 ,如何让用 户高效编写分布式并行的代码 ,一直是各种框架的一个研究重点及难点 ,包 括从HPC到大数据 ,到现在的超大规模AI。HPC有MPI编程范式 ,大数据有 • 手工并行半 自动并行自动并行 MapReduce编程范式 ,而超大规模AI需要怎样的编程范式? 调优墙 :在数千节点集群上 ,要保证计算的正确性/性能/可用性 ,手工难以 全面兼顾。 • 可视化集群调试调优、弹性分布式训练 MindSpore上的典型Transformer大模型 1. 鹏程盘古NLP 2. 鹏程神农蛋白质结构 3. 华为云盘古NLP 4. 中科

文档评论(0)

***** + 关注
实名认证
文档贡献者

信息系统项目管理师持证人

该用户很懒,什么也没介绍

领域认证该用户于2023年08月23日上传了信息系统项目管理师

1亿VIP精品文档

相关文档