环球热门:如何加速大模型开发?技术方案拆解来了:昇思 MindSpore 技术一览
随着ChatGPT爆火出圈,狂飙之势从22年底持续到23年初,与以往的技术突破不同的是,此次的大模型不仅被技术界关注,而且备受投资界、产业界和大
随着 ChatGPT 爆火出圈,狂飙之势从 22 年底持续到 23 年初,与以往的技术突破不同的是,此次的大模型不仅被技术界关注,而且备受投资界、产业界和大众消费者的追捧,使它成为历史上最快月活过亿的现象级应用,继而引发全球科技巨头的 AI 竞赛。
(资料图)
大模型的高智能化离不开对模型的大规模预训练,这背后需要强大的 AI 框架作底层支持。面对动辄千亿级参数的大模型,如何使能广大开发者和用户进行开发,在当前大模型研究分秒必争之时弯道超车?且让我们顺着大模型技术的方案拆解,一探昇思 MindSpore AI 框架的技术能力。
预训练大模型的开发之路大规模预训练—— GPT3 与鹏程 . 盘古
2020 年,OpenAI 祭出了远超同期所有预训练模型的大杀器 GPT3。凭借着 1750 亿参数量,300B Token 的预训练,GPT3 展现出非常强悍的自然语言处理能力,包括:
文本生成:根据 Prompt 来续写(补全)句子。
上下文学习 ( In-context Learning ) : 遵循给定任务的几个示例,然后为新的测试用例生成解决方案。
世界知识 ( World Knowledge ) : 包括事实性知识和常识。
此时与 GPT3 同量级的大规模预训练语言模型仍是国内外难以逾越的大山。2021 年 4 月,基于昇思 MindSpore AI 框架的多维度自动混合并行能力,以鹏城实验室为首的联合科研团队在大规模 AI 算力平台鹏城云脑 II 上,训练出业界首个 2000 亿参数、以中文为核心的预训练生成语言模型鹏程 . 盘古。联合团队从开源开放数据集、common crawl 网页数据、电子书等收集了近 80TB 原始数据,搭建了面向大型语料库预处理的分布式集群,通过数据清洗过滤、去重、质量评估等处理流程,构建了一个约 1.1TB 大小的高质量中文语料数据集,经统计 Token 数量约为 250B 规模。
凭借着与 GPT3 相同量级的参数量,鹏程 . 盘古预训练模型拥有不逊于 GPT3 的上下文学习和世界知识能力。
△图 1 鹏程 . 盘古模型架构利用昇思 MindSpore AI 框架的自动并行能力,开发者只需一行代码就能实现模型自动切分、分布式并行计算,省却大量复杂设计,在大集群上高效训练千亿至万亿参数模型。关于昇思 MindSpore 的自动并行能力,这里先按下不表,让我们继续看下一个技术要素。
思维链的必经之路—— Code 预训练
思维链(Chain of Thoughs,即链式思维推理)是大模型能够拥有拟人化对话能力的关键。在 GPT3 之后,思维链能力开始被认为是通过 few shot learning 进行激发,后续有 "lets think step by step" 的 zero shot prompt 进一步触发了该能力。但是此时的大模型仍旧仅限于在各类数据集上呈现弱思维链能力。
直到代码数据的预训练模型出现并融入到自然语言预训练模型中,大模型的思维链接能力跃上新的台阶。下图是 OpenAI 从 GPT3 以来的演进路线图。左侧的分支是代码大模型的持续演进,一直到 code-davinci-002 将 LM 和 Code 训练进行融合,再加入 instruct tuning,最终催生出耳熟能详的 ChatGPT。
△图 2 ChatGPT 演进路线2022 年 9 月,清华大学团队基于昇思 MindSpore 1.7 研发了 CodeGeeX 代码预训练大模型,并使用鹏城实验室的大规模 AI 算力平台(鹏城云脑 II)进行训练。CodeGeeX 的训练语料由两部分组成:第一部分是开源代码数据集,The Pile 与 CodeParrot;第二部分是补充数据,直接从 GitHub 开源仓库中爬取 Python、Java、C++ 代码。整个代码语料含有 23 种编程语言、总计 1587 亿个标识符(不含填充符)。
在开发与训练过程中,清华大学与昇思 MindSpore 团队深度合作,实现了一系列算子融合优化,包括单元素算子融合、层归一化算子融合、FastGelu 与矩阵乘法融合、批量矩阵乘法与加法融合等 , 为训练速度带来了显著提升。
撬动人类的智慧—— RLHF 与 PPO
ChatGPT 令人震惊的能力在于其能够真正拟人化地进行对话,生成内容更加符合人类的认知和价值观。在大模型已经具备充足的世界知识、上下文学习能力和思维链能力的情况下,虽然可以在各大 NLP 数据集持续刷榜,但是仍旧存在一个问题——与人类的表达习惯差异巨大。而 ChatGPT 的前身 InstructGPT,向我们展示了人类反馈加入模型训练的循环当中,所能呈现的巨大改变,那就是 RLHF(Reinforcement Learning from Human Feedback,即使用人类反馈强化学习)。
RLHF 技术主要分为如下 4 个步骤:
1 ) 无监督预训练 : 预训练一个语言模型如 GPT-3。
2 ) 有监督的微调:生成一组 Prompt,以及对每个 Prompt 的人类反馈。即一个由对组成的训练数据集。然后对预训练的模型进行微调。,answer>
3 ) 训练 " 人类反馈 " 的奖励模型:建立一个奖励模型,对预训练语言模型输出进行评分。首先给定一组 Prompt,机器生成对这些指令的 Answer,并由人类对其质量进行评分或排名。使用这个数据集来训练一个奖励模型,为任何对输出一个质量分数。,answer>
4 ) 训练一个基于奖励模型进行优化的强化学习策略。
下图是 RLHF 的核心 PPO 算法的示意图:
△图 3 PPO 算法逻辑针对 RLHF 所需的强化学习算法,昇思 MindSpore 进行了布局,发布 MindSpore Reinforcement Learning 套件,为编写强化学习算法提供了简洁的 API 抽象,将算法与部署和调度解耦;将强化学习算法转换为一系列编译后的计算图,然后由昇思 MindSpore AI 框架在昇腾 AI 处理器、CPU、GPU 上高效运行。目前 MindSpore Reinforcement Learning 套件提供下述能力:
1 ) 提供丰富的强化学习算法:当前已支持 15+ 经典强化学习算法,涵盖 Model-free/Model-based/Offline-RL/Imitation Learning,单智能体 / 多智能体,连续 / 离散动作空间,Episodic/Non-Episodic 等算法;接入 Mujoco、MPE、StarCraft2、DeepMind Control 等常用模拟环境。
2 ) 专注高性能训练:通过计算图和 ReplayBuffer 加速、异步环境并行和高性能领域组件,已支持算法的平均吞吐率相比主流框架提升 120%。
3 ) 支持大规模分式训练:通过将强化学习算法分割成多个数据流片段(Fragmented Dataflow Graphs),并映射到异构设备上高效执行,对比业界主流框架实现了 3~5 倍的性能提升。
昇思 MindSpore 使能大模型历程
随着 AI 技术的发展,预训练大模型成为世界各科技强国竞争的焦点。预训练大模型率先在自然语言处理领域取得突破性的进展,并迅速拓展到涉及图像、视频、图形、语言等跨媒体推理的各类任务和大量的商业应用之中,展现了巨大的发展潜力。在过去的几年,产业界基于昇思 MindSpore 先后发布了一系列有影响力的大模型,下图为这些大模型的训练时间轴。
△图 4 昇思 MindSpore 大模型历程上图模型结构涉及 Transformer Encoder、Transformer Decoder、MOE、乃至 Clip 与 Diffusion,均基于昇思 MindSpore AI 框架训练。
昇思 MindSpore 具备丰富的并行能力,能轻松完成 4096 卡集群、万亿参数规模的训练任务,因此支撑了国内多个领域首发大模型的训练,这些大模型涉及知识问答、知识检索、知识推理、阅读理解、文本 / 视觉 / 语音多模态、生物制药、遥感、代码生成等。
大模型的底座——昇思 MindSpore 的分布式并行能力
在梳理完 ChatGPT 的技术方案和昇思 MindSpore 的大模型历程之后,我们再深入展开昇思 MindSpore AI 框架支撑一众大模型的核心——分布式并行能力。
分布式训练
昇思 MindSpore 支持当前主流的分布式训练范式并开发了一套自动混合并行解决方案,提供以下关键技术:
1)数据切片预处理:对训练数据进行任意维度切片后再导入到设备进行训练;
2)算子级并行:对正向网络中的每个算子都独立建模,每个算子可以拥有不同的切分策略;
3)优化器并行:将数据并行的参数副本切分到多个设备上,以节省内存占用;
4)Pipeline 并行:将神经网络中的计算图切分成多个阶段 ( Stage ) ,再把阶段映射到不同的设备上,使得不同设备去计算神经网络的不同部分;
5)MOE 并行:为每个专家分配专门的计算任务,不同的专家可以托管在不同的设备上;
6)多副本并行:在一个迭代步骤中,将一个训练 batch 拆分成多个 micro-batch,将模型并行通信与计算进行并发;
7)异构并行:将算子分配到异构硬件上执行,充分利用硬件资源,提升整体训练吞吐量;
8)正向重计算:在正向计算时,不保存占用大量内存的中间输出结果,而是保存占用少量内存的输入;而在反向计算时,根据输入重新计算正向输出,从而大大削减正向计算累积的内存峰值;
9)全局内存复用:对计算图进行静态编译寻优得到最优内存复用策略;
相较于业界的深度学习框架或分布式并行框架,昇思 MindSpore 在分布式关键技术上,支持能力范围广、自动化程度高、易用性好,具备如下优势:
1)支持的模型类型更丰富(Transformer、超分图像、推荐等),通用性更强,而像业界 Megatron 框架则是面向 Transformer 定制的框架;
2)相同算力和网络下,丰富的并行策略可实现更大的计算通信比,性能更优(相同硬件平台 ( V100、A100 ) ,性能超越 Megatron 15%);
3)并行策略丰富,无需手动切分,大模型开发和调优效率优于业界;
分布式推理
相较于训练,推理对计算性能的要求更高。如何在集群上实现高效快速的大模型推理,是目前各种框架研究的一个重点和难点。为了解决上述问题,昇思 MindSpore 提出了分布式推理 + 增量推理的解决方案,使用数据并行、模型并行、流水并行等多维度混合并在大集群上面进行推理。此外,由于 Transformer Decoder 类自回归语言模型,在传统的推理模式下存在很多重复计算,昇思 MindSpore 提供的增量推理能力能够省掉这些重复计算,增强推理效率。
△图 5 增量推理流程图如上图所示,第一阶段将使用完整输入推理,保存当前字(词)对应的向量。在第二阶段,输入仅为上一步推理得到的字(词),然后将本步推理得到的向量与保存下来的前序向量拼接,作为本步推理的完整向量,得到本步的输出字(词)。重复以上两个阶段。
极简易用的大模型训练——大模型套件
在现有的大模型开发过程中,用户经常会发现 SOTA 基础模型代码非模块化从而影响进一步的创新开发。不仅如此,用户在模型实现中,经常找不到对应的 SOTA 模型以及相应的下游任务,从而加长了开发周期,影响论文或项目的进度。为了解决这些痛点,基于昇思 MindSpore 的大模型套件—— MindSpore Transformers 应声而出。
MindSpore Transformers 是基于昇思 MindSpore 的深度学习大模型开发套件,其目标是构建一个大模型训练、微调、评估、推理、部署的全流程开发套件。套件覆盖了 CV、NLP 等 AIGC 的热门领域,提供模型生命周期中的全流程快速开发能力,支持开箱即用,并具有四个特点:
MindSpore Transformers 中提供了非常丰富的预置模型,包含了当下典型的预训练大模型 ( Bert、T5、VIT 等 ) ,涵盖当下 CV、NLP 等 AIGC 的热门领域。同时,套件也包含了丰富的下游微调任务,精度与 SOTA 基本持平。
MindSpore Transformers 中提供了统一的开发范式。套件开放了 Trainer、pipeline 等特性接口,实现模块化、配置化的开发,大大提高典型模型 ( 尤其是基于 transformer 结构的网络 ) 的开发效率。模型部署方面, 套件支持昇腾 AI 基础软硬件平台,提供了一键云上部署接口。
MindSpore Transformers 提供了统一的对外接口。在现有版本中,套件和业界流行的 Huggingface 接口保持一致,用户可以一键切换,从而极大地降低代码迁移的成本。
MindSpore Transformers 套件天然包含昇思 MindSpore AI 框架自身优势,包含多维度并行 ( 模型并行、流水线并行、优化器并行、多副本并行等 ) 、图算融合等能力,可以在模型训练时有效地提升内存使用效率和速度,帮助用户快速训练百亿、千亿甚至是万亿级别的模型。
△图 6 MindSpore Transformers 架构图通过以上技术拆解和案例可以看出,昇思 MindSpore 发展至今,已经具备了支持大模型开发所需的各项核心技术,同时提供了一整套高效、易用的大模型使能套件,形成了端到端的使能大模型开发能力。昇思 MindSpore AI 框架为助力大模型创新、繁荣 AI 产业生态铺就了一条信心之路。
△图 7 昇思 MindSpore 原生支持大模型的能力优势欢迎使用昇思 MindSporeAI 框架:
https://mindspore.cn/
https://gitee.com/mindspore/mindformers
引用:
[ 1 ] Zeng W, Ren X, Su T, et al. Large-scale Autoregressive Pretrained Chinese Language Models with Auto-parallel Computation [ J ] . arXiv preprint arXiv:2104.12369
[ 2 ] https://yaofu.notion.site/GPT-3-5-360081d91ec245f29029d37b54573756
[ 3 ] https://huggingface.co/blog/rlhf
[ 4 ] https://aijishu.com/a/1060000000222564
[ 5 ] https://gitee.com/mindspore/mindformers/wikis/%E7%89%B9%E6%80%A7%E8%AE%BE%E8%AE%A1%E6%96%87%E6%A1%A3
* 本文系量子位获授权刊载,观点仅为作者所有。
— 完—
量子位 QbitAI
" " 追踪 AI 技术和产品新动态
一键三连「分享」、「点赞」和「在看」
科技前沿进展日日相见 ~
随着ChatGPT爆火出圈,狂飙之势从22年底持续到23年初,与以往的技术突破不同的是,此次的大模型不仅被技术界关注,而且备受投资界、产业界和大
据中国侨网援引中国驻突尼斯大使馆网站消息,近期,突尼斯政府进一步明确中国公民持因私护照入境签证政策,具体如下: 一、对10人以上中国
非洲今年经济发展任务繁重
1、这个淘宝上应该有卖吧,说实话津巴布韦的钱真不值钱,100万亿等于2美金。2、100张的连号100万亿的津巴布韦币也就
俄罗斯要求美国从乌克兰撤军撤出美国和北约军人及装备!今天的关注度非常高,直接上了热搜榜,那么具体的是什么情况呢,大家可
斑嘴鸭在河畔栖息张瑶摄斑嘴鸭和柯尔鸭在河中悠闲戏水张瑶摄柯尔鸭在河中悠闲地游动张瑶摄斑嘴鸭和柯尔鸭在河中悠闲戏水张瑶摄斑嘴鸭和柯尔鸭
近日上海市公安局虹口分局嘉兴路派出所接到市民汪女士报案称其被诈骗了150万元汪女士与秦某相识于饭局其自称是已故高级将领之子目前担任高级军
【手机中国新闻】在去年8月份的OPPO开发者大会上,OPPO带来了备受期待的ColorOS13系统。2月22日,手机中国注意到,ColorOS13更新现在支
大家好!来一起关注今天上午市场的开盘情况及最新资讯~昨夜外盘暴跌,A股市场开盘数据也不够理想:2月22日上午,A股各主要指数开盘全线飘绿:
夏弥来为大家解答以下的问题,无爱之战,说一说无爱之战的简介,现在让我们一起来看看吧!1、《无爱之战(LOVELESS)》
解答:1、点击右下角的电池图标找到电池图标,左键点击,然后点击调整屏幕亮度。2、设置弹出的对话框以更改计划,找到更改计划
1、钟点工和小时工,就像他们的名字一样,利用业余时间赚取提成和工资作为回报。2、代码:这就是我要推荐的!空闲时间用软件赚
央广网上海2月21日消息(记者林馥榆)错过了去年的“青团季”,今年惹人馋的“绿胖子”提前一个月回归。近日,上海多家老字号的时令青团陆续上
北京日报客户端|记者王天淇通讯员霍安冬彭振莹近日,一只国家“三有”保护动物秋沙鸭被困京密引水渠渠道,经过工作人员的紧急施救,“小家伙”
图片来源@视觉中国文|白鲸出海海外互动小说赛道,一直凭借超强的吸金能力吸引着从业者的目光。过去一年,也看到了诸如网易、无
每经AI快讯,有投资者在投资者互动平台提问:1 2022年销售费用下降的原因除了铝产品销售过程中运输费、装卸费根据合同条款列入合同履约成本外
汇丰控股周二公布,去年第四季度税前利润飙升92%,因利率上升推动其净利息收入激增。这促使这家欧洲最大的银行重申,可以实现
中科电气(300035)02月21日在投资者关系平台上答复了投资者关心的问题。
欢迎观看本篇文章,小升来为大家解答以上问题。中国大学排名前十,十强排行榜很多人还不知道,现在让我们一起来看看吧!1、北京
1、郭芙蓉,古装情景喜剧《武林外传》及电影版《武林外传》中人物之一。2、郭芙蓉本来是拼郭芙的,可宁财神在用“全拼”输入法