代码拉取完成,页面将自动刷新
同步操作将从 Ascend/MindSpeed 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
当前所有大模型训练客户场景都采用混精训练,导致在训练过程中持续保存了计算权重与状态权重。实际上,两者所使用的生命周期并没有重叠,故可通过数值变换的方式等价去除冗余。
基于大模型混合精度训练中BF16计算参数(负责前后向计算)及FP32参数副本(负责参数更新)不需同时存在的特点,和两者在数值上的对应关系,设计内存共用算法。
具体算法步骤如下:
参数副本复用流程如下图所示:
数值变化的详细逻辑如下图所示:
--use-distributed-optimizer
)。设置--reuse-fp32-param
,即可调用该算法。
对于Float16OptimizerWithFloat16Params,整体能够节省sizeof(bfloat16)*模型参数量
的静态内存,性能劣化在多个模型上测试小于1%。
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。