MindSpore Transformers套件的目标是构建一个大模型训练、推理、部署的全流程套件: 提供业内主流的Transformer类预训练模型, 涵盖丰富的并行特性。 期望帮助用户轻松的实现大模型训练。 文档:mindformers.readthedocs.io/en/r0.3/
最近更新: 12个月前OPT(Omni-Perception Pre-Trainer)是全场景感知预训练模型的简称,中文名字叫紫东太初,是中科院自动化和华为联合研发的多模态预训练模型,本仓是紫东太初十亿参数级别模型的MindSpore版本代码,包含预训练模型及多个下游任务模型。
最近更新: 1年前MindSpore实验,仅用于教学或培训目的。配合MindSpore官网使用。 MindSpore experiments, for teaching or training purposes only. Use it together with the MindSpore official website.
最近更新: 1年前