代码拉取完成,页面将自动刷新
同步操作将从 MindSpore/mindformers 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
model:
model_config:
type: GPT2Config
seq_length: 1024
vocab_size: 50257
embedding_size: 5120
num_layers: 40
num_heads: 40
expand_ratio: 4
hidden_act: "fast_gelu"
dropout_prob: 0.0
hidden_dropout_prob: 0.1
attention_probs_dropout_prob: 0.1
initializer_range: 0.02
param_init_type: "float16"
layernorm_dtype: "float32"
softmax_dtype: "float16"
compute_dtype: "float16"
checkpoint_name_or_path: ""
eos_token: 50256
repetition_penalty: 1
max_decode_length: 1024
top_k: 5
top_p: 1
do_sample: True
arch:
type: GPT2LMHeadModel
processor:
return_tensors: ms
tokenizer:
unk_token: '<|endoftext|>'
bos_token: '<|endoftext|>'
eos_token: '<|endoftext|>'
pad_token: '<|endoftext|>'
type: GPT2Tokenizer
type: GPT2Processor
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。