代码拉取完成,页面将自动刷新
同步操作将从 MindSpore/mindformers 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
model:
model_config:
type: BertConfig
use_one_hot_embeddings: False
num_labels: 1
dropout_prob: 0.1
batch_size: 128
seq_length: 128 #length of input sentence
vocab_size: 30522 #size of vocab
hidden_size: 768 #size of text feature
num_hidden_layers: 12 #model depth
num_attention_heads: 12 #number of attention heads
intermediate_size: 3072 #hidden_size*4
hidden_act: "gelu" #activation
post_layernorm_residual: True #select postlayernorm or prelayernorm
hidden_dropout_prob: 0.1
attention_probs_dropout_prob: 0.1
max_position_embeddings: 512
type_vocab_size: 2
initializer_range: 0.02
use_relative_positions: False
use_past: False
checkpoint_name_or_path: ""
arch:
type: BertForPreTraining
processor:
return_tensors: ms
tokenizer:
cls_token: '[CLS]'
do_basic_tokenize: True
do_lower_case: True
mask_token: '[MASK]'
pad_token: '[PAD]'
sep_token: '[SEP]'
type: BertTokenizer
unk_token: '[UNK]'
type: BertProcessor
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。