代码拉取完成,页面将自动刷新
同步操作将从 MindSpore/mindformers 强制同步,此操作会覆盖自 Fork 仓库以来所做的任何修改,且无法恢复!!!
确定后同步将在后台操作,完成时将刷新页面,请耐心等待。
model:
model_config:
type: BertConfig
use_one_hot_embeddings: False
num_labels: 31
dropout_prob: 0.1
batch_size: 24
seq_length: 128 # length of input sentence
vocab_size: 21128 # size of vocab
embedding_size: 768 # size of text feature
num_layers: 12 # model depth
num_heads: 12 # number of attention heads
expand_ratio: 4
hidden_act: "gelu" # activation
post_layernorm_residual: True # select postlayernorm or prelayernorm
hidden_dropout_prob: 0.1
attention_probs_dropout_prob: 0.1
max_position_embeddings: 512
type_vocab_size: 2
initializer_range: 0.02
use_relative_positions: False
use_past: False
compute_dtype: "float32"
checkpoint_name_or_path: "tokcls_bert_base_chinese_cluener"
arch:
type: BertForTokenClassification
processor:
type: BertProcessor
return_tensors: ms
tokenizer:
type: BertTokenizer
cls_token: '[CLS]'
mask_token: '[MASK]'
pad_token: '[PAD]'
sep_token: '[SEP]'
unk_token: '[UNK]'
is_tokenize_char: True
do_lower_case: False
checkpoint_name_or_path: tokcls_bert_base_chinese
此处可能存在不合适展示的内容,页面不予展示。您可通过相关编辑功能自查并修改。
如您确认内容无涉及 不当用语 / 纯广告导流 / 暴力 / 低俗色情 / 侵权 / 盗版 / 虚假 / 无价值内容或违法国家有关法律法规的内容,可点击提交进行申诉,我们将尽快为您处理。