bert 模型字典

看到bert模型的字典中的"[UNK]", “[PAD]”, “[CLS]”, “[SEP]”, "[MASK]"顺序和TensorFlow中的不一样,这样不会影响模型效果吗

@eric-haibin-lin

没有关系 转过来的模型参数的embedding层也相应的把顺序换过来了。最近新转的一些bert模型是和原字典的顺序完全一致的。正确性都没有问题。