有个疑问,为什么ltp,hanlp都用electra,而不是其他预训练模型?

有个疑问,为什么ltp,hanlp都用electra,而不是其他预训练模型?

HanLP有发布ERNIE模型:ERNIE-Gram中文MTL模型发布 在大部分任务上效果比electra好。

electra只不过是训练数据达到200+G而已,其实在英文上还不如roberta。

谢谢。好的,明白了