有个疑问,为什么ltp,hanlp都用electra,而不是其他预训练模型?
HanLP有发布ERNIE模型:ERNIE-Gram中文MTL模型发布 在大部分任务上效果比electra好。
electra只不过是训练数据达到200+G而已,其实在英文上还不如roberta。
谢谢。好的,明白了