HanLP 多任务模型只需要NER,服务化部署后,感觉有些慢,请问有没有加速策略呢?感谢

HanLP 多任务模型只需要NER,我在CPU上服务化部署后,感觉有些慢,请问有没有加速策略呢?
看到bbs上,有人提出onnx方式,但好像不一定会比现在变快
想请教一下大家,感谢感谢

CPU模式下可以试试llama.cpp