HanLP 多任务模型只需要NER,我在CPU上服务化部署后,感觉有些慢,请问有没有加速策略呢? 看到bbs上,有人提出onnx方式,但好像不一定会比现在变快 想请教一下大家,感谢感谢
CPU模式下可以试试llama.cpp