Skip to content

export_model后在cppinfer中无法直接使用 #12

@hanliangwei

Description

@hanliangwei

n

m

在windows下cmake编译了cpp_infer,然后下载上图中的推理模型,是可以正常使用的
然后下载上图中的训练模型,并直接使用命令
python tools/export_model.py -c configs/rec/PP-OCRv3/ch_PP-OCRv3_rec_distillation.yml -o Global.pretrained_model=./ckpt/best_accuracy Global.save_inference_dir=./inference_model/ch_PP-OCRv3_rec/
推理出来后,在python中是可以推理的,但是在cpp中推理就会crash,crash在paddle_inference.dll里的识别接口中。
同样也是.pdmodel的文件比较小,请问该如何处理呢

Metadata

Metadata

Assignees

No one assigned

    Labels

    No labels
    No labels

    Projects

    No projects

    Milestone

    No milestone

    Relationships

    None yet

    Development

    No branches or pull requests

    Issue actions