飞桨paddle模型导出安卓端可以运行的nb文件
1,打开cmd 输入 pip install paddlelite 回车,安装paddlelite工具;2,运行 main.py文件# paddle模型导出安卓端可以运行的nb文件#paddlehub模型库网址:https://www.paddlepaddle.org.cn/hublist# 引用Paddlelite预测库from paddlelite.lite import *def conve
·
1,打开cmd 输入 pip install paddlelite 回车,安装paddlelite工具;
2,运行 main.py文件
# paddle模型导出安卓端可以运行的nb文件
#paddlehub模型库网址:https://www.paddlepaddle.org.cn/hublist
# 引用Paddlelite预测库
from paddlelite.lite import *
def convert():
# 1. 创建opt实例
opt = Opt()
# 2. 指定输入模型地址
opt.set_model_file(r"D:\project\pymodel\pandel\inference_model\__model__")
opt.set_param_file(r"D:\project\pymodel\pandel\inference_model\__params__")
# opt.set_model_dir(r"D:\project\nb\model\ace2p\ace2p_human_parsing")
# 3. 指定转化类型: arm、x86、opencl、npu
opt.set_valid_places("arm")
# 4. 指定模型转化类型: naive_buffer、protobuf
opt.set_model_type("naive_buffer")
# 4. 输出模型地址
opt.set_optimize_out("model_opt")
# 5. 执行模型优化
opt.run()
# opt.run_optimize("", "", "model.pdparams", "arm,npu", "deepl3p_opt")
if __name__ == '__main__':
print('导出模型开始....')
convert()
print('导出结束.....')
更多推荐
已为社区贡献4条内容
所有评论(0)