开发者

tensorflow转onnx的实现方法

安装tf2onnx以及onnxruntime

pip install onnxruntime
pip install tf2onnx

tf 转为onnx步骤为如下:

  • 将tf动态图冻结,生成冻结后的pb文件
  • 使用tf2onnx 将pb文件转为onnx文件

将tf动态图冻结使用如下代码:

def export_frozen_graph(model, model_dir, name_pb) :
 f = tf.function(lambda x: m开发者_Python学习odel(inputs=x))
 f = f.get_concrete_function(x=(tf.TensorSpec(model.inputs[0].shape, model.inputs[0].dtype)))
 frozen_func = convert_variables_to_constants_v2(f)
 frozen_func.graph.as_graph_def()

 print("-" * 50)
 print("Frozen model inputs: ")
 print(frozen_func.inputs)
 print("Frozen model outputs: ")
 print(frozen_func.outputsjavascript)

 tf.io.write_graph(graph_or_graph_def=frozen_func.graph,
      logdir=model_dir,
      name=name_pb,
   编程   as_text=False)

使用tf2onnx 将pb文件转为onnx文件时需要在终端执行,需要指出的是大部分tf模型的输入layout都是NHWC,而ONNX模型的输入layout为NCHW,因此建议在转换的时候加上--inputs-as-nchw这个选项,其他选项可以android参考文档,非常详细,具体运行命令如下:

python -m tf2onnx.convert --input yolo.pb --output model.onnx --outputs Identity:0,Identity_1:0,Identity_2:javascript0 --inputs x:0 --inputs-as-nchw x:0 --opset 10

参数说明:

  • input 输入的pb模型
  • output 输出的onnx文件名
  • inputs 输入层名字,有多个输入时,中间用逗号隔开
  • outputs 输出层名字,有多个输出时,中间用逗号隔开
  • –inputs-as-nchw 将输入作为nchw格式,注意加上输入层名字
  • –opset onnx 版本号

通过程序直接转:

tf2onnx.convert.www.devze.comfrom_keras(model, inputs_as_nchw=[model.inputs[0].name], output_path=model_filepath + 'yolo.onnx') --opset 10

到此这篇关于tensorflow转onnx的实现方法的文章就介绍到这了,更多相关tensorflow转onnx内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

0

上一篇:

下一篇:

精彩评论

暂无评论...
验证码 换一张
取 消

最新开发

开发排行榜