Bootstrap

『paddle』X2Paddle 学习笔记:模型转换与部署


一、简介

X2Paddle 是飞桨生态下的模型转换工具,致力于帮助其它深度学习框架用户快速迁移至飞桨框架。目前支持 推理模型的框架转换PyTorch训练代码迁移,提供了详细的不同框架间 API 对比文档,降低开发者上手飞桨核心的学习成本。

二、特性

  • 支持主流深度学习框架
    目前已经支持 Caffe/TensorFlow/ONNX/PyTorch 四大框架的预测模型的转换,PyTorch 训练项目的转换,涵盖了目前市面主流深度学习框架

  • 支持的模型丰富
    在主流的 CV 和 NLP 模型上均支持转换,涵盖了 19+ 个 Caffe 预测模型转换、27+ 个 TensorFlow 预测模型转换、32+ 个ONNX预测模型转换、27+ 个 PyTorch 预测模型转换、2+ 个 PyTorch 训练项目转换,详见 支持列表

  • 简洁易用
    一条命令行或者一个 API 即可完成模型转换

三、能力

  • 预测模型转换
    支持 Caffe/TensorFlow/ONNX/PyTorch 的模型一键转为飞桨的预测模型,并使用 PaddleInference/PaddleLite 进行 CPU/GPU/Arm 等设备的部署

  • PyTorch训练项目转换
    支持 PyTorch 项目 Python 代码(包括训练、预测)一键转为基于飞桨框架的项目代码,帮助开发者快速迁移项目,并可享受 AIStudio平台

  • API对应文档
    详细的 API 文档对比分析,帮助开发者快速从 PyTorch 框架的使用迁移至飞桨框架的使用,大大降低学习成本 【新内容,了解一下!】

四、安装

4.1 环境依赖

  • python >= 3.5
  • paddlepaddle >= 2.0.0
  • tensorflow == 1.14 (如需转换TensorFlow模型)
  • onnx >= 1.6.0 (如需转换ONNX模型)
  • torch >= 1.5.0 (如需转换PyTorch模型)

4.2 pip安装(推荐)

如需使用稳定版本,可通过pip方式安装X2Paddle:

pip install x2paddle

4.3 源码安装

如需体验最新功能,可使用源码安装方式:

git clone https://github.com/PaddlePaddle/X2Paddle.git
cd X2Paddle
git checkout develop
python setup.py install

五、快速开始

5.1 功能一:推理模型转换

TensorFlow模型转换

x2paddle --framework=tensorflow --model=tf_model.pb --save_dir=pd_model

ONNX模型转换

x2paddle --framework=onnx --model=onnx_model.onnx --save_dir=pd_model

Caffe模型转换

x2paddle --framework=caffe --prototxt=deploy.prototxt --weight=deploy.caffemodel --save_dir=pd_model

转换参数说明

参数作用
–framework源模型类型 (tensorflow、caffe、onnx)
–prototxt当framework为caffe时,该参数指定caffe模型的proto文件路径
–weight当framework为caffe时,该参数指定caffe模型的参数文件路径
–save_dir指定转换后的模型保存目录路径
–model当framework为tensorflow/onnx时,该参数指定tensorflow的pb模型文件或onnx模型路径
–caffe_proto[可选] 由caffe.proto编译成caffe_pb2.py文件的存放路径,当存在自定义Layer时使用,默认为None
–define_input_shape[可选] For TensorFlow, 当指定该参数时,强制用户输入每个Placeholder的shape,见文档Q2

5.2 功能二:PyTorch模型训练迁移

项目转换包括3个步骤

  1. 项目代码预处理
  2. 代码/预训练模型一键转换
  3. 转换后代码后处理

详见 PyTorch训练项目转换文档

六、使用教程

  1. TensorFlow预测模型转换教程
  2. MMDetection模型转换指南
  3. PyTorch预测模型转换教程
  4. PyTorch训练项目转换教程
;