机器学习 | 使用Onnx部署模型

人工智能 机器学习
目前,ONNX主要关注在模型预测方面(inferring),使用不同框架训练的模型,转化为ONNX格式后,可以很容易的部署在兼容ONNX的运行环境中。

在机器学习中,通常训练完成了模型该如何部署?如果直接将训练环境部署在线上,会和训练平台或者框架相关,所以通常转换为ONNX格式。

1、ONNX简介

开放神经网络交换ONNX(Open Neural Network Exchange)是一套表示深度神经网络模型的开放格式,由微软和Facebook于2017推出,然后迅速得到了各大厂商和框架的支持。ONNX定义了一组与环境和平台无关的标准格式,为AI模型的互操作性提供了基础,使AI模型可以在不同框架和环境下交互使用。硬件和软件厂商可以基于ONNX标准优化模型性能,让所有兼容ONNX标准的框架受益。目前,ONNX主要关注在模型预测方面(inferring),使用不同框架训练的模型,转化为ONNX格式后,可以很容易的部署在兼容ONNX的运行环境中。

2、模型部署工作流程

模型部署工作流程通用如下:

(1)模型训练:使用PyTorch、TensorFlow或其他深度学习框架进行模型训练;(2)导出为ONNX格式:模型训练完成,将模型导出为ONNX格式;(3)模型转换:使用ONNX转换工具,如ONNX Runtime、TensorRT或OpenVINO等,将ONNX模型转换为目标设备和框架所支持的格式;(4)部署和推理:将转换后的模型部署到目标设备上,并使用相应的推理引擎进行推理;

部署流程部署流程

3、部署模型

为了更直观的了解ONNX格式内容,以下操作一下完整的流程。

3.1 训练模型

这里为了简单训练LogisticRegression模型,代码如下:

from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression

iris = load_iris()
X, y = iris.data, iris.target
X_train, X_test, y_train, y_test = train_test_split(X, y)

clr = LogisticRegression()
clr.fit(X_train, y_train)

3.2 将训练的模型转换为ONNX格式

from skl2onnx import convert_sklearn
from skl2onnx.common.data_types import FloatTensorType

initial_type = [('float_input', FloatTensorType([1, 4]))]
onx = convert_sklearn(clr, initial_types=initial_type)
with open("logreg_iris.onnx", "wb") as f:
    f.write(onx.SerializeToString())

这里每个框架不一样,scikit-learn 转换是上述代码,对于PyTorch使用类似如下代码:

class Model(torch.nn.Module):
    def __init__(self):
        super().__init__()

    def forward(self, x):
        x = x * x[0].item()
        return x, torch.Tensor([i for i in x])

model = Model()      
dummy_input = torch.rand(10)
torch.onnx.export(model, dummy_input, 'test-pytorch.onnx')

通过上述代码获得 logreg_iris.onnx 文件,加载模型并打印模型信息。

import onnx

model = onnx.load('logreg_iris.onnx')
print(model)

3.3 部署预测模型

使用 flask 作为serve部署API服务,加载onnx文件,并处理预测请求,代码如下:

# python3 -m pip install flask onnxruntime --break-system-packages
from flask import Flask, jsonify, request
import onnxruntime as rt
import numpy as np

app = Flask(__name__)
sess = rt.InferenceSession("logreg_iris.onnx")
# 获取模型输入的名称和形状
input_name = sess.get_inputs()[0].name
label_name = sess.get_outputs()[0].shape
print(f"input_name: {input_name}, label_name: {label_name}")

@app.route('/api/predict', methods=['POST'])
def predict():
    data = request.json
    if not data:
        return jsonify({'error': 'Invalid input'}), 400
    
    input_data = np.array([data["data"]], dtype=np.float32)
    outputs = sess.run(None, {input_name: input_data})
    print("outputs: ", outputs)
    return jsonify({
        "result": outputs[0].tolist(),
    }), 200

if __name__ == '__main__':
    app.run(debug=True)

相关的测试 curl 请求如下:

// 请求
curl -i 'http://127.0.0.1:5000/api/predict' -H 'Content-Type: application/json' -d '{"data":[1,2.6,4.4,1.2]}' 
// 返回结果
{
  "result": [
    1
  ]
}

// 请求
curl -i 'http://127.0.0.1:5000/api/predict' -H 'Content-Type: application/json' -d '{"data":[1,20000000000,4.4,1.2]}' 
// 返回结果
{
  "result": [
    0
  ]
}

资料

1、https://github.com/aipredict/ai-deployment/blob/master/deploy-ml-dl-using-onnx/README.md

责任编辑:武晓燕 来源: 周末程序猿
相关推荐

2019-10-23 08:00:00

Flask机器学习人工智能

2024-10-12 08:00:00

机器学习Docker

2018-12-06 10:07:49

微软机器学习开源

2023-02-07 16:36:34

机器学习Docker无服务器

2024-02-20 15:17:35

机器学习模型部署

2021-01-25 09:00:00

机器学习人工智能算法

2022-09-07 08:00:00

机器学习MLFlow工具

2020-07-10 10:39:04

Python开发工具

2017-07-07 14:41:13

机器学习神经网络JavaScript

2021-11-02 09:40:50

TensorFlow机器学习人工智能

2018-11-07 09:00:00

机器学习模型Amazon Sage

2019-01-23 11:12:42

机器学习机器模型预测工资

2023-11-06 10:50:35

机器学习LIME

2022-12-21 19:06:55

机器学习人工智能

2018-01-08 09:09:46

机器学习模型NET

2024-11-04 14:33:04

机器学习SHAP黑盒模型

2022-06-20 07:16:25

机器学习模型Codex

2020-08-10 15:05:02

机器学习人工智能计算机

2017-04-18 14:31:39

机器学习模型架构

2017-08-25 14:05:01

机器学习算法模型
点赞
收藏

51CTO技术栈公众号