分享

Py之onnx:onnx/onnxruntime库的简介、安装、使用方法之详细攻略

 处女座的程序猿 2023-05-13 发布于上海

onnx/onnxruntime库的简介

Open Neural Network Exchange(ONNX)是一个开放的生态系统,赋予AI开发者选择正确工具的能力,以满足项目的不断发展。ONNX为AI模型提供了开源格式,涵盖深度学习和传统ML。它定义了一个可扩展的计算图模型,以及内置运算符和标准数据类型的定义。目前,我们专注于推理(评分)所需的功能。

ONNX被广泛支持,并可在许多框架、工具和硬件中找到。在不同框架之间实现互操作性并简化从研究到生产的路径,有助于增加AI社区的创新速度。我们邀请社区加入我们,并进一步发展ONNX。

GitHub地址:GitHub - onnx/onnx: Open standard for machine learning interoperability

onnx/onnxruntime库的安装pip install onnx pip install -i https://pypi.tuna./simple onnx pip install -i https://pypi.tuna./simple onnxruntime

onnx/onnxruntime库的使用方法

1、基础用法import onnx import onnxruntime as ort # 加载ONNX模型 model = onnx.load("model.onnx") # 打印模型信息 print(onnx.helper.printable_graph(model.graph)) # 创建ONNX运行时 ort_session = ort.InferenceSession("model.onnx") # 准备输入数据 input_data = np.random.rand(1, 3, 224, 224).astype(np.float32) # 推理 ort_inputs = {ort_session.get_inputs()[0].name: input_data} ort_outputs = ort_session.run(None, ort_inputs) # 输出结果 print(ort_outputs)

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章