首先配置ONNX Runtime环境并加载模型,然后创建会话、准备输入张量、执行推理并获取输出。具体包括:下载对应平台库文件,配置头文件和链接库路径;使用Ort::Env和Ort::Session初始化会话;根据模型输入形状创建Ort::Value张量,注意数据布局为行优先及CHW格式;调用Run方法传入输入输出名称进行推理;最后从输出张量中提取结果数据并处理。整个流程需确保内存管理正确、模型输入输出匹配,并建议使用高opset版本导出经验证的ONNX模型。

要在C++中使用ONNX Runtime运行AI模型,关键在于正确配置环境、加载模型并处理输入输出张量。整个过程不复杂,但需要注意内存管理与数据布局的细节。
安装ONNX Runtime库
ONNX Runtime官方提供了预编译的C++库,支持Windows、Linux和macOS。你可以从GitHub发布页下载对应平台的动态库或静态库。
以Windows为例,下载onnxruntime-win-x64-gpu(若使用GPU)或onnxruntime-win-x64(仅CPU),解压后获得include、lib和dll文件。
在项目中配置:
立即学习“C++免费学习笔记(深入)”;
将include目录加入编译器头文件搜索路径将lib目录加入链接器路径,并链接onnxruntime.lib确保运行时能找到onnxruntime.dll(放在exe同目录或系统PATH中)
加载模型并创建会话
使用ONNX Runtime C++ API的第一步是初始化环境和会话。
示例代码:
#includeOrt::Env env(ORT_LOGGING_LEVEL_WARNING, "test");Ort::SessionOptions session_options;session_options.SetIntraOpNumThreads(1);session_options.SetGraphOptimizationLevel(GraphOptimizationLevel::ORT_ENABLE_ALL);
// Windows下使用wchar_t,Linux用const charOrt::Session session(env, L"model.onnx", session_options);
这里创建了一个优化开启的会话,可根据实际需求调整线程数或关闭某些图优化。
准备输入张量
你需要根据模型输入定义创建对应的Ort::Value对象。
假设模型输入为[1, 3, 224, 224]的float类型图像数据:
const int input_shape[] = {1, 3, 224, 224};auto memory_info = Ort::MemoryInfo::CreateCpu(OrtDeviceAllocator, OrtMemTypeDefault);std::vector input_tensor_values(1 * 3 * 224 * 224); // 填充你的数据Ort::Value input_tensor = Ort::Value::CreateTensor(memory_info, input_tensor_values.data(),input_tensor_values.size() sizeof(float),const_cast<int64_t>(input_shape), 4, ONNX_TENSOR_ELEMENT_DATA_TYPE_FLOAT);
注意:数据必须按行优先(row-major)排列,如果是图像,通常需要将HWC转为CHW,并归一化。
执行推理并获取输出
调用Run方法执行推理:
const char* input_names[] = {"input"}; // 替换为模型实际输入名const char* output_names[] = {"output"}; // 替换为实际输出名Ort::RunOptions run_options;auto output_tensors = session.Run(run_options,input_names, &input_tensor, 1,output_names, 1);
// 获取输出数据Ort::Value& output_tensor = output_tensors[0];float* float_output = output_tensor.GetTensorMutableData();int64_t num_outputs = output_tensor.GetTensorElementCount();
for (int i = 0; i < std::min(10LL, num_outputs); ++i) {printf("Output[%d] = %fn", i, float_output[i]);}
输出张量的内容取决于模型结构,可能是分类概率、检测框或特征向量。
基本上就这些。只要模型输入输出维度和类型匹配,推理流程很稳定。建议先用Python导出ONNX模型时加上opset_version=12以上,并使用onnx.checker验证模型有效性,避免运行时报格式错误。
以上就是c++++怎么使用ONNX Runtime来运行一个AI模型_C++与ONNX Runtime集成运行AI模型实践的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1485827.html
微信扫一扫
支付宝扫一扫