解决ONNX Runtime与TensorRT共存时的CUDA资源冲突

解决ONNX Runtime与TensorRT共存时的CUDA资源冲突

本文旨在解决在同一Python程序中同时使用ONNX Runtime(CUDA Execution Provider)和TensorRT时,因CUDA上下文管理不当导致的“invalid resource handle”错误。核心问题在于pycuda.autoinit与多框架CUDA操作的冲突。通过采用PyCUDA手动初始化和管理CUDA上下文(cuda.init(), ctx.push(), ctx.pop()),可以有效避免资源冲突,确保两种推理引擎稳定协同工作,并提供详细代码示例及最佳实践。

1. 问题背景与现象

在深度学习推理部署中,我们常常需要集成多种优化工具或框架。例如,onnx runtime提供跨平台推理能力,而nvidia tensorrt则专注于nvidia gpu上的高性能推理。当尝试在同一个python脚本中同时加载并运行onnx runtime(配置为使用cuda execution provider)和tensorrt模型时,开发者可能会遇到以下cuda运行时错误:

[TRT] [E] 1: [convolutionRunner.cpp::execute::391] Error Code 1: Cask (Cask convolution execution)[TRT] [E] 1: [checkMacros.cpp::catchCudaError::272] Error Code 1: Cuda Runtime (invalid resource handle)

这些错误通常伴随着ONNX Runtime的警告,提示某些节点未分配到首选执行器,但核心问题在于Cuda Runtime (invalid resource handle)。值得注意的是,如果单独运行每个模型,或者将ONNX Runtime的Provider设置为CPUExecutionProvider,则这些错误不会出现。这表明问题根源在于CUDA资源的共享与管理。

2. 根本原因:CUDA上下文冲突

此问题的核心在于CUDA上下文(CUDA Context)的管理。CUDA上下文是GPU上所有CUDA操作的执行环境,包括内存分配、流管理、内核启动等。每个进程或线程通常需要一个或多个CUDA上下文来执行GPU操作。

pycuda.autoinit的机制: pycuda.autoinit模块在导入时会自动初始化CUDA并为当前线程创建一个默认的CUDA上下文,并将其推送到CUDA上下文堆栈的顶部。这对于简单的PyCUDA程序非常方便。多框架的挑战: 当程序中引入TensorRT和ONNX Runtime(CUDA Execution Provider)时,情况变得复杂。TensorRT: TensorRT在反序列化引擎并创建执行上下文时,会与CUDA运行时交互,可能期望一个特定的CUDA上下文环境。ONNX Runtime (CUDA EP): ONNX Runtime的CUDA Execution Provider也会在内部初始化CUDA并管理其自己的CUDA上下文。冲突的产生: 如果pycuda.autoinit创建的默认上下文与TensorRT或ONNX Runtime内部所需的上下文管理方式发生冲突,或者上下文堆栈没有被正确地管理(例如,一个上下文被推入但未弹出,导致后续操作在错误的上下文上执行),就会出现invalid resource handle错误。TensorRT尤其对CUDA上下文的活跃状态和有效性敏感。当多个库试图独立管理或依赖全局CUDA上下文时,就容易发生资源句柄失效的问题。

3. 解决方案:手动管理CUDA上下文

解决此问题的关键在于放弃pycuda.autoinit的自动管理,转而采用PyCUDA手动初始化和管理CUDA上下文。通过显式地创建、推送和弹出CUDA上下文,我们可以确保在TensorRT和ONNX Runtime执行GPU操作时,始终有一个有效且受控的CUDA上下文处于激活状态。

3.1 手动CUDA上下文管理步骤

禁用pycuda.autoinit: 从代码中移除import pycuda.autoinit。初始化CUDA驱动: 调用cuda.init()。创建设备和上下文: 选择一个CUDA设备(例如cuda.Device(0)),然后调用device.make_context()创建上下文。推送和弹出上下文: 在所有需要CUDA上下文的操作(包括TensorRT引擎的创建、执行以及ONNX Runtime会话的创建、推理)之前,使用ctx.push()将上下文推入堆栈;在这些操作完成后,使用ctx.pop()将其弹出。通常,这可以通过try…finally块来确保上下文始终被正确弹出和清理。分离上下文: 在程序结束或不再需要CUDA上下文时,调用ctx.detach()来分离上下文并释放相关资源。

3.2 示例代码:ONNX Runtime与TensorRT的协同推理

以下是修改后的代码示例,演示了如何通过手动管理CUDA上下文来解决上述问题:

import cv2import numpy as npimport pycuda.driver as cuda# import pycuda.autoinit # 移除此行,手动管理CUDA上下文import tensorrt as trtnp.bool = np.bool_ # 兼容旧版Numpyimport onnximport onnxruntime# 假设 profiling 模块已定义,如果不需要可删除或替换# from profiling import GlobalProfTime, ProfTimer, mode_to_str# 1. 手动初始化CUDA驱动并创建上下文cuda.init()# 选择第一个GPU设备device = cuda.Device(0)# 为该设备创建CUDA上下文ctx = device.make_context()# 2. 将创建的上下文推入当前线程的CUDA上下文堆栈ctx.push()# 使用try...finally块确保上下文在程序结束时被正确弹出和清理try:    # with GlobalProfTime('profile_tensorrt_10_000images') as t: # 性能分析,如果不需要可注释    # with ProfTimer('TensorRT basic image profiler') as t: # 性能分析,如果不需要可注释    # --- TensorRT 模型初始化部分 ---    TRT_ENGINE_PATH = '/app/models/buffalo_l/det_10g640x640.engine'    # 创建TensorRT运行时日志器    runtime = trt.Runtime(trt.Logger(trt.Logger.WARNING))    # 反序列化TensorRT引擎    with open(TRT_ENGINE_PATH, 'rb') as f:        engine_data = f.read()        engine = runtime.deserialize_cuda_engine(engine_data)    assert engine is not None, "Failed to deserialize TensorRT engine."    # 创建TensorRT执行上下文    context = engine.create_execution_context()    # 分配输入输出内存    inputs, outputs, bindings, stream = [], [], [], cuda.Stream()    for binding in engine:        size = trt.volume(engine.get_binding_shape(binding)) * engine.max_batch_size        dtype = trt.nptype(engine.get_binding_dtype(binding))        host_mem = cuda.pagelocked_empty(size, dtype) # 页锁定内存        device_mem = cuda.mem_alloc(host_mem.nbytes) # 设备内存        bindings.append(int(device_mem))        if engine.binding_is_input(binding):            inputs.append({'host': host_mem, 'device': device_mem, 'name':  binding, 'shape': engine.get_binding_shape(binding), 'type': engine.get_binding_dtype(binding)})        else:            outputs.append({'host': host_mem, 'device': device_mem, 'name':  binding, 'shape': engine.get_binding_shape(binding), 'type': engine.get_binding_dtype(binding)})    # 加载并预处理TensorRT模型输入图像    image_path = "/app/models/buffalo_l/image.png"    image = cv2.imread(image_path)    assert image is not None, f"Failed to load image from {image_path}"    image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)    image = cv2.resize(image, (640, 640))    image = image.astype(np.float32) / 255.0    input_data_trt = np.expand_dims(image.transpose(2, 0, 1), axis=0)    # --- ONNX Runtime 模型初始化部分 ---    onnx_model_path = "/app/models/buffalo_l/det_10g.onnx"    # 加载ONNX模型(可选,onnxruntime.InferenceSession会自动加载)    # onnx_model = onnx.load(onnx_model_path)    # 创建ONNX Runtime会话,并指定CUDAExecutionProvider    # 注意:ort_session的创建必须在CUDA上下文被推入后进行    ort_session = onnxruntime.InferenceSession(onnx_model_path, providers=['CUDAExecutionProvider'])    # --- TensorRT 模型推理部分 ---    print("n--- Running TensorRT Inference ---")    for _ in range(1):        # with ProfTimer('TensorRT per call') as t: # 性能分析,如果不需要可注释        # 将输入数据从主机内存拷贝到GPU设备内存        cuda.memcpy_htod_async(inputs[0]['device'], input_data_trt.ravel(), stream)        # 执行推理        if context.execute_async(batch_size=1, bindings=bindings, stream_handle=stream.handle) == 0:            print("Error: Unable to launch TensorRT inference.")        # 将结果从GPU设备内存拷贝回主机内存        if cuda.memcpy_dtoh_async(outputs[0]['host'], outputs[0]['device'], stream) == 0:            print("Error: Unable to copy results from GPU to host.")        # 获取推理结果        result_trt = outputs[0]['host']        # 同步CUDA流        stream.synchronize()        print("Inference TensorRT Results (first 20 elements):")        print(result_trt[:20])    stream.synchronize() # 确保所有TensorRT操作完成    # --- ONNX Runtime 模型推理部分 ---    print("n--- Running ONNX (CUDA) Inference ---")    for _ in range(1):        # with ProfTimer('ONNX(CUDA) per call') as t: # 性能分析,如果不需要可注释        # 重新加载并预处理ONNX模型输入图像(如果需要,否则可复用input_data_trt)        image_path_onnx = "/app/models/buffalo_l/image.png"        image_onnx = cv2.imread(image_path_onnx)        assert image_onnx is not None, f"Failed to load image from {image_path_onnx}"        image_onnx = cv2.cvtColor(image_onnx, cv2.COLOR_BGR2RGB)        image_onnx = cv2.resize(image_onnx, (640, 640))        image_onnx = image_onnx.astype(np.float32) / 255.0        input_data_onnx = np.expand_dims(image_onnx.transpose(2, 0, 1), axis=0)        # 获取ONNX模型的输入名称        input_name_onnx = ort_session.get_inputs()[0].name        # 运行ONNX推理        outputs_onnx = ort_session.run(None, {input_name_onnx: input_data_onnx})        print("Inference ONNX Results (first 20 elements):")        # 注意:ONNX输出的形状可能与TensorRT不同,这里仅打印前20个元素        print(f"{np.transpose(outputs_onnx[0][:20])}")finally:    # 3. 确保上下文被弹出,无论是否发生异常    ctx.pop()    # 4. 分离并销毁上下文以释放资源    ctx.detach()    # 清理TensorRT相关资源    if 'context' in locals() and context:        context.destroy()    if 'engine' in locals() and engine:        engine.destroy()    if 'runtime' in locals() and runtime:        del runtime # runtime对象没有destroy方法,直接删除引用    # ONNX Runtime session通常在对象销毁时自动释放资源,无需显式操作    # 如果需要,也可以 del ort_session    print("nCUDA Context and resources cleaned up.")

4. 注意事项与最佳实践

上下文生命周期管理: 确保ctx.push()和ctx.pop()成对出现,并且所有依赖CUDA的操作都在这两个调用之间。使用try…finally块是保证pop()被执行的健壮方法。资源清理: 除了CUDA上下文,TensorRT的engine和context对象也需要显式地destroy()以释放GPU内存。np.bool兼容性: np.bool = np.bool_这行代码是为了兼容旧版NumPy,在新版中np.bool已被弃用,通常直接使用bool即可。如果遇到相关警告或错误,可以保留此行。多线程/多进程: 如果在多线程或多进程环境中使用CUDA,每个线程/进程可能需要独立管理其CUDA上下文,或者使用PyCUDA提供的线程安全机制。这会使问题变得更复杂,需要更高级的CUDA编程知识。驱动与库版本: 确保NVIDIA驱动、CUDA Toolkit、cuDNN、TensorRT以及ONNX Runtime的版本兼容。不匹配的版本可能导致各种运行时错误。调试: 如果问题依然存在,可以尝试设置CUDA_LAUNCH_BLOCKING=1环境变量,这会让CUDA操作同步执行,有助于定位错误发生的具体位置,但会影响性能。同时,检查TensorRT和ONNX Runtime的日志输出,通常能提供更多线索。

5. 总结

在同一Python程序中整合ONNX Runtime(CUDA Execution Provider)和TensorRT时,正确管理CUDA上下文是避免“invalid resource handle”等资源冲突的关键。通过移除pycuda.autoinit并采用手动pycuda.driver初始化和上下文堆栈管理(ctx.push()和ctx.pop()),我们可以为所有CUDA依赖的库提供一个稳定且受控的执行环境,从而确保两种高性能推理引擎的顺利协同工作。理解并实施这些CUDA上下文管理原则,对于构建健壮且高效的深度学习部署系统至关重要。

以上就是解决ONNX Runtime与TensorRT共存时的CUDA资源冲突的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1366305.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 05:05:23
下一篇 2025年12月14日 05:05:35

相关推荐

  • 使用Python NumPy构建行列和均等定值的随机矩阵

    本文详细介绍了如何使用Python和NumPy库生成一个指定尺寸的随机矩阵,并确保其每一行和每一列的和都等于一个预设的常数Z。通过迭代比例调整的策略,可以有效地解决同时满足行和列和约束的挑战,并提供了实际的代码示例及注意事项,帮助读者理解并实现这一复杂的数据生成需求。 引言 在数据模拟、游戏开发或科…

    好文分享 2025年12月14日
    000
  • Python中如何实现多模态数据的联合异常检测?

    多模态联合异常检测比单模态更具挑战性和必要性的核心原因在于其能捕捉跨模态的不一致性,真实世界异常往往体现在多模态间的协同异常,而非单一模态的孤立异常;1. 必要性体现在人类感知是多模态的,单模态检测如“盲人摸象”,难以发现深层次异常;2. 挑战性主要来自数据异构性,不同模态的数据结构、尺度、分布差异…

    2025年12月14日 好文分享
    000
  • 怎样用Python检测时间序列数据中的异常点?STL分解法

    使用python和stl分解法检测时间序列异常点的步骤如下:1. 加载和准备数据,确保时间序列索引为时间戳格式;2. 使用statsmodels库中的stl类执行分解,分离趋势、季节性和残差分量;3. 分析残差项,通过统计方法(如标准差或iqr)设定异常阈值;4. 根据设定的阈值识别并标记异常点;5…

    2025年12月14日 好文分享
    000
  • Python变量怎么用?初学者必看的基础教程

    python变量是存储数据的容器,通过赋值操作定义,如x=10;其类型由值自动推断,常见类型包括整数、浮点数、字符串等;变量命名需以字母或下划线开头,使用小写和下划线分隔的描述性名称;作用域分为全局和局部,分别在函数外和函数内访问,修改全局变量需用global声明。1.变量赋值通过等号实现,无需声明…

    2025年12月14日 好文分享
    000
  • 如何用Python实现工业气体浓度的异常报警?

    要实现工业气体浓度异常报警,核心思路是通过传感器获取数据并用python实时分析,一旦数据偏离正常范围即触发报警。1. 数据采集:通过串口通信、modbus、mqtt等方式获取传感器数据,示例代码通过模拟函数生成数据。2. 数据预处理:对原始数据进行平滑处理、缺失值处理和归一化,以提高数据质量。3.…

    2025年12月14日 好文分享
    000
  • Python如何压缩文件?Zipfile模块教程

    python压缩文件的核心是zipfile模块,它提供了创建、读取、写入和提取zip文件的功能。1. 创建zip文件:使用zipfile类配合’w’模式,将指定文件列表写入新压缩包。2. 添加文件到现有zip:通过’a’模式追加文件而不覆盖原文件。3.…

    2025年12月14日 好文分享
    000
  • 解决TensorFlow模型预测中的输入形状不匹配问题

    本文旨在解决TensorFlow模型预测时常见的ValueError: Input 0 of layer “sequential” is incompatible with the layer: expected shape=(None, H, W, C), found sh…

    2025年12月14日
    000
  • TensorFlow Keras模型预测时输入维度不匹配问题解析与解决方案

    本文旨在解决TensorFlow Keras模型在进行单张图像预测时常见的ValueError: Input 0 of layer … is incompatible with the layer: expected shape=(None, H, W, C), found shape=…

    2025年12月14日
    000
  • 生成具有指定行和列总和的随机矩阵

    本文详细阐述了如何生成一个指定尺寸(x, y)的随机矩阵,并确保其每行和每列的元素之和都等于一个预设值Z。针对直接随机生成后难以同时满足行和列总和约束的问题,本文提出并实现了基于迭代缩放的解决方案,通过交替对行和列进行归一化和缩放,直至达到收敛。文章提供了完整的Python代码示例,并深入探讨了算法…

    2025年12月14日
    000
  • 解决macOS Retina显示器下Tkinter应用性能迟滞问题

    本文探讨并提供了解决Tkinter应用在macOS Retina高分辨率显示器上出现性能迟滞(卡顿)的有效方法。当应用在内置Retina屏幕上运行时表现迟缓,而在外接普通显示器上流畅时,这通常与macOS的高分辨率模式(HiDPI)配置有关。解决方案是通过修改Python框架的Info.plist文…

    2025年12月14日
    000
  • 解决macOS Retina显示器上Tkinter应用性能滞后问题

    在macOS Retina显示器上运行Tkinter应用时,可能会遇到明显的性能滞后问题,尤其是在高分辨率模式下。这通常是由于Python框架的Info.plist文件中NSHighResolutionCapable键设置为true导致的。通过将该键值修改为false,可以有效禁用高分辨率支持,从而…

    2025年12月14日
    000
  • Python如何计算数据的指数移动平均?

    计算数据的指数移动平均(ema)主要通过赋予近期数据更高的权重来实现,公式为 emat = α·datat + (1 – α)·emat-1,其中 α 是平滑因子,取值范围在 0 到 1 之间。1)使用循环手动计算:适用于理解计算逻辑,但效率较低;2)使用 pandas 库:通过 ewm…

    2025年12月14日 好文分享
    000
  • Python源码构建剧集更新通知服务 利用Python源码监听剧集发布API

    1.构建基于python的剧集更新通知服务需包含api请求器、数据解析器、状态管理器和通知发送器四大模块;2.通过周期性地请求剧集api获取更新数据,并与本地状态文件对比识别新内容;3.使用json或sqlite实现状态持久化以避免重复通知;4.通过邮件、推送服务等方式发送通知,并结合cron或任务…

    2025年12月14日 好文分享
    000
  • Pandas中如何实现数据的层次化索引?多维分析技巧

    pandas中的层次化索引(multiindex)是一种在dataframe或series轴上拥有多个层级标签的索引结构,它通过构建multiindex对象并将其应用到数据索引上,实现多维数据的高效组织和分析。实现层次化索引主要有两种方式:1. 利用set_index()方法将现有列转换为多级索引;…

    2025年12月14日 好文分享
    000
  • Pandas中怎样实现多条件数据筛选?高级查询方法

    <p&amp;amp;gt;在pandas中实现多条件数据筛选的核心方法是使用布尔索引结合位运算符。1. 使用括号包裹每个独立条件表达式,以避免运算符优先级问题;2. 使用&amp;amp;amp;amp;amp;表示“与”、|表示“或”、~表示“非”,进行逐元素逻辑运算;3.…

    好文分享 2025年12月14日
    000
  • 怎样用Python构建信用卡欺诈检测系统?交易特征工程

    构建信用卡欺诈检测系统的核心在于交易特征工程,其关键作用是将原始交易数据转化为揭示异常行为的信号,通过特征工程提取“历史行为”和“实时异常”信息,主要包括基础交易特征、时间窗聚合特征、用户维度、商户维度、卡片维度、频率与速度、比率与差异特征及历史统计特征。实现方法包括使用pandas的groupby…

    2025年12月14日 好文分享
    000
  • 如何通过Python源码理解字典结构 Python源码中dict实现方式详解

    python字典高效源于哈希表设计。1.字典本质是哈希表,键通过哈希函数转为唯一数字决定存储位置,平均时间复杂度o(1)。2.解决哈希冲突采用开放寻址法,冲突时按伪随机探测序列找空槽位。3.扩容机制在元素超容量2/3时触发,重新分配内存并计算哈希值保证性能。4.键必须不可变,因哈希值依赖键值,变化则…

    2025年12月14日 好文分享
    000
  • 怎样用Python识别重复的代码片段?

    1.识别重复代码最直接的方法是文本比对与哈希计算,适用于完全一致的代码片段;2.更高级的方法使用抽象语法树(ast)分析,通过解析代码结构并忽略变量名、空白等表层差异,精准识别逻辑重复;3.实际应用中需结合代码重构、设计模式、共享组件等方式管理与预防重复;4.将静态分析工具集成到ci/cd流程中可自…

    2025年12月14日 好文分享
    000
  • Python源码实现视频帧转图片功能 基于Python源码的图像序列提取

    用python将视频拆解为图片的核心方法是使用opencv库逐帧读取并保存。1. 使用opencv的videocapture打开视频并逐帧读取,通过imwrite保存为图片;2. 可通过跳帧或调用ffmpeg提升大视频处理效率;3. 图像质量可通过jpeg或png参数控制,命名建议采用零填充格式确保…

    2025年12月14日 好文分享
    000
  • Python如何操作Excel?自动化处理表格

    python处理excel适合的库是openpyxl和pandas。1. openpyxl适合精细化操作excel文件,如读写单元格、设置样式、合并单元格等,适用于生成固定格式报告或修改模板;2. pandas适合数据处理和分析,通过dataframe结构实现高效的数据清洗、筛选、排序、聚合等操作,…

    2025年12月14日 好文分享
    000

发表回复

登录后才能评论
关注微信