解决ONNX Runtime与TensorRT共存时的CUDA资源冲突

解决ONNX Runtime与TensorRT共存时的CUDA资源冲突

本文旨在解决在同一Python程序中同时使用ONNX Runtime(CUDA Execution Provider)和TensorRT时,因CUDA上下文管理不当导致的“invalid resource handle”错误。核心问题在于pycuda.autoinit与多框架CUDA操作的冲突。通过采用PyCUDA手动初始化和管理CUDA上下文(cuda.init(), ctx.push(), ctx.pop()),可以有效避免资源冲突,确保两种推理引擎稳定协同工作,并提供详细代码示例及最佳实践。

1. 问题背景与现象

在深度学习推理部署中,我们常常需要集成多种优化工具或框架。例如,onnx runtime提供跨平台推理能力,而nvidia tensorrt则专注于nvidia gpu上的高性能推理。当尝试在同一个python脚本中同时加载并运行onnx runtime(配置为使用cuda execution provider)和tensorrt模型时,开发者可能会遇到以下cuda运行时错误:

[TRT] [E] 1: [convolutionRunner.cpp::execute::391] Error Code 1: Cask (Cask convolution execution)[TRT] [E] 1: [checkMacros.cpp::catchCudaError::272] Error Code 1: Cuda Runtime (invalid resource handle)

这些错误通常伴随着ONNX Runtime的警告,提示某些节点未分配到首选执行器,但核心问题在于Cuda Runtime (invalid resource handle)。值得注意的是,如果单独运行每个模型,或者将ONNX Runtime的Provider设置为CPUExecutionProvider,则这些错误不会出现。这表明问题根源在于CUDA资源的共享与管理。

2. 根本原因:CUDA上下文冲突

此问题的核心在于CUDA上下文(CUDA Context)的管理。CUDA上下文是GPU上所有CUDA操作的执行环境,包括内存分配、流管理、内核启动等。每个进程或线程通常需要一个或多个CUDA上下文来执行GPU操作。

pycuda.autoinit的机制: pycuda.autoinit模块在导入时会自动初始化CUDA并为当前线程创建一个默认的CUDA上下文,并将其推送到CUDA上下文堆栈的顶部。这对于简单的PyCUDA程序非常方便。多框架的挑战: 当程序中引入TensorRT和ONNX Runtime(CUDA Execution Provider)时,情况变得复杂。TensorRT: TensorRT在反序列化引擎并创建执行上下文时,会与CUDA运行时交互,可能期望一个特定的CUDA上下文环境。ONNX Runtime (CUDA EP): ONNX Runtime的CUDA Execution Provider也会在内部初始化CUDA并管理其自己的CUDA上下文。冲突的产生: 如果pycuda.autoinit创建的默认上下文与TensorRT或ONNX Runtime内部所需的上下文管理方式发生冲突,或者上下文堆栈没有被正确地管理(例如,一个上下文被推入但未弹出,导致后续操作在错误的上下文上执行),就会出现invalid resource handle错误。TensorRT尤其对CUDA上下文的活跃状态和有效性敏感。当多个库试图独立管理或依赖全局CUDA上下文时,就容易发生资源句柄失效的问题。

3. 解决方案:手动管理CUDA上下文

解决此问题的关键在于放弃pycuda.autoinit的自动管理,转而采用PyCUDA手动初始化和管理CUDA上下文。通过显式地创建、推送和弹出CUDA上下文,我们可以确保在TensorRT和ONNX Runtime执行GPU操作时,始终有一个有效且受控的CUDA上下文处于激活状态。

3.1 手动CUDA上下文管理步骤

禁用pycuda.autoinit: 从代码中移除import pycuda.autoinit。初始化CUDA驱动: 调用cuda.init()。创建设备和上下文: 选择一个CUDA设备(例如cuda.Device(0)),然后调用device.make_context()创建上下文。推送和弹出上下文: 在所有需要CUDA上下文的操作(包括TensorRT引擎的创建、执行以及ONNX Runtime会话的创建、推理)之前,使用ctx.push()将上下文推入堆栈;在这些操作完成后,使用ctx.pop()将其弹出。通常,这可以通过try…finally块来确保上下文始终被正确弹出和清理。分离上下文: 在程序结束或不再需要CUDA上下文时,调用ctx.detach()来分离上下文并释放相关资源。

3.2 示例代码:ONNX Runtime与TensorRT的协同推理

以下是修改后的代码示例,演示了如何通过手动管理CUDA上下文来解决上述问题:

import cv2import numpy as npimport pycuda.driver as cuda# import pycuda.autoinit # 移除此行,手动管理CUDA上下文import tensorrt as trtnp.bool = np.bool_ # 兼容旧版Numpyimport onnximport onnxruntime# 假设 profiling 模块已定义,如果不需要可删除或替换# from profiling import GlobalProfTime, ProfTimer, mode_to_str# 1. 手动初始化CUDA驱动并创建上下文cuda.init()# 选择第一个GPU设备device = cuda.Device(0)# 为该设备创建CUDA上下文ctx = device.make_context()# 2. 将创建的上下文推入当前线程的CUDA上下文堆栈ctx.push()# 使用try...finally块确保上下文在程序结束时被正确弹出和清理try:    # with GlobalProfTime('profile_tensorrt_10_000images') as t: # 性能分析,如果不需要可注释    # with ProfTimer('TensorRT basic image profiler') as t: # 性能分析,如果不需要可注释    # --- TensorRT 模型初始化部分 ---    TRT_ENGINE_PATH = '/app/models/buffalo_l/det_10g640x640.engine'    # 创建TensorRT运行时日志器    runtime = trt.Runtime(trt.Logger(trt.Logger.WARNING))    # 反序列化TensorRT引擎    with open(TRT_ENGINE_PATH, 'rb') as f:        engine_data = f.read()        engine = runtime.deserialize_cuda_engine(engine_data)    assert engine is not None, "Failed to deserialize TensorRT engine."    # 创建TensorRT执行上下文    context = engine.create_execution_context()    # 分配输入输出内存    inputs, outputs, bindings, stream = [], [], [], cuda.Stream()    for binding in engine:        size = trt.volume(engine.get_binding_shape(binding)) * engine.max_batch_size        dtype = trt.nptype(engine.get_binding_dtype(binding))        host_mem = cuda.pagelocked_empty(size, dtype) # 页锁定内存        device_mem = cuda.mem_alloc(host_mem.nbytes) # 设备内存        bindings.append(int(device_mem))        if engine.binding_is_input(binding):            inputs.append({'host': host_mem, 'device': device_mem, 'name':  binding, 'shape': engine.get_binding_shape(binding), 'type': engine.get_binding_dtype(binding)})        else:            outputs.append({'host': host_mem, 'device': device_mem, 'name':  binding, 'shape': engine.get_binding_shape(binding), 'type': engine.get_binding_dtype(binding)})    # 加载并预处理TensorRT模型输入图像    image_path = "/app/models/buffalo_l/image.png"    image = cv2.imread(image_path)    assert image is not None, f"Failed to load image from {image_path}"    image = cv2.cvtColor(image, cv2.COLOR_BGR2RGB)    image = cv2.resize(image, (640, 640))    image = image.astype(np.float32) / 255.0    input_data_trt = np.expand_dims(image.transpose(2, 0, 1), axis=0)    # --- ONNX Runtime 模型初始化部分 ---    onnx_model_path = "/app/models/buffalo_l/det_10g.onnx"    # 加载ONNX模型(可选,onnxruntime.InferenceSession会自动加载)    # onnx_model = onnx.load(onnx_model_path)    # 创建ONNX Runtime会话,并指定CUDAExecutionProvider    # 注意:ort_session的创建必须在CUDA上下文被推入后进行    ort_session = onnxruntime.InferenceSession(onnx_model_path, providers=['CUDAExecutionProvider'])    # --- TensorRT 模型推理部分 ---    print("n--- Running TensorRT Inference ---")    for _ in range(1):        # with ProfTimer('TensorRT per call') as t: # 性能分析,如果不需要可注释        # 将输入数据从主机内存拷贝到GPU设备内存        cuda.memcpy_htod_async(inputs[0]['device'], input_data_trt.ravel(), stream)        # 执行推理        if context.execute_async(batch_size=1, bindings=bindings, stream_handle=stream.handle) == 0:            print("Error: Unable to launch TensorRT inference.")        # 将结果从GPU设备内存拷贝回主机内存        if cuda.memcpy_dtoh_async(outputs[0]['host'], outputs[0]['device'], stream) == 0:            print("Error: Unable to copy results from GPU to host.")        # 获取推理结果        result_trt = outputs[0]['host']        # 同步CUDA流        stream.synchronize()        print("Inference TensorRT Results (first 20 elements):")        print(result_trt[:20])    stream.synchronize() # 确保所有TensorRT操作完成    # --- ONNX Runtime 模型推理部分 ---    print("n--- Running ONNX (CUDA) Inference ---")    for _ in range(1):        # with ProfTimer('ONNX(CUDA) per call') as t: # 性能分析,如果不需要可注释        # 重新加载并预处理ONNX模型输入图像(如果需要,否则可复用input_data_trt)        image_path_onnx = "/app/models/buffalo_l/image.png"        image_onnx = cv2.imread(image_path_onnx)        assert image_onnx is not None, f"Failed to load image from {image_path_onnx}"        image_onnx = cv2.cvtColor(image_onnx, cv2.COLOR_BGR2RGB)        image_onnx = cv2.resize(image_onnx, (640, 640))        image_onnx = image_onnx.astype(np.float32) / 255.0        input_data_onnx = np.expand_dims(image_onnx.transpose(2, 0, 1), axis=0)        # 获取ONNX模型的输入名称        input_name_onnx = ort_session.get_inputs()[0].name        # 运行ONNX推理        outputs_onnx = ort_session.run(None, {input_name_onnx: input_data_onnx})        print("Inference ONNX Results (first 20 elements):")        # 注意:ONNX输出的形状可能与TensorRT不同,这里仅打印前20个元素        print(f"{np.transpose(outputs_onnx[0][:20])}")finally:    # 3. 确保上下文被弹出,无论是否发生异常    ctx.pop()    # 4. 分离并销毁上下文以释放资源    ctx.detach()    # 清理TensorRT相关资源    if 'context' in locals() and context:        context.destroy()    if 'engine' in locals() and engine:        engine.destroy()    if 'runtime' in locals() and runtime:        del runtime # runtime对象没有destroy方法,直接删除引用    # ONNX Runtime session通常在对象销毁时自动释放资源,无需显式操作    # 如果需要,也可以 del ort_session    print("nCUDA Context and resources cleaned up.")

4. 注意事项与最佳实践

上下文生命周期管理: 确保ctx.push()和ctx.pop()成对出现,并且所有依赖CUDA的操作都在这两个调用之间。使用try…finally块是保证pop()被执行的健壮方法。资源清理: 除了CUDA上下文,TensorRT的engine和context对象也需要显式地destroy()以释放GPU内存。np.bool兼容性: np.bool = np.bool_这行代码是为了兼容旧版NumPy,在新版中np.bool已被弃用,通常直接使用bool即可。如果遇到相关警告或错误,可以保留此行。多线程/多进程: 如果在多线程或多进程环境中使用CUDA,每个线程/进程可能需要独立管理其CUDA上下文,或者使用PyCUDA提供的线程安全机制。这会使问题变得更复杂,需要更高级的CUDA编程知识。驱动与库版本: 确保NVIDIA驱动、CUDA Toolkit、cuDNN、TensorRT以及ONNX Runtime的版本兼容。不匹配的版本可能导致各种运行时错误。调试: 如果问题依然存在,可以尝试设置CUDA_LAUNCH_BLOCKING=1环境变量,这会让CUDA操作同步执行,有助于定位错误发生的具体位置,但会影响性能。同时,检查TensorRT和ONNX Runtime的日志输出,通常能提供更多线索。

5. 总结

在同一Python程序中整合ONNX Runtime(CUDA Execution Provider)和TensorRT时,正确管理CUDA上下文是避免“invalid resource handle”等资源冲突的关键。通过移除pycuda.autoinit并采用手动pycuda.driver初始化和上下文堆栈管理(ctx.push()和ctx.pop()),我们可以为所有CUDA依赖的库提供一个稳定且受控的执行环境,从而确保两种高性能推理引擎的顺利协同工作。理解并实施这些CUDA上下文管理原则,对于构建健壮且高效的深度学习部署系统至关重要。

以上就是解决ONNX Runtime与TensorRT共存时的CUDA资源冲突的详细内容,更多请关注创想鸟其它相关文章!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1366305.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2025年12月14日 05:05:23
下一篇 2025年12月14日 05:05:35

相关推荐

  • Uniapp 中如何不拉伸不裁剪地展示图片?

    灵活展示图片:如何不拉伸不裁剪 在界面设计中,常常需要以原尺寸展示用户上传的图片。本文将介绍一种在 uniapp 框架中实现该功能的简单方法。 对于不同尺寸的图片,可以采用以下处理方式: 极端宽高比:撑满屏幕宽度或高度,再等比缩放居中。非极端宽高比:居中显示,若能撑满则撑满。 然而,如果需要不拉伸不…

    2025年12月24日
    400
  • 如何让小说网站控制台显示乱码,同时网页内容正常显示?

    如何在不影响用户界面的情况下实现控制台乱码? 当在小说网站上下载小说时,大家可能会遇到一个问题:网站上的文本在网页内正常显示,但是在控制台中却是乱码。如何实现此类操作,从而在不影响用户界面(UI)的情况下保持控制台乱码呢? 答案在于使用自定义字体。网站可以通过在服务器端配置自定义字体,并通过在客户端…

    2025年12月24日
    800
  • 如何在地图上轻松创建气泡信息框?

    地图上气泡信息框的巧妙生成 地图上气泡信息框是一种常用的交互功能,它简便易用,能够为用户提供额外信息。本文将探讨如何借助地图库的功能轻松创建这一功能。 利用地图库的原生功能 大多数地图库,如高德地图,都提供了现成的信息窗体和右键菜单功能。这些功能可以通过以下途径实现: 高德地图 JS API 参考文…

    2025年12月24日
    400
  • 如何使用 scroll-behavior 属性实现元素scrollLeft变化时的平滑动画?

    如何实现元素scrollleft变化时的平滑动画效果? 在许多网页应用中,滚动容器的水平滚动条(scrollleft)需要频繁使用。为了让滚动动作更加自然,你希望给scrollleft的变化添加动画效果。 解决方案:scroll-behavior 属性 要实现scrollleft变化时的平滑动画效果…

    2025年12月24日
    000
  • 如何为滚动元素添加平滑过渡,使滚动条滑动时更自然流畅?

    给滚动元素平滑过渡 如何在滚动条属性(scrollleft)发生改变时为元素添加平滑的过渡效果? 解决方案:scroll-behavior 属性 为滚动容器设置 scroll-behavior 属性可以实现平滑滚动。 html 代码: click the button to slide right!…

    2025年12月24日
    500
  • 如何选择元素个数不固定的指定类名子元素?

    灵活选择元素个数不固定的指定类名子元素 在网页布局中,有时需要选择特定类名的子元素,但这些元素的数量并不固定。例如,下面这段 html 代码中,activebar 和 item 元素的数量均不固定: *n *n 如果需要选择第一个 item元素,可以使用 css 选择器 :nth-child()。该…

    2025年12月24日
    200
  • 使用 SVG 如何实现自定义宽度、间距和半径的虚线边框?

    使用 svg 实现自定义虚线边框 如何实现一个具有自定义宽度、间距和半径的虚线边框是一个常见的前端开发问题。传统的解决方案通常涉及使用 border-image 引入切片图片,但是这种方法存在引入外部资源、性能低下的缺点。 为了避免上述问题,可以使用 svg(可缩放矢量图形)来创建纯代码实现。一种方…

    2025年12月24日
    100
  • 如何解决本地图片在使用 mask JS 库时出现的跨域错误?

    如何跨越localhost使用本地图片? 问题: 在本地使用mask js库时,引入本地图片会报跨域错误。 解决方案: 要解决此问题,需要使用本地服务器启动文件,以http或https协议访问图片,而不是使用file://协议。例如: python -m http.server 8000 然后,可以…

    2025年12月24日
    200
  • 如何让“元素跟随文本高度,而不是撑高父容器?

    如何让 元素跟随文本高度,而不是撑高父容器 在页面布局中,经常遇到父容器高度被子元素撑开的问题。在图例所示的案例中,父容器被较高的图片撑开,而文本的高度没有被考虑。本问答将提供纯css解决方案,让图片跟随文本高度,确保父容器的高度不会被图片影响。 解决方法 为了解决这个问题,需要将图片从文档流中脱离…

    2025年12月24日
    000
  • 为什么 CSS mask 属性未请求指定图片?

    解决 css mask 属性未请求图片的问题 在使用 css mask 属性时,指定了图片地址,但网络面板显示未请求获取该图片,这可能是由于浏览器兼容性问题造成的。 问题 如下代码所示: 立即学习“前端免费学习笔记(深入)”; icon [data-icon=”cloud”] { –icon-cl…

    2025年12月24日
    200
  • 如何利用 CSS 选中激活标签并影响相邻元素的样式?

    如何利用 css 选中激活标签并影响相邻元素? 为了实现激活标签影响相邻元素的样式需求,可以通过 :has 选择器来实现。以下是如何具体操作: 对于激活标签相邻后的元素,可以在 css 中使用以下代码进行设置: li:has(+li.active) { border-radius: 0 0 10px…

    2025年12月24日
    100
  • 如何模拟Windows 10 设置界面中的鼠标悬浮放大效果?

    win10设置界面的鼠标移动显示周边的样式(探照灯效果)的实现方式 在windows设置界面的鼠标悬浮效果中,光标周围会显示一个放大区域。在前端开发中,可以通过多种方式实现类似的效果。 使用css 使用css的transform和box-shadow属性。通过将transform: scale(1.…

    2025年12月24日
    200
  • 为什么我的 Safari 自定义样式表在百度页面上失效了?

    为什么在 Safari 中自定义样式表未能正常工作? 在 Safari 的偏好设置中设置自定义样式表后,您对其进行测试却发现效果不同。在您自己的网页中,样式有效,而在百度页面中却失效。 造成这种情况的原因是,第一个访问的项目使用了文件协议,可以访问本地目录中的图片文件。而第二个访问的百度使用了 ht…

    2025年12月24日
    000
  • 如何用前端实现 Windows 10 设置界面的鼠标移动探照灯效果?

    如何在前端实现 Windows 10 设置界面中的鼠标移动探照灯效果 想要在前端开发中实现 Windows 10 设置界面中类似的鼠标移动探照灯效果,可以通过以下途径: CSS 解决方案 DEMO 1: Windows 10 网格悬停效果:https://codepen.io/tr4553r7/pe…

    2025年12月24日
    000
  • 使用CSS mask属性指定图片URL时,为什么浏览器无法加载图片?

    css mask属性未能加载图片的解决方法 使用css mask属性指定图片url时,如示例中所示: mask: url(“https://api.iconify.design/mdi:apple-icloud.svg”) center / contain no-repeat; 但是,在网络面板中却…

    2025年12月24日
    000
  • 如何用CSS Paint API为网页元素添加时尚的斑马线边框?

    为元素添加时尚的斑马线边框 在网页设计中,有时我们需要添加时尚的边框来提升元素的视觉效果。其中,斑马线边框是一种既醒目又别致的设计元素。 实现斜向斑马线边框 要实现斜向斑马线间隔圆环,我们可以使用css paint api。该api提供了强大的功能,可以让我们在元素上绘制复杂的图形。 立即学习“前端…

    2025年12月24日
    000
  • 图片如何不撑高父容器?

    如何让图片不撑高父容器? 当父容器包含不同高度的子元素时,父容器的高度通常会被最高元素撑开。如果你希望父容器的高度由文本内容撑开,避免图片对其产生影响,可以通过以下 css 解决方法: 绝对定位元素: .child-image { position: absolute; top: 0; left: …

    2025年12月24日
    000
  • 使用 Mask 导入本地图片时,如何解决跨域问题?

    跨域疑难:如何解决 mask 引入本地图片产生的跨域问题? 在使用 mask 导入本地图片时,你可能会遇到令人沮丧的跨域错误。为什么会出现跨域问题呢?让我们深入了解一下: mask 框架假设你以 http(s) 协议加载你的 html 文件,而当使用 file:// 协议打开本地文件时,就会产生跨域…

    2025年12月24日
    200
  • CSS 帮助

    我正在尝试将文本附加到棕色框的左侧。我不能。我不知道代码有什么问题。请帮助我。 css .hero { position: relative; bottom: 80px; display: flex; justify-content: left; align-items: start; color:…

    2025年12月24日 好文分享
    200
  • 前端代码辅助工具:如何选择最可靠的AI工具?

    前端代码辅助工具:可靠性探讨 对于前端工程师来说,在HTML、CSS和JavaScript开发中借助AI工具是司空见惯的事情。然而,并非所有工具都能提供同等的可靠性。 个性化需求 关于哪个AI工具最可靠,这个问题没有一刀切的答案。每个人的使用习惯和项目需求各不相同。以下是一些影响选择的重要因素: 立…

    2025年12月24日
    300

发表回复

登录后才能评论
关注微信