当前位置: 首页 > news >正文

深度学习环境搭建运行(二) Ubuntu22.04安装基于CUDA11.8的ONNXRuntime-gpu1.18.1详细步骤(新手入门)

文章目录

  • 深度学习环境搭建运行(二) Ubuntu22.04安装基于CUDA11.8的ONNXRuntime-gpu1.18.1详细步骤(新手入门)
        • 1)安装gpu版本
        • 2)验证onnxruntime-gpu是否可用

深度学习环境搭建运行(二) Ubuntu22.04安装基于CUDA11.8的ONNXRuntime-gpu1.18.1详细步骤(新手入门)

避坑指南!Ubuntu 22.04 保姆级安装 CUDA 11.8 + ONNXRuntime-gpu1.18.1。新手零失败,手把手带你成功配置深度学习环境!

前文链接请参考:深度学习环境搭建运行(一) Ubuntu22.04 系统安装 CUDA11.8 和 CUDNN8.6.0 详细步骤(新手入门)

1)安装gpu版本

参考版本链接:https://onnxruntime.ai/docs/execution-providers/CUDA-ExecutionProvider.html#requirements

选择适合系统cuda和cudnn版本的onnxruntime-gpu

见图:在这里插入图片描述

#—# 执行指令:

(default) root@vphlhycvfilovpqi-snow-5dd4c6b7b5-zbdgl:/data/coding/xm_projects# pip install onnxruntime-gpu==1.18.1 -i https://pypi.tuna.tsinghua.edu.cn/simple
2)验证onnxruntime-gpu是否可用

就是一段python脚本verify_env.py:

# 检查安装的ONNX Runtime版本:
import onnxruntime as ortprint(ort.__version__)# 检查ONNX Runtime是否识别到了GPU
providers = ['CUDAExecutionProvider']# session = ort.InferenceSession('./onnxocr/models/ppocrv4/cls/cls.onnx', providers=providers)
# session = ort.InferenceSession('./onnxocr/models/ppocrv4/det/det.onnx', providers=providers)
# session = ort.InferenceSession('./onnxocr/models/ppocrv4/rec/rec.onnx', providers=providers)
# session = ort.InferenceSession('./onnxocr/models/ppocrv5/cls/cls.onnx', providers=providers)
session = ort.InferenceSession('./onnxocr/models/ppocrv5/det/det.onnx', providers=providers)
# session = ort.InferenceSession('./onnxocr/models/ppocrv5/rec/rec.onnx', providers=providers)# 如果输出列表中包含 CUDAExecutionProvider,这表明ONNX Runtime已经安装了GPU支持,并且准备好使用GPU进行推理
print(session.get_providers())

#—# 执行指令:

(default) root@vphlhycvfilovpqi-snow-5dd4c6b7b5-zbdgl:/data/coding/xm_projects/onnxocr_v5# python verify_env.py 
1.18.1
['CUDAExecutionProvider', 'CPUExecutionProvider']

#—# 额外依赖库安装(optional):

(default) root@vphlhycvfilovpqi-snow-5dd4c6b7b5-zbdgl:/data/coding/xm_projects# pip install shapely pyclipper -i https://pypi.tuna.tsinghua.edu.cn/simple

<<<打印版本号,表示安装成功,基于CUDA11.8的ONNXRuntime-gpu1.18.1至此安装完成>>>

额外说明:
要求
‘’‘有关 ONNX Runtime 推理包的官方 GPU 包依赖项,请参考下面的表格。请注意,ONNX Runtime 训练与 PyTorch CUDA 版本保持一致;有关支持的版本,请参考onnxruntime.ai上的 “优化训练” 选项卡。
由于 NVIDIA CUDA 次要版本兼容性基于 cuDNN 8.x 构建的 ONNX Runtime 与 cuDNN 9.x 不兼容,反之亦然。您可以根据与运行时环境匹配的 CUDA 和 cuDNN 主版本选择包(例如,PyTorch 2.3 使用 cuDNN 8.x,而 PyTorch 2.4 及更高版本使用 cuDNN 9.x)。
注意:从 1.19 版本开始,在 PyPI 中分发ONNX Runtime GPU 包时,CUDA 12.x成为默认版本。
为减少 CUDA 和 cuDNN 的手动安装需求,并确保 ONNX Runtime 与 PyTorch 之间的无缝集成,onnxruntime-gpu Python 包提供了适当加载 CUDA 和 cuDNN 动态链接库(DLL)的 API。有关更多详细信息,请参考与 PyTorch 的兼容性和预加载 DLL部分。’‘’

http://www.xdnf.cn/news/1424233.html

相关文章:

  • 联邦学习的文献复现与创新思路指导
  • Qt 项目文件(.pro)中添加 UI 文件相关命令
  • 深度学习】--卷积神经网络
  • k8s--etcd
  • h5实现内嵌微信小程序支付宝 --截图保存海报分享功能
  • authentication port-control auto 和 dot1x port-control auto
  • Linux ARP老化机制/探测机制/ip neigh使用
  • Paimon MergeTreeWrite、Compaction 和 快照构建
  • 甲烷浓度时空演变趋势分析与异常值计算(附下载脚本)
  • 基于docker-compose搭建EFK(Elasticsearch+fluentd+kibana)的日志平台
  • 2025年工作后值得考的财会行业证书推荐,尤其是第二个!
  • 从网络层接入控制过渡到应用层身份认证的过程
  • 如何在SptingBoot项目中引入swagger生成API文档
  • HarvardX TinyML小笔记2(番外3:数据工程)
  • 技术速递|构建你的第一个 MCP 服务器:如何使用自定义功能扩展 AI 工具
  • Linux之Shell编程(四)函数、数组、正则
  • PostgreSQL备份指南:逻辑与物理备份详解
  • EPLAN如何添加接触器辅助触头 | 解决触点不足问题详解4----使用部件组
  • 三、Gitee平台使用指南
  • 在Lumerical FDTD中,磁偶极子通常用于激发TE模式,而电偶极子用于激发TM模式(文心一言)
  • chrome好用的浏览器插件
  • 51.【.NET8 实战--孢子记账--从单体到微服务--转向微服务】--新增功能--登录注册扩展
  • UE角色取消被Decal影响
  • 在 PHP 应用中处理限流和 API 节流:扩展、防滥用的最佳实践
  • 【数据可视化-102】苏州大学招生计划全解析:数据可视化的五大维度
  • 预告:AI赋能IT服务管理实践 |2025 “数字化时代的IT服务管理“Meetup-深圳站(9月20日)
  • [吾爱出品] PDF文件加密解密工作,附带源码。
  • GitHub CLI (gh) 全面指南:终端中的 GitHub 工作流革命
  • ServBay 是一款集成式、图形化的本地 Web 开发环境工具,专为 macOS 和 Windows 系统设计
  • 什么是最大熵强化学习?