dustynv/jetson-inferencejetson-inference是针对NVIDIA Jetson平台优化的深度学习推理容器,旨在简化深度学习模型在Jetson设备上的部署和运行。该容器集成了运行推理任务所需的核心依赖组件,包括CUDA、CuDNN、PyTorch、TensorRT、OpenCV等,支持多种JetPack/L4T版本,适用于图像分类、目标检测、语义分割等计算机视觉推理应用。
build-essential:基础构建工具cuda:NVIDIA CUDA工具包cudnn:CUDA深度神经网络库python:Python运行环境numpy:数值计算库cmake:跨平台构建工具onnx:开放神经网络交换格式支持pytorch:2.2:PyTorch深度学习框架torchvision:PyTorch计算机视觉库tensorrt:NVIDIA TensorRT推理优化器opencv:计算机视觉库gstreamer:多媒体处理框架| 仓库/标签 | 日期 | 架构 | 大小 |
|---|---|---|---|
dustynv/jetson-inference:22.06 | 2022-09-30 | amd64 | 6.5GB |
dustynv/jetson-inference:r32.4.3 | 2020-10-27 | arm64 | 0.9GB |
dustynv/jetson-inference:r32.4.4 | 2021-11-16 | arm64 | 0.9GB |
dustynv/jetson-inference:r32.5.0 | 2021-08-09 | arm64 | 0.9GB |
dustynv/jetson-inference:r32.6.1 | 2021-08-24 | arm64 | 0.9GB |
dustynv/jetson-inference:r32.7.1 | 2023-05-15 | arm64 | 1.1GB |
dustynv/jetson-inference:r34.1.0 | 2022-04-08 | arm64 | 5.9GB |
dustynv/jetson-inference:r34.1.1 | 2023-03-18 | arm64 | 6.1GB |
dustynv/jetson-inference:r35.1.0 | 2023-05-15 | arm64 | 6.1GB |
dustynv/jetson-inference:r35.2.1 | 2023-05-15 | arm64 | 6.0GB |
dustynv/jetson-inference:r35.3.1 | 2023-05-15 | arm64 | 5.6GB |
dustynv/jetson-inference:r35.4.1 | 2023-08-30 | arm64 | 5.7GB |
dustynv/jetson-inference:r36.2.0 | 2023-12-19 | arm64 | 7.9GB |
dustynv/jetson-inference:r36.3.0 | 2024-05-08 | arm64 | 7.2GB |
要启动容器,可以使用jetson-containers run和autotag,或手动组合docker run命令:
bash# 自动拉取或构建兼容的容器镜像 jetson-containers run $(autotag jetson-inference) # 或显式指定上述容器镜像之一 jetson-containers run dustynv/jetson-inference:r36.3.0 # 或使用'docker run'(指定镜像及挂载等) sudo docker run --runtime nvidia -it --rm --network=host dustynv/jetson-inference:r36.3.0
jetson-containers run会将参数转发给docker run,并添加一些默认设置(如--runtime nvidia、挂载/data缓存、检测设备等)
autotag会找到与您的JetPack/L4T版本兼容的容器镜像——无论是本地镜像、从仓库拉取的镜像,还是需要构建的镜像。
要将主机目录挂载到容器中,使用-v或--volume标志:
bashjetson-containers run -v /主机路径:/容器路径 $(autotag jetson-inference)
要启动容器并运行命令(而非交互式shell):
bashjetson-containers run $(autotag jetson-inference) my_app --abc xyz
您可以向其传递任何docker run支持的选项,它会在执行前打印出构建的完整命令。
如果如上所示使用autotag,必要时它会提示您构建容器。要手动构建,请先完成系统设置,然后运行:
bashjetson-containers build jetson-inference
上述依赖项将被构建到容器中,并在构建过程中进行测试。运行时添加--help可查看构建选项。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像服务
在 Docker Desktop 配置镜像
Docker Compose 项目配置
Kubernetes 集群配置 Containerd
K3s 轻量级 Kubernetes 镜像加速
VS Code Dev Containers 配置
MacOS OrbStack 容器配置
在宝塔面板一键配置镜像
Synology 群晖 NAS 配置
飞牛 fnOS 系统配置镜像
极空间 NAS 系统配置服务
爱快 iKuai 路由系统配置
绿联 NAS 系统配置镜像
QNAP 威联通 NAS 配置
Podman 容器引擎配置
HPC 科学计算容器配置
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名
需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单
免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
来自真实用户的反馈,见证轩辕镜像的优质服务