专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

rocm/gpu-operator Docker 镜像 - 轩辕镜像

gpu-operator
rocm/gpu-operator
AMD GPU Operator用于在Kubernetes集群中配置、监控和管理AMD GPU资源,提供GPU设备的自动配置、健康监控及生命周期管理能力,简化GPU在容器化环境中的部署与运维。
3 收藏0 次下载
⏱️ 镜像拉取更稳定,部署项目不再心跳加速
中文简介版本下载
⏱️ 镜像拉取更稳定,部署项目不再心跳加速

AMD GPU Operator 技术文档

镜像概述和主要用途

AMD GPU Operator是一款专为Kubernetes集群设计的工具,用于简化AMD GPU资源的管理流程。它通过自动化配置GPU驱动、设备插件和监控组件,实现GPU设备在Kubernetes环境中的即插即用,同时提供全面的设备健康监控和生命周期管理能力,帮助用户高效利用GPU资源进行计算任务。

核心功能和特性

  • 自动配置:自动部署和配置AMD GPU驱动、容器运行时插件及设备插件,无需手动干预底层GPU环境配置。
  • GPU资源监控:集成监控组件,实时采集GPU使用率、温度、内存占用等关键指标,支持与Prometheus、Grafana等监控平台对接。
  • 生命周期管理:提供GPU设备的健康检查、故障检测及自动恢复能力,保障GPU资源稳定运行。
  • Kubernetes原生集成:遵循Kubernetes资源模型,支持通过Pod、Deployment等原生资源申请和使用GPU,与Kubernetes调度机制深度整合。
  • 版本兼容性管理:自动匹配GPU硬件与驱动版本,支持多版本驱动共存,适配不同场景下的GPU计算需求。

使用场景和适用范围

适用场景
  • AI/机器学习训练与推理任务(如TensorFlow、PyTorch等框架的GPU加速)
  • 高性能计算(HPC)工作负载
  • 图形渲染与可视化应用
  • 实时数据处理与流计算
适用范围
  • 部署有AMD GPU硬件的Kubernetes集群(支持Kubernetes 1.20+版本)
  • 需要对GPU资源进行精细化管理的企业级容器平台
  • 追求自动化运维、降低GPU管理复杂度的技术团队

详细使用方法和配置说明

安装前提
  • Kubernetes集群(1.20+版本),已配置容器运行时(Docker、containerd等)
  • 集群节点已安装AMD GPU硬件,且BIOS启用GPU直通(如适用)
  • 集群已部署Helm 3(推荐用于Operator安装)
安装步骤
1. 添加Helm仓库
bash
helm repo add amd-gpu-operator [***]
helm repo update
2. 安装GPU Operator
bash
helm install amd-gpu-operator amd-gpu-operator/gpu-operator \
  --namespace gpu-operator-resources \
  --create-namespace \
  --set driver.repository=amdgpu_driver \
  --set driver.version=5.4-22.40.1
配置参数说明
参数路径描述默认值
driver.repositoryGPU驱动镜像仓库amdgpu_driver
driver.versionGPU驱动版本5.4-22.40.1
monitoring.enabled是否启用GPU监控true
monitoring.serviceMonitor.enabled是否创建Prometheus ServiceMonitortrue
resourceManager.enabled是否启用GPU资源管理器true
nodeSelector指定部署节点的标签选择器{}
自定义配置示例

通过修改values.yaml文件自定义配置:

yaml
driver:
  version: 5.6-23.10.1  # 指定驱动版本
  imagePullPolicy: Always  # 总是拉取最新镜像
monitoring:
  metricsCollector.interval: 10s  # 监控指标采集间隔
resourceManager:
  limits:
    cpu: 500m
    memory: 512Mi
验证安装

安装完成后,检查相关组件状态:

bash
kubectl get pods -n gpu-operator-resources

预期输出包含gpu-operator-xxx、amdgpu-driver-xxx、gpu-metrics-exporter-xxx等Pod,状态均为Running。

卸载方法

bash
helm uninstall amd-gpu-operator -n gpu-operator-resources
kubectl delete namespace gpu-operator-resources

注意事项

  • 确保集群节点的GPU硬件与指定驱动版本兼容,参考AMD官方兼容性列表。
  • 监控功能依赖Prometheus Operator,需提前在集群中部署。
  • 多GPU节点集群中,建议通过nodeSelector或taint/toleration控制GPU资源的调度范围。
查看更多 gpu-operator 相关镜像 →
rocm/pytorch logo
rocm/pytorch
基于ROCm的PyTorch Docker镜像为开发者提供了预配置的深度学习环境,集成了PyTorch框架与AMD ROCm开源计算平台,支持AMD GPU硬件加速,无需手动配置驱动及库依赖,可直接用于深度学习模型的开发、训练与部署,有效简化环境搭建流程,确保跨平台一致性,适用于科研机构、工业界等多种场景,助力高效利用AMD硬件资源开展AI相关任务。
118500K+ pulls
上次更新:未知
rocm/k8s-device-plugin logo
rocm/k8s-device-plugin
Kubernetes (k8s)设备插件,用于将AMD GPU注册到容器集群中,支持计算工作负载调度
75M+ pulls
上次更新:未知
rocm/rocm-terminal logo
rocm/rocm-terminal
ROCm-Docker:用于构建Radeon Open Compute Platform软件层为可移植Docker镜像的框架,包含依赖说明、快速启动指南及容器管理命令。
20100K+ pulls
上次更新:未知
rocm/tensorflow logo
rocm/tensorflow
支持ROCm后端的Tensorflow
86100K+ pulls
上次更新:未知
rocm/vllm logo
rocm/vllm
这是为AMD图形处理器(GPU)量身打造的、基于ROCm开源平台深度优化的vLLM Docker容器,其中vLLM作为高性能大语言模型服务库,可提供高效推理与服务能力,Docker容器则保障了部署的便捷性与环境一致性,整体方案旨在为AMD GPU用户提供兼顾性能与易用性的优化大语言模型运行环境。
19100K+ pulls
上次更新:未知
rocm/sgl-dev logo
rocm/sgl-dev
AMD构建的sgl-dev容器,提供统一的预配置开发环境,适用于基于AMD技术栈的项目开发。
3500K+ pulls
上次更新:未知

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

Dev Containers

VS Code Dev Containers 配置

MacOS OrbStack

MacOS OrbStack 容器配置

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

用户头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
rocm/gpu-operator
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
咨询镜像拉取问题请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
咨询镜像拉取问题请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.