这是一套基于ROCm(AMD的开源GPU计算平台)优化的vLLM Docker容器,专为AMD GPU用户设计。vLLM是一款高效的大语言模型服务框架,通过该容器,用户可快速部署支持高并发、低延迟的大语言模型推理服务,无需手动配置ROCm环境或编译vLLM依赖,直接开箱即用。
rocm-docker)。rocm-smi命令检查,或参考AMD***ROCm支持列表)。从Docker Hub或私有仓库拉取镜像(以Docker Hub为例):
bashdocker pull rocm/vllm:latest # 最新版,默认包含ROCm优化和vLLM稳定版
如需指定版本,可替换:latest为具体标签(如:v0.4.0-rocm5.7)。
假设本地已下载模型文件(如Llama-2-7B),存放路径为/path/to/your/model,执行以下命令启动容器:
bashdocker run -it --network=host \ --device=/dev/kfd --device=/dev/dri \ # 映射AMD GPU设备 -v /path/to/your/model:/workspace/model \ # 挂载本地模型目录到容器内 rocm/vllm:latest \ python -m vllm.entrypoints.api_server \ --model /workspace/model \ # 指定容器内模型路径 --port 8000 # 服务端口(可自定义)
--network=host:直接使用主机网络(简单场景),或用-p 8000:8000映射端口。--tensor-parallel-size指定GPU数量,--max-num-batched-tokens控制批处理大小),可在命令后追加。容器启动后,通过HTTP请求测试推理效果(以curl为例):
bashcurl [***] \ -H "Content-Type: application/json" \ -d '{"prompt": "Hello! How are you?", "max_tokens": 50}'
若返回模型生成的文本,说明服务部署成功。
--max-num-batched-tokens(如MI250 64GB显存可设为8192)。--quantization gptq,并确保模型文件包含量化参数。来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429