本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

vllm-dev Docker 镜像下载 - 轩辕镜像

vllm-dev 镜像详细信息和使用指南

vllm-dev 镜像标签列表和版本信息

vllm-dev 镜像拉取命令和加速下载

vllm-dev 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

vllm-dev
rocm/vllm-dev

vllm-dev 镜像详细信息

vllm-dev 镜像标签列表

vllm-dev 镜像使用说明

vllm-dev 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

rocm/vllm-dev是基于AMD ROCm平台的高性能大语言模型开发镜像,集成vllm框架与AMD GPU加速能力,专为开发者打造大语言模型部署、推理优化及二次开发环境。镜像预配置PyTorch、HIP等核心依赖,支持低延迟、高吞吐量的LLM推理,可快速进行模型加载、性能调优与多实例部署测试,助力开发者高效构建和调试大语言模型应用,充分发挥AMD GPU在AI计算中的算力优势。
15 收藏0 次下载activerocm镜像

vllm-dev 镜像详细说明

vllm-dev 使用指南

vllm-dev 配置说明

vllm-dev 官方文档

vLLM-dev

vLLM-dev 是用于大语言模型(LLM)推理和服务的每周开发流工具包及库。这些容器提供了在 AMD Instinct™ 加速器上快速运行或试用 vLLM 的方式。如需构建或扩展 vLLM-dev,请参考 构建 Dockerfiles。

运行容器

执行以下命令启动容器:

shell
docker run -it --rm \
    --ipc=host \
    --network=host \
    --privileged \
    --cap-add=CAP_SYS_ADMIN \
    --device=/dev/kfd \
    --device=/dev/dri \
    --device=/dev/mem \
    --group-add render \
    --cap-add=SYS_PTRACE \
    --security-opt seccomp=unconfined \
    rocm/vllm-dev:main

文档

完整文档(含入门指南、环境配置等内容)详见 此处。

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker加速体验非常流畅,大镜像也能快速完成下载。"