stable-diffusion-webui 是一个基于 AUTOMATIC1111/stable-diffusion-webui 项目的Docker镜像,集成了 TensorRT扩展,专为NVIDIA Jetson平台优化。镜像内Web UI程序位于 /opt/stable-diffusion-webui,主要用途是提供图形化界面,方便用户通过浏览器进行 Stable Diffusion 模型的图像生成(文本转图像、图像转图像等)。
--medvram和--lowvram模式,适配不同显存容量的Jetson设备。--enable-insecure-extension-access开启)。--medvram/--lowvram参数,可在显存有限的设备上运行(如Jetson Nano需使用--lowvram)。镜像标签与JetPack/L4T版本对应,需根据设备的JetPack版本选择:
| 镜像标签 | 发布日期 | 架构 | 大小 | 兼容JetPack版本 |
|---|---|---|---|---|
| dustynv/stable-diffusion-webui:r35.2.1 | 2024-02-02 | arm64 | 7.3GB | JetPack 5.1+ (L4T R35.x) |
| dustynv/stable-diffusion-webui:r35.3.1 | 2024-02-02 | arm64 | 7.3GB | JetPack 5.1+ (L4T R35.x) |
| dustynv/stable-diffusion-webui:r35.4.1 | 2024-02-02 | arm64 | 7.3GB | JetPack 5.1+ (L4T R35.x) |
| dustynv/stable-diffusion-webui:r36.2.0 | 2024-02-02 | arm64 | 8.9GB | JetPack 6.0+ (L4T R36.x) |
兼容性说明:L4T R35.x镜像适用于所有JetPack 5.1+版本,L4T R36.x镜像适用于JetPack 6.0+版本。
jetson-containers工具(推荐)通过jetson-containers工具自动选择兼容镜像并启动:
bash# 自动拉取/构建兼容镜像并运行 jetson-containers run $(autotag stable-diffusion-webui) # 或指定具体镜像标签 jetson-containers run dustynv/stable-diffusion-webui:r35.3.1
jetson-containers run会自动添加--runtime nvidia、挂载/data目录(模型缓存),并检测设备硬件。
docker run手动运行若直接使用docker命令,需手动指定NVIDIA运行时和网络配置:
bashsudo docker run \ --runtime nvidia \ # 使用NVIDIA运行时(GPU支持) -it --rm \ # 交互式运行,退出后自动删除容器 --network=host \ # 共享主机网络(简化端口映射) dustynv/stable-diffusion-webui:r35.3.1 # 镜像标签(需替换为实际版本)
如需持久化存储模型、生成图像或配置文件,可挂载主机目录到容器:
bash# 挂载主机模型目录到容器(避免重复下载) jetson-containers run -v /host/path/to/models:/data/models/stable-diffusion $(autotag stable-diffusion-webui) # 挂载生成图像目录(方便主机访问输出结果) jetson-containers run -v /host/path/to/outputs:/opt/stable-diffusion-webui/outputs $(autotag stable-diffusion-webui)
默认启动命令为:
bashcd /opt/stable-diffusion-webui && python3 launch.py \ --data=/data/models/stable-diffusion \ --enable-insecure-extension-access \ --xformers \ --listen \ --port=7860
如需修改参数(如添加--medvram),可通过jetson-containers run或docker run覆盖默认命令:
bash# 使用jetson-containers添加自定义参数 jetson-containers run $(autotag stable-diffusion-webui) \ python3 launch.py --data=/data/models/stable-diffusion --xformers --listen --port=7860 --medvram # 使用docker run添加自定义参数 sudo docker run --runtime nvidia -it --rm --network=host \ dustynv/stable-diffusion-webui:r35.3.1 \ python3 launch.py --data=/data/models/stable-diffusion --lowvram --port=7861
| 参数 | 作用说明 |
|---|---|
--data=/data/models/stable-diffusion | 指定Stable Diffusion模型存储路径,默认使用容器内/data目录(可通过挂载主机目录修改)。 |
--enable-insecure-extension-access | 允许安装和管理Web UI扩展(如社区插件、脚本)。 |
--xformers | 启用xformers库,优化注意力机制的内存占用和计算速度(需硬件支持)。 |
--listen | 允许Web服务器监听所有网络接口,支持外部设备通过IP访问(如http://<设备IP>:7860)。 |
--port=7860 | 指定Web UI访问端口,默认7860(若端口冲突可修改,如--port=7861)。 |
| 参数 | 作用说明 |
|---|---|
--medvram | 中等显存模式:通过分块加载模型降低显存占用,适用于4-8GB显存设备(如Jetson Xavier NX)。 |
--lowvram | 低显存模式:大幅降低显存占用(约2-4GB),但生成速度较慢,适用于2GB显存设备(如Jetson Nano)。 |
--precision full --no-half | 使用FP32精度推理(默认FP16),提升兼容性但降低速度、增加显存占用。 |
--opt-split-attention | 优化注意力机制的内存分配(默认启用,低显存场景建议保留)。 |
若需自定义镜像(如修改依赖或添加插件),可手动构建:
bashjetson-containers build stable-diffusion-webui # 自动检测JetPack版本并构建兼容镜像
构建过程会自动拉取依赖(如CUDA、PyTorch、xformers等),并打包Web UI程序和TensorRT扩展。
http://<设备IP>:7860(替换<设备IP>为Jetson设备的IP地址或主机名)。--data指定的模型目录,在Web UI中选择对应模型即可使用。--enable-insecure-extension-access参数。来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429