fish-speech-ziming 镜像基于 Fish Speech 1.5 构建,继承其多语言支持、低显存需求与高自然度合成等特性,并针对环境配置痛点进行优化,避免***脚本可能导致的环境混乱。
| 功能场景 | 显存要求 | 其他要求 |
|---|---|---|
| 基础推理(随机音色) | ≥4GB | NVIDIA 显卡(CUDA 12.x),硬盘预留 ≥20GB(含模型与数据) |
| 语音克隆推理 | ≥6GB | — |
| 模型微调(LoRA) | ≥8GB | — |
nvidia-docker2。bashdocker pull xuanyuan.cloud/r/guiji2025/fish-speech-ziming:latest
建议将模型与数据目录挂载到宿主机,避免容器重建后数据丢失。
bashdocker run -d \ --name fish-speech-ziming \ --gpus all \ -p 7862:7862 \ -v /宿主机/模型路径:/app/checkpoints \ -v /宿主机/数据路径:/app/data \ xuanyuan.cloud/r/guiji2025/fish-speech-ziming:latest
参数说明:--gpus all 允许容器使用所有 GPU;-v 为目录挂载,/宿主机路径 请替换为实际本地路径。
bashdocker run -d \ --name fish-speech-api \ --gpus all \ -p 8000:8000 \ -v /宿主机/模型路径:/app/checkpoints \ xuanyuan.cloud/r/guiji2025/fish-speech-ziming:latest \ --api --port 8000
bashdocker ps | grep fish-speech-ziming docker logs -f fish-speech-ziming
若日志出现 “Gradio UI launched at [***]
容器启动后可在容器内下载***模型,或在宿主机手动下载后挂载:
bash# 进入容器 docker exec -it fish-speech-ziming /bin/bash # 下载 Fish Speech 1.5 预训练模型 huggingface-cli download fishaudio/fish-speech-1.5 --local-dir /app/checkpoints/fish-speech-1.5
国内下载缓慢时,可手动从 Hugging Face 获取后解压到宿主机挂载的
/宿主机/模型路径。
浏览器访问 http://localhost:7862,支持随机音色与语音克隆两种模式。
/app/checkpoints/fish-speech-1.5。参考音频需尽量无噪声;文本匹配度越高,克隆效果越自然。建议单段文本 ≤500 字。
.lab 文件,内容为对应纯文本。目录结构示例:
data/ ├── train/ │ ├── audio1.wav │ ├── audio1.lab │ ├── audio2.wav │ └── audio2.lab └── val/ ├── val1.wav └── val1.lab
bash# 进入容器 docker exec -it fish-speech-ziming /bin/bash # 执行 LoRA 微调 python tools/finetune.py \ --model-path /app/checkpoints/fish-speech-1.5 \ --data-dir /app/data \ --output-dir /app/checkpoints/lora-finetuned \ --lora-r 8 \ --batch-size 4 \ --epochs 10
参数说明:--lora-r 越小显存占用越低;--batch-size 视显存调整(8GB 显存建议 4)。
在 WebUI “模型配置”中选择 /app/checkpoints/lora-finetuned。
| 问题现象 | 可能原因 | 解决方案 |
|---|---|---|
| 启动提示 GPU access denied | 未安装 nvidia-docker2 或驱动不兼容 | 安装 nvidia-docker2;使用 nvidia-smi 检查 CUDA 版本 ≥12.1 |
| 模型下载缓慢/失败 | 网络限制 | 使用国内镜像或手动下载后挂载 |
| 微调显存不足报错 | batch-size 过大或 LoRA 秩过高 | 降低 batch-size 至 2/1;将 --lora-r 降至 4;加 --gradient-accumulation-steps 2 |
| Triton 加速报错找不到 CUDA | 加速组件与 CUDA 不匹配 | 暂时禁用 Triton 加速,移除相关参数 |
容器内可安装 PyQt6 GUI:
bashpip install fish-speech-gui fish-speech-gui
Windows 建议通过 VNC 显示 GUI;Linux 可用 X11 转发。
在宿主机创建脚本并挂载到容器:
python# batch_synthesis.py from fish_speech.inference import TextToSpeech import os # 初始化 TTS 引擎 tts = TextToSpeech(model_path="/app/checkpoints/fish-speech-1.5") # 批量处理文本文件(每行一段文本) with open("/app/data/texts.txt", "r", encoding="utf-8") as f: texts = f.readlines() # 生成音频并保存 for i, text in enumerate(texts): text = text.strip() if not text: continue audio = tts.synthesize(text, speed=1.0) with open(f"/app/data/output/audio_{i}.wav", "wb") as f: f.write(audio) print("批量合成完成!")
容器内执行:
bashpython /app/data/batch_synthesis.py
来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429