容器信息镜像信息运行容器构建容器
/bin/ollama)。@remy415 实现了 Ollama 在 Jetson 上的运行并提供 Dockerfile(PR #465)。首先,通过以下任一方式在后台启动本地 Ollama 服务端(守护进程):
bash# 模型缓存路径:jetson-containers/data jetson-containers run --name ollama $(autotag ollama) # 模型缓存路径:用户主目录 docker run --runtime nvidia -it --rm --network=host -v ~/ollama:/ollama -e OLLAMA_MODELS=/ollama dustynv/ollama:r36.2.0
服务端启动后,可在同一容器内或其他容器中运行 Ollama 客户端。ollama 容器的默认启动命令为 /start_ollama,该脚本会在后台启动服务端并释放终端控制权。服务端日志保存在挂载的 jetson-containers/data/logs 目录,方便在容器外查看。
通过环境变量 $OLLAMA_MODELS 可自定义模型下载路径(如上述示例)。默认情况下,模型会保存在 jetson-containers/data/models/ollama 目录,该路径由 jetson-containers run 自动挂载。
使用 Ollama 命令行界面(CLI)加载目标模型(例如 mistral 7b):
bash/bin/ollama run mistral
bashjetson-containers run $(autotag ollama) /bin/ollama run mistral
!Ollama CLI 演示
可在容器外安装 arm64 架构的 Ollama 二进制文件(无需 CUDA,仅服务端依赖 CUDA):
bash# 下载最新 arm64 版本 Ollama 到 /bin 目录 sudo wget [***] ls-remote --refs --sort="version:refname" --tags [***] | cut -d/ -f3- | sed 's/-rc.*//g' | tail -n1)/ollama-linux-arm64 -O /bin/ollama sudo chmod +x /bin/ollama # 直接运行客户端(容器外) /bin/ollama run mistral
如需通过浏览器访问 Ollama,可部署 Open WebUI 服务:
bashdocker run -it --rm --network=host --add-host=host.docker.internal:host-gateway ghcr.io/open-webui/open-webui:main
部署后,在浏览器中访问 `[] WebUI 界面]([])
| 模型 | 量化方式 | 内存占用(MB) |
|---|---|---|
TheBloke/Llama-2-7B-GGUF | llama-2-7b.Q4_K_S.gguf | 5,268 |
TheBloke/Llama-2-13B-GGUF | llama-2-13b.Q4_K_S.gguf | 8,609 |
TheBloke/LLaMA-30b-GGUF | llama-30b.Q4_K_S.gguf | 19,045 |
TheBloke/Llama-2-70B-GGUF | llama-2-70b.Q4_K_S.gguf | 37,655 |
ollama 容器 | 说明 |
|---|---|
| 系统要求 | L4T ['>=34.1.0'] |
| 依赖项 | build-essential、cuda |
| 被依赖项 | llama-index |
| Dockerfile 文件 | Dockerfile |
| 镜像版本 | dustynv/ollama:r35.4.1 (2024-04-25, 5.4GB)dustynv/ollama:r36.2.0 (2024-04-25, 3.9GB) |
| 镜像仓库/标签 | 日期 | 架构 | 大小 |
|---|---|---|---|
dustynv/ollama:r35.4.1 | 2024-04-25 | arm64 | 5.4GB |
dustynv/ollama:r36.2.0 | 2024-04-25 | arm64 | 3.9GB |
容器镜像兼容同系列其他 minor 版本的 JetPack/L4T:
• L4T R32.7 镜像可运行于其他 L4T R32.7 版本(JetPack 4.6+)
• L4T R35.x 镜像可运行于其他 L4T R35.x 版本(JetPack 5.1+)
可通过 jetson-containers run 配合 autotag 启动容器,或手动编写 docker run 命令:
bash# 自动拉取/构建兼容镜像 jetson-containers run $(autotag ollama) # 显式指定镜像版本 jetson-containers run dustynv/ollama:r35.4.1 # 使用 docker run 命令(需手动指定镜像及挂载) sudo docker run --runtime nvidia -it --rm --network=host dustynv/ollama:r35.4.1
jetson-containers run会将参数转发给docker run,并添加默认配置(如--runtime nvidia、挂载/data缓存目录、自动检测设备)。
autotag会查找与当前 JetPack/L4T 版本兼容的镜像(本地镜像、远程仓库拉取或自动构建)。
如需挂载本地目录到容器,使用 -v 或 --volume 参数:
bashjetson-containers run -v /本地路径:/容器内路径 $(autotag ollama)
如需启动容器时直接运行命令(非交互式终端):
bashjetson-containers run $(autotag ollama) 目标命令 --参数
可传递任何 docker run 支持的参数,命令执行前会打印完整构建的命令。
使用前文提到的 autotag 时,若本地无兼容镜像,会自动提示构建。如需手动构建,需先完成系统环境配置,然后执行:
bashjetson-containers build ollama
构建过程中会自动集成依赖项并进行测试。可添加 --help 参数查看构建选项:jetson-containers build ollama --help。

来自真实用户的反馈,见证轩辕镜像的优质服务
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
通过 Docker 登录认证访问私有仓库
在 Linux 系统配置镜像加速服务
在 Docker Desktop 配置镜像加速
Docker Compose 项目配置加速
Kubernetes 集群配置 Containerd
在宝塔面板一键配置镜像加速
Synology 群晖 NAS 配置加速
飞牛 fnOS 系统配置镜像加速
极空间 NAS 系统配置加速服务
爱快 iKuai 路由系统配置加速
绿联 NAS 系统配置镜像加速
QNAP 威联通 NAS 配置加速
Podman 容器引擎配置加速
HPC 科学计算容器配置加速
ghcr、Quay、nvcr 等镜像仓库
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429