专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

ceph/ceph-arm64 Docker 镜像 - 轩辕镜像

ceph-arm64
ceph/ceph-arm64
适用于ARM 64位架构的Ceph分布式存储系统镜像,提供对象、块及文件系统存储功能,支持在ARM64环境中部署和运行分布式存储服务。
0 次下载activeceph镜像
🙃 代码没问题,结果发布失败在拉镜像
中文简介版本下载
🙃 代码没问题,结果发布失败在拉镜像

Ceph-ARM64 Docker镜像文档

一、镜像概述和主要用途

概述

ceph-arm64 是基于 ARM64 架构的 Ceph 分布式存储系统 Docker 镜像。Ceph 是一个开源的统一分布式存储解决方案,支持对象存储、块存储和文件存储三种存储接口,具备高可用性、可扩展性和自愈能力。该镜像针对 ARM64 架构优化,可在 ARM64 服务器或嵌入式设备上部署,提供轻量化、容器化的 Ceph 存储服务。

主要用途
  • 为 ARM64 架构环境提供分布式存储基础设施;
  • 支持对象存储(兼容 S3/Swift API)、块存储(RBD)和文件存储(CephFS);
  • 作为容器化环境(如 Kubernetes 集群)的持久化存储后端;
  • 构建高可用、可扩展的存储集群,适用于云平台、大数据存储、企业级存储等场景。

二、核心功能和特性

核心功能
  1. 统一存储接口:支持对象存储(RGW)、块存储(RBD)、文件存储(CephFS)三种存储模式,满足多样化存储需求。
  2. 分布式架构:数据自动分布到集群节点,无单点故障,支持 PB 级甚至 EB 级存储容量扩展。
  3. 高可用性:通过副本(Replication)或纠删码(Erasure Code)实现数据冗余,节点故障时自动修复数据。
  4. 自愈能力:检测到数据损坏或节点故障后,自动触发数据重平衡和修复,无需人工干预。
特性
  • ARM64 架构优化:针对 ARM64 处理器指令集和硬件特性优化,提升存储性能和资源利用率。
  • 容器化部署:支持 Docker 或 Kubernetes 容器化部署,简化集群搭建和运维流程。
  • 灵活的数据冗余策略:可配置副本数(默认 3 副本)或纠删码(如 4+2、8+3 等),平衡存储效率和可靠性。
  • 与云原生生态集成:支持 Kubernetes CSI 驱动,可作为容器持久化存储(PVC)的后端;兼容 OpenStack、CloudStack 等云平台。
  • 监控与管理:内置 Ceph Manager(mgr)及 Dashboard 模块,提供集群状态监控、性能指标可视化和配置管理功能。

三、使用场景和适用范围

典型使用场景
  1. 云原生存储:作为 Kubernetes 集群的存储后端,为容器提供持久化卷(PVC),支持动态卷供应(Dynamic Provisioning)。
  2. 边缘计算存储:在 ARM64 架构的边缘设备(如嵌入式服务器、边缘节点)上部署,提供本地化分布式存储。
  3. 大数据与 AI 存储:为 Hadoop、Spark 等大数据框架或 AI 训练平台提供高吞吐量、高容量的分布式存储。
  4. 企业级存储解决方案:替代传统 SAN/NAS 存储,提供低成本、高扩展的企业级存储服务,支持多协议访问。
适用范围
  • 硬件架构:ARM64 架构的服务器、边缘设备或嵌入式系统(如 AWS Graviton、华为鲲鹏、树莓派等)。
  • 集群规模:从中小型集群(3 节点起步)到大型分布式集群(数百节点)均可支持。
  • 环境要求:需 Docker 或容器运行时环境,建议配置独立存储磁盘(OSD 节点)以提升性能。

四、使用方法和配置说明

1. 镜像拉取

从 Docker 仓库拉取 ceph-arm64 镜像(假设镜像托管于标准 Docker Hub 或私有仓库):

bash
docker pull ceph/ceph:arm64-latest  # 示例标签,具体以实际仓库为准
2. 基本部署示例(单节点测试)

注意:生产环境需部署多节点集群以保证高可用,以下为单节点测试示例(仅用于功能验证,不具备高可用性)。

2.1 启动 Ceph 单节点集群(含 mon、osd、mgr、dashboard)
bash
docker run -d \
  --name ceph-single-node \
  --net=host \
  --privileged \
  -v /etc/ceph:/etc/ceph \
  -v /var/lib/ceph:/var/lib/ceph \
  -v /dev:/dev \
  -e CEPH_PUBLIC_NETWORK=192.168.1.0/24  # 替换为实际主机网络 CIDR \
  ceph/ceph:arm64-latest \
  cephadm bootstrap --mon-ip 192.168.1.100  # 替换为实际主机 IP
2.2 访问 Dashboard

启动成功后,通过日志获取 Dashboard 访问地址和默认 credentials:

bash
docker logs ceph-single-node | grep "Dashboard"

输出示例:

Dashboard is now available at: [***]
User: admin, Password: xxxxxxxx

通过浏览器访问 Dashboard 管理集群。

3. 多节点集群部署(docker-compose 示例)

以下为 3 节点 Ceph 集群的 docker-compose.yml 配置示例(含 mon、osd、mgr 组件),需在每个节点分别部署对应组件。

3.1 节点 1(mon1 + mgr1 + osd1)
yaml
version: '3'
services:
  mon1:
    image: ceph/ceph:arm64-latest
    container_name: ceph-mon1
    network_mode: host
    privileged: true
    volumes:
      - /etc/ceph:/etc/ceph
      - /var/lib/ceph/mon/ceph-mon1:/var/lib/ceph/mon/ceph-mon1
    environment:
      - CEPH_CLUSTER=ceph
      - CEPH_CONF=/etc/ceph/ceph.conf
      - MON_NAME=mon1
      - MON_IP=192.168.1.100  # 节点 1 IP
    command: ceph-mon --id mon1 --fsid <cluster-fsid> --config /etc/ceph/ceph.conf

  mgr1:
    image: ceph/ceph:arm64-latest
    container_name: ceph-mgr1
    network_mode: host
    privileged: true
    volumes:
      - /etc/ceph:/etc/ceph
      - /var/lib/ceph/mgr/ceph-mgr1:/var/lib/ceph/mgr/ceph-mgr1
    environment:
      - CEPH_CLUSTER=ceph
      - CEPH_CONF=/etc/ceph/ceph.conf
    command: ceph-mgr --id mgr1 --config /etc/ceph/ceph.conf

  osd1:
    image: ceph/ceph:arm64-latest
    container_name: ceph-osd1
    network_mode: host
    privileged: true
    volumes:
      - /etc/ceph:/etc/ceph
      - /var/lib/ceph/osd/ceph-0:/var/lib/ceph/osd/ceph-0
      - /dev:/dev  # 需映射物理磁盘
    environment:
      - CEPH_CLUSTER=ceph
      - CEPH_CONF=/etc/ceph/ceph.conf
    command: ceph-osd --id 0 --config /etc/ceph/ceph.conf
3. 关键配置参数说明
3.1 环境变量
变量名说明默认值
CEPH_CLUSTERCeph 集群名称ceph
CEPH_CONFCeph 配置文件路径/etc/ceph/ceph.conf
MON_IPMonitor 节点 IP 地址(多节点用逗号分隔)无(需手动指定)
CEPH_PUBLIC_NETWORK公共网络 CIDR(客户端与集群通信)无(需手动指定)
CEPH_CLUSTER_NETWORK集群内部网络 CIDR(节点间数据同步)同 CEPH_PUBLIC_NETWORK
3.2 核心配置文件(ceph.conf)

关键配置项示例(需根据实际环境调整):

ini
[global]
fsid = <集群唯一FSID>
mon_initial_members = mon1, mon2, mon3  # Monitor节点名称
mon_host = 192.168.1.100,192.168.1.101,192.168.1.102  # Monitor节点IP
auth_cluster_required = cephx
auth_service_required = cephx
auth_client_required = cephx
osd_pool_default_size = 3  # 默认副本数(生产环境建议3)
osd_pool_default_min_size = 2  # 最小可用副本数
4. 多组件部署说明
  • Monitor(mon):集群元数据管理节点,至少部署 3 个以形成 quorum(生产环境建议奇数节点)。
  • OSD(osd):数据存储节点,负责数据读写和冗余,需绑定物理磁盘,数量决定存储容量和性能。
  • Manager(mgr):集群管理节点,提供监控、Dashboard 和集群状态管理,建议部署 2 个实现高可用。
  • RGW(rgw):对象网关,提供 S3/Swift 兼容的对象存储接口,按需部署(可水平扩展)。
  • MDS(mds):CephFS 文件系统元数据服务,部署 2 个(1 主 1 备)以支持 CephFS。

五、生产环境注意事项

  1. 硬件要求:OSD 节点建议配置 SSD 作为日志盘(WAL/DB),提升写入性能;Monitor 节点建议使用 SSD 存储元数据。
  2. 网络规划:分离公共网络和集群网络,使用万兆网络提升节点间数据同步效率。
  3. 数据冗余:生产环境推荐副本数 ≥3 或纠删码配置(如 4+2),避免数据丢失。
  4. 监控告警:启用 Ceph Dashboard 或集成 Prometheus + Grafana 监控集群状态,配置关键指标告警(如 OSD 故障、磁盘使用率过高)。
  5. 备份策略:定期备份集群配置文件(ceph.conf)和密钥环(ceph.client.admin.keyring),防止配置丢失。
查看更多 ceph-arm64 相关镜像 →
rook/ceph logo
rook/ceph
开源分布式存储系统Ceph为Kubernetes集群提供文件存储(File Storage)、块存储(Block Storage)及对象存储(Object Storage)服务,可满足容器化应用在数据持久化、高可用性、可扩展性等核心场景下的存储需求,助力用户高效管理集群中的各类数据资源,实现存储与容器编排的无缝集成。
19100M+ pulls
上次更新:2 天前
datadog/agent-arm64 logo
datadog/agent-arm64
认证
已弃用的ARM64架构代理镜像,建议使用多架构的docker.io/datadog/agent镜像。
100K+ pulls
上次更新:4 年前
rook/ceph-toolbox logo
rook/ceph-toolbox
暂无描述
1100K+ pulls
上次更新:7 年前
dxflrs/arm64_garage logo
dxflrs/arm64_garage
Garage是S3兼容的分布式对象存储服务,专为中小型自托管设计,适用于多物理位置节点集群,提供数据复制、高可用和轻量级部署。
1M+ pulls
上次更新:2 个月前
osrf/ubuntu_arm64 logo
osrf/ubuntu_arm64
Ubuntu Arm64 Base Images
2500K+ pulls
上次更新:2 年前
starlingx/stx-ceph-manager logo
starlingx/stx-ceph-manager
StarlingX是一个开源分布式云平台,其组件构建为容器镜像,用于创建分布式云平台。更多信息:https://www.starlingx.io/
10K+ pulls
上次更新:2 天前

轩辕镜像配置手册

探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式

登录仓库拉取

通过 Docker 登录认证访问私有仓库

Linux

在 Linux 系统配置镜像服务

Windows/Mac

在 Docker Desktop 配置镜像

Docker Compose

Docker Compose 项目配置

K8s Containerd

Kubernetes 集群配置 Containerd

K3s

K3s 轻量级 Kubernetes 镜像加速

Dev Containers

VS Code Dev Containers 配置

MacOS OrbStack

MacOS OrbStack 容器配置

宝塔面板

在宝塔面板一键配置镜像

群晖

Synology 群晖 NAS 配置

飞牛

飞牛 fnOS 系统配置镜像

极空间

极空间 NAS 系统配置服务

爱快路由

爱快 iKuai 路由系统配置

绿联

绿联 NAS 系统配置镜像

威联通

QNAP 威联通 NAS 配置

Podman

Podman 容器引擎配置

Singularity/Apptainer

HPC 科学计算容器配置

其他仓库配置

ghcr、Quay、nvcr 等镜像仓库

专属域名拉取

无需登录使用专属域名

需要其他帮助?请查看我们的 常见问题Docker 镜像访问常见问题解答 或 提交工单

镜像拉取常见问题

轩辕镜像免费版与专业版有什么区别?

免费版仅支持 Docker Hub 访问,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。

轩辕镜像支持哪些镜像仓库?

专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等;免费版仅支持 docker.io。

流量耗尽错误提示

当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。

410 错误问题

通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。

manifest unknown 错误

先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。

镜像拉取成功后,如何去掉轩辕镜像域名前缀?

使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。

查看全部问题→

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

用户头像

oldzhang

运维工程师

Linux服务器

5

"Docker访问体验非常流畅,大镜像也能快速完成下载。"

轩辕镜像
镜像详情
...
ceph/ceph-arm64
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
咨询镜像拉取问题请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
咨询镜像拉取问题请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.