cbflow-agent Docker 镜像下载 - 轩辕镜像
cbflow-agent 镜像详细信息和使用指南
cbflow-agent 镜像标签列表和版本信息
cbflow-agent 镜像拉取命令和加速下载
cbflow-agent 镜像使用说明和配置指南
Docker 镜像加速服务 - 轩辕镜像平台
国内开发者首选的 Docker 镜像加速平台
极速拉取 Docker 镜像服务
相关 Docker 镜像推荐
热门 Docker 镜像下载
cbflow-agent 镜像详细信息
cbflow-agent 镜像标签列表
cbflow-agent 镜像使用说明
cbflow-agent 镜像拉取命令
Docker 镜像加速服务
轩辕镜像平台优势
镜像下载指南
相关 Docker 镜像推荐
cbflow-agent 镜像详细说明
cbflow-agent 使用指南
cbflow-agent 配置说明
cbflow-agent 官方文档
cbflow-agent Docker镜像文档
概述
cbflow-agent是cbflow工作流/流程管理系统的核心代理组件,部署于分布式节点,负责接收中心服务下发的任务指令、执行任务操作、实时采集运行数据(日志、状态、资源占用),并与cbflow中心服务维持通信,确保分布式任务的协调执行与系统稳定运行。该镜像基于轻量级基础镜像构建,支持多架构部署,适用于各类分布式任务调度场景。
核心功能与特性
- 任务执行代理:接收并执行中心服务下发的多样化任务(命令执行、脚本运行、容器化任务等),支持任务优先级与依赖管理
- 数据采集与上报:实时收集任务运行日志、执行状态(成功/失败/进行中)及节点资源使用率(CPU、内存、磁盘I/O)
- 双向通信机制:与cbflow中心服务保持长连接,支持任务状态实时上报、配置动态更新及紧急指令接收
- 高可用设计:内置自动重连机制,任务失败支持可配置重试策略(次数/间隔),保障任务可靠性
- 轻量高效:基于Alpine Linux构建,镜像体积<50MB,启动时间<10秒,资源占用低
- 多平台兼容:支持x86_64、ARM64架构,适配物理机、虚拟机及容器平台(Kubernetes、Docker Swarm)
使用场景与适用范围
- 分布式任务调度:在集群节点中分发执行批量任务(如数据ETL、文件同步、定时报表生成)
- 边缘计算节点:部署于边缘设备,执行本地化计算任务并向中心节点汇报结果
- CI/CD流水线代理:作为CI/CD系统工作节点,执行代码构建、测试及部署流程
- 监控与运维自动化:在服务器节点部署,执行系统监控脚本、配置巡检及故障自愈任务
使用方法与配置说明
前置条件
- 已部署cbflow中心服务,获取服务访问地址(如
[***]) - Docker环境版本≥19.03或容器运行时兼容OCI标准
基础部署命令
bashdocker run -d \ --name cbflow-agent \ --restart always \ -e CBFLOW_SERVER_URL="[***]" \ # 中心服务地址(必填) -e AGENT_ID="node-001" \ # 节点唯一标识(可选,默认自动生成UUID) -e LOG_LEVEL="info" \ # 日志级别(可选,默认info) -v /var/run/docker.sock:/var/run/docker.sock \ # 执行容器化任务需挂载(可选) -v /opt/cbflow-agent/logs:/app/logs \ # 日志持久化(推荐) -v /opt/cbflow-agent/data:/app/data \ # 任务数据持久化(推荐) cbflow/cbflow-agent:latest
环境变量配置参数
| 环境变量名 | 描述 | 默认值 | 是否必填 |
|---|---|---|---|
CBFLOW_SERVER_URL | cbflow中心服务完整URL(含端口) | - | 是 |
AGENT_ID | 代理节点唯一标识(建议全局唯一) | 自动生成UUID | 否 |
LOG_LEVEL | 日志输出级别(debug/info/warn/error) | info | 否 |
HEARTBEAT_INTERVAL | 与中心服务心跳间隔(秒) | 30 | 否 |
TASK_TIMEOUT | 任务默认超时时间(秒) | 3600 | 否 |
RETRY_LIMIT | 任务失败最大重试次数 | 3 | 否 |
RETRY_DELAY | 任务重试间隔(秒) | 10 | 否 |
DATA_DIR | 任务数据存储路径(容器内) | /app/data | 否 |
LOG_DIR | 日志存储路径(容器内) | /app/logs | 否 |
数据持久化配置
为避免容器重启导致数据丢失,建议持久化以下目录:
| 容器内路径 | 用途 | 宿主机推荐挂载路径 |
|---|---|---|
/app/logs | 代理运行日志 | /opt/cbflow-agent/logs |
/app/data | 任务执行临时文件 | /opt/cbflow-agent/data |
/app/config | 自定义配置文件 | /opt/cbflow-agent/config |
健康检查配置
容器内置健康检查端点http://localhost:9090/health,可通过以下方式启用Docker健康检查:
bashdocker run -d \ --name cbflow-agent \ --health-cmd "curl -sf http://localhost:9090/health || exit 1" \ --health-interval 30s \ --health-timeout 10s \ --health-retries 3 \ # 其他参数... cbflow/cbflow-agent:latest
Docker Compose配置示例
yamlversion: '3.8' services: cbflow-agent: image: cbflow/cbflow-agent:latest container_name: cbflow-agent restart: always environment: - CBFLOW_SERVER_URL=[***] - AGENT_ID=node-001 - LOG_LEVEL=info - HEARTBEAT_INTERVAL=30 - RETRY_LIMIT=3 volumes: - /var/run/docker.sock:/var/run/docker.sock - /opt/cbflow-agent/logs:/app/logs - /opt/cbflow-agent/data:/app/data healthcheck: test: ["CMD", "curl", "-sf", "http://localhost:9090/health"] interval: 30s timeout: 10s retries: 3 networks: - cbflow-network networks: cbflow-network: driver: bridge
版本与获取
- 最新稳定版:
cbflow/cbflow-agent:latest - 历史版本:访问Docker Hub查看标签
- 镜像拉取命令:
docker pull cbflow/cbflow-agent:latest
用户好评
来自真实用户的反馈,见证轩辕镜像的优质服务
常见问题
免费版仅支持 Docker Hub 加速,不承诺可用性和速度;专业版支持更多镜像源,保证可用性和稳定速度,提供优先客服响应。
免费版仅支持 docker.io;专业版支持 docker.io、gcr.io、ghcr.io、registry.k8s.io、nvcr.io、quay.io、mcr.microsoft.com、docker.elastic.co 等。
当返回 402 Payment Required 错误时,表示流量已耗尽,需要充值流量包以恢复服务。
通常由 Docker 版本过低导致,需要升级到 20.x 或更高版本以支持 V2 协议。
先检查 Docker 版本,版本过低则升级;版本正常则验证镜像信息是否正确。
使用 docker tag 命令为镜像打上新标签,去掉域名前缀,使镜像名称更简洁。
轩辕镜像下载加速使用手册
探索更多轩辕镜像的使用方法,找到最适合您系统的配置方式
登录仓库拉取
通过 Docker 登录认证访问私有仓库
Linux
在 Linux 系统配置镜像加速服务
Windows/Mac
在 Docker Desktop 配置镜像加速
Docker Compose
Docker Compose 项目配置加速
K8s Containerd
Kubernetes 集群配置 Containerd
宝塔面板
在宝塔面板一键配置镜像加速
群晖
Synology 群晖 NAS 配置加速
飞牛
飞牛 fnOS 系统配置镜像加速
极空间
极空间 NAS 系统配置加速服务
爱快路由
爱快 iKuai 路由系统配置加速
绿联
绿联 NAS 系统配置镜像加速
威联通
QNAP 威联通 NAS 配置加速
Podman
Podman 容器引擎配置加速
Singularity/Apptainer
HPC 科学计算容器配置加速
其他仓库配置
ghcr、Quay、nvcr 等镜像仓库
专属域名拉取
无需登录使用专属域名加速
需要其他帮助?请查看我们的 常见问题 或 官方QQ群: 13763429