本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。
WEAVIATE Docker 容器化部署指南
2025/12/2Docker,WEAVIATE轩辕镜像团队20 分钟阅读

WEAVIATE Docker 容器化部署指南

WEAVIATE(镜像名称:semitechnologies/weaviate)是一款开源向量数据库,专为新一代人工智能应用设计。作为“AI原生数据库”,它通过内置的向量搜索与混合搜索能力、易于集成的机器学习模型接口以及对数据隐私的专注支持,帮助各级开发者快速构建、迭代和扩展AI应用能力。

weaviatedocker部署教程

概述

WEAVIATE(镜像名称:semitechnologies/weaviate)是一款开源向量数据库,专为新一代人工智能应用设计。作为“AI原生数据库”,它通过内置的向量搜索与混合搜索能力、易于集成的机器学习模型接口以及对数据隐私的专注支持,帮助各级开发者快速构建、迭代和扩展AI应用能力。

Weaviate的核心优势包括:

  • 高性能:支持数百万对象的毫秒级近邻搜索,底层采用优化的ANN(近似最近邻)算法(如HNSW)
  • 灵活性:支持导入时自动向量化数据或直接上传自定义向量,通过20余种模块集成主流AI服务(如OpenAI、Cohere、HuggingFace等)
  • 生产就绪:原生支持集群扩展、数据复制和安全认证,可无缝从原型验证过渡到大规模生产部署
  • 多模态能力:不仅支持文本、图像等单模态数据搜索,还能实现跨模态混合检索,为推荐系统、智能摘要、神经搜索框架提供基础
  • 丰富接口:提供GraphQL、REST、gRPC三种API,并支持Python、JavaScript/TypeScript、Go、Java等多语言客户端库

Weaviate 广泛应用于AI驱动的搜索系统、聊天机器人、推荐引擎、文档管理等场景,其开源特性和活跃的社区支持使其成为构建现代AI应用的理想数据基础设施。

环境准备

Docker环境安装

部署WEAVIATE容器前需确保Docker环境已正确安装。推荐使用轩辕提供的一键安装脚本,自动完成Docker及相关组件(Docker Engine、Docker Compose)的配置:

bash
bash <(wget -qO- https://xuanyuan.cloud/docker.sh)

说明:脚本将自动适配Linux发行版(Ubuntu、CentOS、Debian等),安装完成后会启动Docker服务并配置开机自启。

镜像准备

镜像拉取

bash
# 拉取推荐版本(1.32.19-d8a150c.amd64)
docker pull xxx.xuanyuan.run/semitechnologies/weaviate:1.32.19-d8a150c.amd64

推荐标签说明:1.32.19-d8a150c.amd64为经过稳定性验证的生产版本,包含amd64架构优化。如需其他版本,可访问WEAVIATE镜像标签列表查看完整标签。

镜像验证

拉取完成后,通过以下命令验证镜像信息:

bash
# 查看镜像基本信息
docker images xxx.xuanyuan.run/semitechnologies/weaviate:1.32.19-d8a150c.amd64

# 输出示例:
# REPOSITORY                                      TAG                     IMAGE ID       CREATED         SIZE
# xxx.xuanyuan.run/semitechnologies/weaviate   1.32.19-d8a150c.amd64   abc12345       2 weeks ago     1.2GB

若需查看镜像详细配置(如暴露端口、环境变量默认值),可使用docker inspect命令:

bash
docker inspect xxx.xuanyuan.run/semitechnologies/weaviate:1.32.19-d8a150c.amd64

容器部署

基础部署(单机快速启动)

以下命令将以基础配置启动WEAVIATE容器,适用于开发测试环境:

bash
docker run -d \
  --name weaviate \
  --restart unless-stopped \
  -p 8080:8080 \  # REST API端口
  -p 50051:50051 \ # gRPC API端口
  -e QUERY_DEFAULTS_LIMIT=20 \  # 默认查询返回数量
  -e AUTHENTICATION_ANONYMOUS_ACCESS_ENABLED=true \  # 允许匿名访问(仅测试用)
  -e PERSISTENCE_DATA_PATH="/var/lib/weaviate" \  # 数据存储路径
  -v weaviate_data:/var/lib/weaviate \  # 挂载数据卷持久化数据
  xxx.xuanyuan.run/semitechnologies/weaviate:1.32.19-d8a150c.amd64

参数说明:

  • --restart unless-stopped:容器退出时自动重启(除非手动停止)
  • 端口映射:8080为REST/GraphQL API端口,50051为gRPC API端口(根据WEAVIATE镜像文档(轩辕)确认)
  • 数据卷weaviate_data:自动创建命名卷,确保容器重建后数据不丢失

带模块的部署(集成向量化能力)

Weaviate通过模块扩展功能,例如集成HuggingFace模型实现文本向量化。以下示例启动带text2vec-huggingface模块的容器:

bash
docker run -d \
  --name weaviate-with-modules \
  --restart unless-stopped \
  -p 8080:8080 \
  -p 50051:50051 \
  -e ENABLE_MODULES=text2vec-huggingface \  # 启用HuggingFace文本向量化模块
  -e TEXT2VEC_HUGGINGFACE_MODEL_NAME=sentence-transformers/all-MiniLM-L6-v2 \  # 指定预训练模型
  -e TEXT2VEC_HUGGINGFACE_API_ENDPOINT=http://huggingface-inference:8080 \  # 外部推理服务地址(需单独部署)
  -v weaviate_data:/var/lib/weaviate \
  xxx.xuanyuan.run/semitechnologies/weaviate:1.32.19-d8a150c.amd64

注意:若使用外部API(如OpenAI),需添加对应环境变量(如OPENAI_API_KEY),具体配置参考WEAVIATE官方文档

容器状态检查

部署后通过以下命令确认容器运行状态:

bash
# 查看容器状态
docker ps --filter "name=weaviate"

# 输出示例(健康状态为healthy):
# CONTAINER ID   IMAGE                                                                 TAG                     COMMAND                  CREATED         STATUS                   PORTS                                                                                      NAMES
# def67890       xxx.xuanyuan.run/semitechnologies/weaviate                           1.32.19-d8a150c.amd64   "/bin/weaviate --con…"   5 minutes ago   Up 5 minutes (healthy)   0.0.0.0:8080->8080/tcp, :::8080->8080/tcp, 0.0.0.0:50051->50051/tcp, :::50051->50051/tcp   weaviate

若状态异常(如Exited),可通过日志排查:

bash
docker logs weaviate

功能测试

健康检查接口

通过REST API验证服务可用性:

bash
curl http://localhost:8080/v1/health

# 预期输出(健康状态):
# {"status":"healthy","version":"1.32.19","modules":["text2vec-huggingface"]}

GraphQL API测试

使用GraphQL创建Schema并插入数据(以书籍信息为例):

  1. 创建Schema
bash
curl -X POST http://localhost:8080/v1/schema \
  -H "Content-Type: application/json" \
  -d '{
    "classes": [
      {
        "class": "Book",
        "description": "A collection of books",
        "properties": [
          {
            "name": "title",
            "dataType": ["string"],
            "description": "Title of the book"
          },
          {
            "name": "author",
            "dataType": ["string"],
            "description": "Author of the book"
          }
        ],
        "vectorizer": "text2vec-huggingface"  # 使用HuggingFace模块自动向量化
      }
    ]
  }'
  1. 插入数据
bash
curl -X POST http://localhost:8080/v1/objects \
  -H "Content-Type: application/json" \
  -d '{
    "class": "Book",
    "properties": {
      "title": "The Great Gatsby",
      "author": "F. Scott Fitzgerald"
    }
  }'
  1. 向量搜索测试
bash
curl -X POST http://localhost:8080/v1/graphql \
  -H "Content-Type: application/json" \
  -d '{
    "query": "{
      Get {
        Book(
          nearText: {concepts: [\"American Dream\"]}
          limit: 1
        ) {
          title
          author
        }
      }
    }"
  }'

# 预期输出(返回与"American Dream"相关的书籍):
# {"data":{"Get":{"Book":[{"title":"The Great Gatsby","author":"F. Scott Fitzgerald"}]}}}

gRPC API测试(高级)

对于性能敏感场景,推荐使用gRPC API。以下为Python客户端示例(需先安装weaviate-client):

bash
# 安装Python客户端
pip install weaviate-client
python
import weaviate

client = weaviate.Client(
    url="grpc://localhost:50051",  # gRPC地址
    additional_headers={"X-OpenAI-Api-Key": "YOUR_API_KEY"}  # 若使用OpenAI模块
)

# 查询数据
response = client.data_object.get(
    class_name="Book",
    limit=1
)
print(response)

生产环境建议

数据持久化与备份

  • 使用命名卷或绑定挂载:生产环境建议使用绑定挂载(-v /host/path:/var/lib/weaviate)而非匿名卷,便于数据管理和备份
  • 定期备份:通过docker exec执行内置备份命令,或直接备份主机数据目录:
    bash
    # 示例:备份数据目录到压缩文件
    tar -czf weaviate_backup_$(date +%Y%m%d).tar.gz /host/path/to/weaviate/data
    

资源限制与优化

  • CPU/内存限制:根据数据规模配置资源限制,避免容器占用过多主机资源:
    bash
    docker run -d \
      --name weaviate-prod \
      --cpus 4 \  # 限制4核CPU
      --memory 16g \  # 限制16GB内存
      --memory-swap 16g \  # 禁用swap
      ...  # 其他参数
    
  • 存储优化:使用SSD存储提升IO性能,特别是向量索引构建和查询阶段
  • JVM调优:Weaviate基于Go编写,无需JVM,但可通过环境变量调整Go运行时参数(如GOGC控制垃圾回收频率)

安全配置

  • 禁用匿名访问:生产环境必须启用认证,如API密钥或OAuth2:
    bash
    -e AUTHENTICATION_ANONYMOUS_ACCESS_ENABLED=false \
    -e AUTHENTICATION_APIKEY_ENABLED=true \
    -e AUTHENTICATION_APIKEY_ALLOWED_KEYS=your_secure_api_key \
    
  • 网络隔离:通过Docker网络隔离容器,仅暴露必要端口,避免直接暴露公网
  • TLS加密:配置HTTPS加密传输,参考Weaviate安全文档

集群部署

对于大规模生产环境,推荐使用Kubernetes部署Weaviate集群,实现高可用和横向扩展:

  • 核心组件:包含Weaviate节点、etcd(元数据存储)、负载均衡器
  • 关键特性:自动扩缩容、滚动更新、故障自愈、跨可用区部署
  • 部署工具:可使用Helm Chart(官方Helm仓库)快速部署

监控与日志

  • 集成Prometheus:Weaviate暴露Prometheus指标端点(/v1/metrics),可配置Prometheus+Grafana监控集群状态
  • 集中式日志:使用ELK Stack或Loki收集容器日志,配置日志轮转避免磁盘占满:
    bash
    docker run -d \
      --log-driver json-file \
      --log-opt max-size=10m \  # 单日志文件最大10MB
      --log-opt max-file=3 \  # 最多保留3个文件
      ...  # 其他参数
    

故障排查

常见问题与解决方案

1. 容器启动后立即退出

排查步骤

  • 查看日志:docker logs weaviate
  • 常见原因:端口冲突、数据目录权限不足、配置文件错误

解决方案

  • 检查端口占用:netstat -tulpn | grep 8080,更换未占用端口
  • 修复目录权限:chmod -R 777 /host/path/to/weaviate/data(生产环境建议使用更精细权限)

2. 向量搜索速度慢

排查步骤

  • 检查索引状态:curl http://localhost:8080/v1/schema/Book,确认vectorIndexConfig配置
  • 监控CPU/内存使用率:docker stats weaviate

解决方案

  • 优化索引配置(如调整HNSW参数efConstructionef
  • 增加内存资源,确保热数据可缓存

3. 模块加载失败

排查步骤

  • 查看模块状态:curl http://localhost:8080/v1/modules
  • 检查模块依赖:如外部API服务是否可用

解决方案

  • 验证模块环境变量配置(如API密钥、服务地址)
  • 确保外部服务(如HuggingFace Inference Endpoint)可访问

高级诊断工具

  • Weaviate Debug API:访问/v1/debug/pprof获取性能剖析数据(需启用调试模式)
  • Go工具链:通过docker exec进入容器,使用go tool pprof分析运行时性能
  • 第三方监控:集成Datadog、New Relic等APM工具,监控端到端性能

参考资源

官方资源

轩辕镜像资源

学习与社区

总结

本文详细介绍了WEAVIATE向量数据库的Docker容器化部署方案,从环境准备、镜像拉取、基础部署到生产环境优化,提供了完整的操作指南和最佳实践。通过容器化部署,开发者可快速搭建WEAVIATE服务,利用其高性能向量搜索能力构建AI驱动的应用。

关键要点

  • 环境准备:使用轩辕一键脚本快速部署Docker环境并自动配置镜像加速,提升国内下载速度
  • 镜像拉取:使用docker pull xxx.xuanyuan.run/semitechnologies/weaviate:1.32.19-d8a150c.amd64拉取推荐版本
  • 基础部署:通过docker run命令即可启动服务,关键端口为8080(REST/GraphQL)和50051(gRPC)
  • 功能验证:通过REST API创建Schema、插入数据并执行向量搜索,验证服务可用性
  • 生产优化:重点关注数据持久化、资源限制、安全配置和集群部署,确保服务稳定运行

后续建议

  • 深入学习模块生态:探索Weaviate丰富的模块系统,集成适合业务场景的AI模型(如多模态向量化、RAG增强等)
  • 性能调优:根据实际数据量和查询模式,优化索引配置(如HNSW参数)和资源分配
  • 监控与告警:部署Prometheus+Grafana监控体系,设置关键指标告警(如查询延迟、内存使用率)
  • 集群扩展:当数据量增长至单机瓶颈时,迁移至Kubernetes集群部署,实现高可用和横向扩展

参考链接

免责声明

本博客文章所提供的内容、技术方案、配置示例及部署指南等信息,仅供学习交流和技术参考使用。文章内容基于发布时的技术环境和版本信息编写,可能因时间推移、技术更新或环境差异而存在不适用的情况。

用户在参考本博客内容进行部署操作前,应当充分了解相关技术风险,并建议在测试环境中进行充分验证和测试,确认无误后再考虑在生产环境中使用。生产环境部署前,请务必进行数据备份,并制定相应的回滚方案。

用户因使用本博客内容进行部署操作而产生的任何损失、数据丢失、系统故障、安全风险或其他问题,均由用户自行承担全部责任。轩辕镜像官方不对因使用本博客内容而产生的任何直接或间接损失承担责任。

本免责声明的最终解释权归轩辕镜像官方所有。

最后更新:2025/12/2