专属域名
文档搜索
轩辕助手
Run助手
邀请有礼
返回顶部
快速返回页面顶部
收起
收起工具栏
轩辕镜像 官方专业版
轩辕镜像 官方专业版轩辕镜像 官方专业版官方专业版
首页个人中心搜索镜像

交易
充值流量我的订单
工具
提交工单镜像收录一键安装
Npm 源Pip 源Homebrew 源
帮助
常见问题
其他
关于我们网站地图

官方QQ群: 1072982923

Docker AI 官方镜像 logo

Docker AI 官方镜像

Docker 官方维护的 AI 模型镜像集合(Verified Publisher),涵盖 GLM-4.7-Flash、Qwen3、GPT-OSS、DeepSeek、Kimi 等主流大语言模型,以及嵌入模型、重排序模型等,适合 AI 应用开发与部署。

Docker AI 官方镜像仓库是 Docker Hub 上经过官方认证的 AI 模型容器镜像集合。该仓库由 Docker 官方维护,提供经过严格安全审查和质量测试的 AI 模型镜像,确保生产环境的安全性和稳定性。 本仓库涵盖了当前主流的 AI 技术栈,包括大语言模型(LLM)、嵌入模型、重排序模型、多模态模型等。所有镜像均经过优化,支持快速部署和扩展,适合企业级 AI 应用开发。

特色镜像推荐

Qwen3

阿里云通义千问团队开发的大语言模型,支持中英文对话,在多个基准测试中表现优异,适合智能问答、内容创作等场景。

智能问答内容创作代码助手多语言支持

DeepSeek R1

深度求索开发的高性能大语言模型,在代码生成和数学推理方面表现突出,支持复杂推理任务。

代码生成数学推理技术文档编程助手

GPT-OSS

开源 GPT 模型实现,提供与 GPT 兼容的 API 接口,支持对话生成、文本补全等功能。

对话系统文本生成API 兼容开源替代

Llama 3.3

Meta 开发的开源大语言模型,性能优异,支持多种语言和任务,适合研究和生产环境部署。

对话系统文本理解多语言支持研究开发

Docker AI 官方镜像集合

mistral logo
mistral
ai
高效开源模型,具备顶级性能和快速推理能力,73亿参数,在推理、代码生成和数学任务中表现出色,资源使用高效,适用于多种自然语言处理任务。
20 星标54535 次下载
上次更新:--
smollm2 logo
smollm2
ai
为速度、边缘设备和本地开发构建的小型语言模型
32 星标271906 次下载
上次更新:--
mxbai-embed-large logo
mxbai-embed-large
ai
mxbai-embed-large-v1 is a top English embed model by Mixedbread AI, great for RAG and more.
3 星标8757 次下载
上次更新:--
qwen2.5 logo
qwen2.5
ai
通义千问迎来重要更新,本次升级在语言能力上实现显著提升,涵盖更精准的语义理解、更自然的文本生成及更深入的多轮对话表现,同时大幅拓宽支持范围,包括更长文本处理、多模态交互(如图文结合)及更多行业场景适配,为用户带来更智能、更全面的AI服务体验。
8 星标81706 次下载
上次更新:--
phi4 logo
phi4
ai
Microsoft’s compact model, surprisingly capable at reasoning and code
22 星标91099 次下载
上次更新:--
mistral-nemo logo
mistral-nemo
ai
Mistral fine-tuned via NVIDIA NeMo for smoother enterprise use
3 星标9820 次下载
上次更新:--
deepseek-r1-distill-llama logo
deepseek-r1-distill-llama
ai
由DeepSeek开发的蒸馏版LLaMA模型,快速且针对实际任务优化,适用于高效执行各类真实场景任务。
76 星标167995 次下载
上次更新:--
qwq logo
qwq
ai
Experimental Qwen variant—lean, fast, and a bit mysterious
3 星标6356 次下载
上次更新:--
llama3.2 logo
llama3.2
ai
LLaMA 3的此次稳定更新显著提升了模型性能,在编码开发、日常聊天及各类问答任务中均展现出可靠表现,能够高效处理多样化的用户需求,无论是辅助编写代码、进行流畅对话还是解答专业问题,都具备稳定且出色的任务执行能力,为用户提供了更为实用的人工智能工具支持。
23 星标341166 次下载
上次更新:--
gemma3 logo
gemma3
ai
Google最新推出的AI模型Gemma,虽体型小巧却性能强劲,尤其在聊天交互与内容生成领域表现突出;其轻量化设计不仅便于高效部署,还能在保证响应速度的同时,持续输出高质量内容,为用户带来便捷且智能的使用体验,是一款兼顾小巧体型与强大功能的新一代AI模型。
51 星标493911 次下载
上次更新:--
llama3.3 logo
llama3.3
ai
最新LLama 3版本,具备改进的推理能力和生成质量。
17 星标67262 次下载
上次更新:--
llama3.1 logo
llama3.1
ai
Meta’s LLama 3.1: Chat-focused, benchmark-strong, multilingual-ready.
6 星标22568 次下载
上次更新:--
gemma3-qat logo
gemma3-qat
ai
Google’s latest Gemma, in its QAT (quantization aware trained) variant
20 星标88244 次下载
上次更新:--
deepcoder-preview logo
deepcoder-preview
ai
DeepCoder-14B-Preview是一款代码推理大型语言模型,经微调支持扩展至长上下文长度。
13 星标36759 次下载
上次更新:--
qwen3 logo
qwen3
ai
Qwen3是通义千问系列最新推出的大语言模型,作为新一代人工智能技术成果,它专为顶尖级代码编写、数学计算、逻辑推理及语言处理任务打造,凭借先进的算法架构与深度优化的模型性能,能够高效应对多领域复杂场景下的专业需求,为用户提供精准、智能的解决方案,展现出在技术研发与应用落地中的卓越潜力。
104 星标480594 次下载
上次更新:--
第 1 页 / 共 4 页

推荐技术栈

模型推理框架

vLLMTensorRT-LLMTGI (Text Generation Inference)llama.cpp

向量数据库

MilvusQdrantPineconeWeaviateChroma

API 框架

OpenAI Compatible APILangChainLlamaIndexFastAPI

部署工具

DockerKubernetesDocker ComposeHelm Charts

典型使用场景

智能对话系统

构建企业级智能客服、虚拟助手等对话应用,支持多轮对话、上下文理解、情感分析等功能。

LLM对话管理上下文管理

语义搜索

基于向量嵌入的语义搜索系统,支持自然语言查询、相似度匹配、智能推荐等功能。

嵌入模型向量数据库相似度计算

内容生成

自动生成文章、代码、摘要等内容,支持多种格式输出和风格定制。

LLM文本生成模板引擎

知识问答系统

基于知识库的问答系统,支持文档检索、答案生成、引用溯源等功能。

RAG向量检索重排序LLM

代码助手

AI 驱动的编程助手,支持代码补全、错误修复、代码审查、文档生成等功能。

代码 LLMAST 分析代码理解

相关文章推荐

QWEN3 企业级 Docker 容器化部署指南

QWEN3是Qwen LLM系列的最新一代大语言模型,专为顶级编码、数学、推理和语言任务设计。该模型支持密集型(Dense)和混合专家(Mixture-of-Experts, MoE)两种架构,提供从0.6B到235B-A22B等多种规模的模型变体,适用于从轻型应用到大规模研究的各种部署场景。

Docker,qwen3,Ai2026年1月10日

Crawl4AI Docker 容器化部署指南

Crawl4AI 是一款开源的LLM友好型网络爬虫和抓取工具,专为LLMs(大型语言模型)、AI代理和数据管道设计。

Docker,Crawl4AI2025年12月17日

LocalAI Docker 容器化部署指南

LocalAI 是一款免费开源的OpenAI替代方案,作为兼容OpenAI API规范的REST API服务,它允许用户在本地或企业内部环境中运行大型语言模型(LLMs)、生成图像和音频等AI功能。该项目无需GPU支持,可在消费级硬件上运行,支持多种模型家族,为开发者和企业提供了本地化AI推理的灵活解决方案。

Docker,LocalAI2025年12月15日

Container Network Interface Docker 容器化部署指南

CNI(Container Network Interface)是容器网络接口的标准化规范,用于在容器编排系统中配置容器网络。本文介绍的CNI镜像基于Project Calico项目,包含Calico网络插件和IPAM(IP地址管理)插件,适用于任何采用CNI网络规范的容器编排器。该插件允许用户利用Calico的网络功能,实现容器间的网络连接、策略控制和IP地址管理。

Docker,Calico2025年12月15日

Portainer-CE 中文版 Docker 容器化部署指南

Portainer-CE 中文版是一款容器化应用管理工具,提供了直观的Web界面用于管理Docker环境。本版本为中文汉化版,已去除原版中的企业版升级广告及英文提示公告,提供更友好的中文用户体验。该镜像已在arm64和amd64架构上进行测试,适合各类服务器和NAS设备部署。截至目前,该项目的Docker镜像拉取量已突破150万次,反映了其在容器管理领域的广泛应用。

Docker,Portainer-CE2025年12月14日

常见问题 (FAQ)

Q1:如何选择合适的 AI 模型?

选择 AI 模型时需要考虑以下因素:1) 任务类型(对话、生成、理解等);2) 语言支持(中文、英文、多语言);3) 性能要求(响应速度、并发能力);4) 资源限制(GPU 内存、计算能力);5) 成本考虑(推理成本、部署成本)。建议先从小模型开始测试,根据实际效果逐步升级。

Q2:如何优化 AI 模型的推理性能?

优化推理性能的方法包括:1) 使用量化技术(INT8、INT4)减少模型大小;2) 使用批处理提高吞吐量;3) 使用 KV Cache 加速生成;4) 选择合适的推理框架(vLLM、TensorRT-LLM);5) 合理配置 GPU 资源;6) 使用模型并行和流水线并行。

Q3:如何确保 AI 模型的安全性?

确保 AI 模型安全性的措施:1) 使用官方认证的镜像(Verified Publisher);2) 定期更新镜像版本,修复安全漏洞;3) 实施访问控制和权限管理;4) 监控模型输出,防止有害内容;5) 使用内容过滤和审核机制;6) 遵循数据隐私法规(GDPR、个人信息保护法)。

Q4:如何构建 RAG(检索增强生成)系统?

构建 RAG 系统的步骤:1) 准备知识库文档并分块;2) 使用嵌入模型将文档向量化;3) 将向量存储到向量数据库;4) 用户查询时进行向量检索;5) 使用重排序模型优化检索结果;6) 将检索到的上下文与用户查询一起输入 LLM 生成答案。

Q5:支持哪些部署方式?

支持多种部署方式:1) Docker 容器部署(单机或集群);2) Kubernetes 部署(支持自动扩缩容);3) Docker Compose 部署(适合开发和小规模生产);4) 云平台部署(AWS、Azure、GCP);5) 边缘设备部署(支持模型量化)。所有镜像都经过优化,支持快速启动和稳定运行。

轩辕镜像
Docker AI 官方镜像
官方博客Docker 镜像使用技巧与技术博客
热门镜像查看热门 Docker 镜像推荐
一键安装一键安装 Docker 并配置镜像源
咨询镜像拉取问题请 提交工单,官方技术交流群:1072982923
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
咨询镜像拉取问题请提交工单,官方技术交流群:
轩辕镜像面向开发者与科研用户,提供开源镜像的搜索和访问支持。所有镜像均来源于原始仓库,本站不存储、不修改、不传播任何镜像内容。
官方邮箱:点击复制邮箱
©2024-2026 源码跳动
官方邮箱:点击复制邮箱Copyright © 2024-2026 杭州源码跳动科技有限公司. All rights reserved.