本站面向开发者与科研用户,提供开源镜像的搜索和下载加速服务。
所有镜像均来源于原始开源仓库,本站不存储、不修改、不传播任何镜像内容。

qwen2.5 Docker 镜像下载 - 轩辕镜像

qwen2.5 镜像详细信息和使用指南

qwen2.5 镜像标签列表和版本信息

qwen2.5 镜像拉取命令和加速下载

qwen2.5 镜像使用说明和配置指南

Docker 镜像加速服务 - 轩辕镜像平台

国内开发者首选的 Docker 镜像加速平台

极速拉取 Docker 镜像服务

相关 Docker 镜像推荐

热门 Docker 镜像下载

qwen2.5
ai/qwen2.5

qwen2.5 镜像详细信息

qwen2.5 镜像标签列表

qwen2.5 镜像使用说明

qwen2.5 镜像拉取命令

Docker 镜像加速服务

轩辕镜像平台优势

镜像下载指南

相关 Docker 镜像推荐

通义千问迎来重要更新,本次升级在语言能力上实现显著提升,涵盖更精准的语义理解、更自然的文本生成及更深入的多轮对话表现,同时大幅拓宽支持范围,包括更长文本处理、多模态交互(如图文结合)及更多行业场景适配,为用户带来更智能、更全面的AI服务体验。
8 收藏0 次下载activeai

qwen2.5 镜像详细说明

qwen2.5 使用指南

qwen2.5 配置说明

qwen2.5 官方文档

Qwen2.5-7B Instruct

!logo

Qwen2.5-7B-Instruct 是阿里云开发的指令微调大语言模型,属于 Qwen2.5 系列。该系列模型参数规模覆盖 0.5B 至 72B,而本模型在知识储备、代码生成、数学推理能力上有显著提升,同时增强了指令跟随和长文本生成表现。它支持最长 131,072 tokens 的上下文窗口,输出长度可达 8,192 tokens,并提供 29 种以上语言的多语言支持,包括中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等。

适用场景

Qwen2.5-7B-Instruct 可辅助完成多种自然语言处理任务,具体包括:

  • 对话式AI:与用户进行自然交互,提供信息丰富且贴合上下文的回应。
  • 文本生成:基于输入提示生成连贯、符合语境的文本内容。
  • 多语言支持:理解和生成多语言文本,助力跨语言沟通。
  • 结构化数据理解:处理表格、JSON 及半结构化输入/输出数据。

模型特性

属性详情
开发方阿里云
架构qwen2
数据截止时间2024年11月(预估)
支持语言中文、英文、法语、西班牙语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语、阿拉伯语等(共29种语言)
工具调用
输入模态文本
输出模态文本
许可证Apache 2.0

可用模型变体

模型变体参数规模量化方式上下文窗口显存¹大小
ai/qwen2.5:latest

ai/qwen2.5:7B-Q4_K_M
7BIQ2_XXS/Q4_K_M33K tokens4.83 GiB4.36 GB
ai/qwen2.5:0.5B-F160.5BF1633K tokens1.38 GiB942.43 MB
ai/qwen2.5:1.5B-F161.5BF1633K tokens3.39 GiB2.88 GB
ai/qwen2.5:3B-Q4_K_M3BIQ2_XXS/Q4_K_M33K tokens2.37 GiB1.79 GB
ai/qwen2.5:3B-F163BF1633K tokens6.33 GiB5.75 GB
ai/qwen2.5:7B-Q4_07BQ4_033K tokens4.60 GiB4.12 GB
ai/qwen2.5:7B-Q4_K_M7BIQ2_XXS/Q4_K_M33K tokens4.83 GiB4.36 GB
ai/qwen2.5:7B-F167BF1633K tokens13.93 GiB14.19 GB

¹:显存基于模型特性估算。

latest 标签默认对应 7B-Q4_K_M 版本。

使用 Docker Model Runner 运行模型

步骤1:拉取模型

bash
docker model pull ai/qwen2.5

步骤2:运行模型

bash
docker model run ai/qwen2.5

更多关于 Docker Model Runner 的使用细节,可参考 ***文档。

使用注意事项

  • 请遵守 Apache 2.0 许可证的使用要求。
  • 处理长上下文输入时,需注意设备的计算资源是否充足。
  • 建议定期更新模型至最新版本,以获取功能优化和安全更新。

性能基准测试

评估维度测试基准Qwen2.5-7B-Instruct 得分
知识与问答MMLU-Pro56.3
MMLU-redux75.4
GPQA36.4
数学与推理MATH75.5
GSM8K91.6
代码能力HumanEval84.8
MBPP79.2
MultiPL-E70.4
LiveCodeBench 2305-240928.7
LiveBench 083135.9
指令跟随IFeval strict-prompt71.2
Arena-Hard52.0
对齐与偏好AlignBench v1.17.33
MTbench8.75

相关链接

  • Qwen2.5:基础模型系列介绍
  • Qwen2.5 技术报告

用户好评

来自真实用户的反馈,见证轩辕镜像的优质服务

oldzhang的头像

oldzhang

运维工程师

Linux服务器

5

"Docker加速体验非常流畅,大镜像也能快速完成下载。"