ITBEAR科技资讯
网站首页 科技资讯 财经资讯 分享好友

阿里通义千问Qwen2.5-1M模型开源,长上下文处理能力大幅提升!

时间:2025-01-27 07:52:31来源:ITBEAR编辑:快讯团队

阿里通义千问于近日正式宣布,开源了其最新的Qwen2.5-1M模型及其配套的推理框架。这一举措标志着通义千问在人工智能领域迈出了重要一步。

据悉,通义千问此次发布的开源模型包括Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M两个版本。尤为引人注目的是,这两个版本首次将Qwen模型的上下文长度扩展到了1M(即100万标记),这在业界尚属首次。

为了帮助开发者更好地部署和应用这些模型,Qwen团队还开源了基于vLLM的推理框架。该框架集成了稀疏注意力方法,使得在处理长达1M标记的输入时,推理速度有了显著提升,达到了3倍至7倍的增长。

在长上下文任务方面,Qwen2.5-1M系列模型展现出了强大的能力。在一项名为“大海捞针”的任务中,这些模型能够准确地从1M长度的文档中检索出隐藏信息。尽管7B版本的模型在极少数情况下出现了错误,但整体上,其表现仍然令人瞩目。

为了全面评估Qwen2.5-1M系列模型在长上下文任务中的表现,研究团队还选择了RULER、LV-eval和LongbenchChat等多个测试集进行测试。测试结果显示,这些模型在大多数任务中都显著优于之前的128K版本,特别是在处理超过64K长度的任务时,其优势更加明显。

Qwen2.5-14B-Instruct-1M模型不仅在性能上击败了Qwen2.5-Turbo,还在多个数据集上稳定超越了GPT-4o-mini。这一结果无疑为长上下文任务提供了更多开源模型的选择。

除了长上下文任务外,Qwen2.5-1M系列模型在短序列任务上的表现同样出色。测试结果显示,Qwen2.5-7B-Instruct-1M和Qwen2.5-14B-Instruct-1M在短文本任务上的表现与其128K版本相当,这意味着增加长序列处理能力并没有牺牲其基本能力。

与GPT-4o-mini相比,Qwen2.5-14B-Instruct-1M和Qwen2.5-Turbo在短文本任务上实现了相近的性能,但它们的上下文长度却是GPT-4o-mini的八倍。这一结果进一步证明了Qwen2.5-1M系列模型在短序列任务上的强大实力。

更多热门内容
腾讯智能体开发平台上线,计划开源多项模型技术再升级
新榜讯 5 月 21 日讯,5 月 21 日,腾讯云重磅推出智能体开发平台,成功接入 DeepSeek - R1、V3模型以及联网搜索。此外,腾讯拟定于近日推出世界模型混元 3D 场景模型,同时开源企业级混…

2025-05-21

去哪儿网20年:CEO陈刚宣布,第四次创业征程即将开启!
新榜讯 5 月 18 日,去哪儿旅行(以下简称“去哪儿”)喜迎 20 周年华诞。去哪儿 CEO 陈刚在 20 周年演讲时宣称,历经 3次连续创业,去哪儿顺利跨越 20 年中国互联网的起伏跌宕。当下,去哪儿拥…

2025-05-21