“阿里开源AI新模型Qwen2.5-Turbo,提升100万token处理效率”
近日,阿里通义千问团队在其官方博客上宣布,经过几个月的精心优化与打磨,针对社区用户对更长上下文处理需求,全新推出了Qwen2.5-Turbo开源AI模型。该模型将上下文长度扩展至100万个tokens,相当于约100万英语单词或150万汉字,大幅提升了模型对长文本的处理能力。
据悉,Qwen2.5-Turbo在处理长文本方面具有显著优势。该模型在1M-token的Passkey检索任务中取得了100%的准确率,RULER长文本评估得分高达93.1,超越了GPT-4和GLM4-9B-1M。此外,团队通过整合稀疏注意力机制,将处理100万个tokens所需时间从4.9分钟缩短至68秒,速度提升达4.3倍,有效提高了模型的响应效率。
在经济性方面,Qwen2.5-Turbo在保持每百万个tokens处理成本为0.3元的同时,能处理3.6倍于GPT-4o-mini的token数量,使得该模型在长上下文处理领域具有更强的竞争力,成为高效、经济的解决方案。
尽管Qwen2.5-Turbo在多个基准测试中表现出色,但团队仍认识到在真实场景中的长序列任务表现可能不够稳定,且大型模型的推理成本有待进一步优化。对此,团队承诺将持续优化人类偏好,提高推理效率,并探索更强大的长上下文模型。
IT之家提醒,有意了解Qwen2.5-Turbo模型的读者可通过以下链接获取官方介绍、API文档及在线演示:[Qwen2.5-Turbo官方介绍](#)、[API文档](#)、[在线演示](#)。