阿里巴巴推出Qwen2.5-1M 支持100万Token上下文的开源模型,性能媲美GPT4o mini

阿里巴巴推出Qwen2.5-1M

支持100万Token上下文的开源模型,性能媲美GPT4o mini

Qwen2.5-1M 在处理 超长文本任务 和 短文本任务 上都表现出了卓越的能力,尤其是在处理复杂的长上下文场景中,达到了开源模型的领先水平。

推理速度比传统方法快 3 到 7 倍,尤其在处理超长序列时表现优异。

推理阶段通过块状预填充(Chunked Prefill)技术,使显存需求减少 96.7%。

6 个赞

进来看看阿里巴巴在折腾什么

1 个赞

坐等年后硅基上班更新,硅基余额好久没用过了。

我硅基上面全用的免费模型:joy:,硅基看了都流泪

反应不知道快不快,支持高并发不,拿来当翻译备用 :joy:

看到了个Qwen和deepseek 合并一起的

4 个赞

跑在移动端的?

最近新模型发布的好多

也就是说qwen2.5 14b的模型和gpt4o mini性能接近。本地部署这样的模型并不难

1M挺强的

站内好像上午发过了……

这么强的吗

这个好。大小也合适。