阿里巴巴推出Qwen2.5-1M
支持100万Token上下文的开源模型,性能媲美GPT4o mini
Qwen2.5-1M 在处理 超长文本任务 和 短文本任务 上都表现出了卓越的能力,尤其是在处理复杂的长上下文场景中,达到了开源模型的领先水平。
推理速度比传统方法快 3 到 7 倍,尤其在处理超长序列时表现优异。
推理阶段通过块状预填充(Chunked Prefill)技术,使显存需求减少 96.7%。
阿里巴巴推出Qwen2.5-1M
支持100万Token上下文的开源模型,性能媲美GPT4o mini
Qwen2.5-1M 在处理 超长文本任务 和 短文本任务 上都表现出了卓越的能力,尤其是在处理复杂的长上下文场景中,达到了开源模型的领先水平。
推理速度比传统方法快 3 到 7 倍,尤其在处理超长序列时表现优异。
推理阶段通过块状预填充(Chunked Prefill)技术,使显存需求减少 96.7%。
进来看看阿里巴巴在折腾什么
坐等年后硅基上班更新,硅基余额好久没用过了。
我硅基上面全用的免费模型,硅基看了都流泪
反应不知道快不快,支持高并发不,拿来当翻译备用
看到了个Qwen和deepseek 合并一起的
跑在移动端的?
最近新模型发布的好多
也就是说qwen2.5 14b的模型和gpt4o mini性能接近。本地部署这样的模型并不难
1M挺强的
站内好像上午发过了……
这么强的吗
这个好。大小也合适。