阿里巴巴开源1100亿参数Qwen1.5-110B模型,性能与Meta Llama3-70B相当

该模型在基础能力评估中与 Meta-Llama3-70B 相媲美,在 Chat 评估中表现出色,包括 MT-Bench 和 AlpacaEval 2.0。

据介绍,Qwen1.5-110B 与其他 Qwen1.5 模型相似,采用了相同的 Transformer 解码器架构。它包含了分组查询注意力(GQA),在模型推理时更加高效。该模型支持 32K tokens 的上下文长度,同时它仍然是多语言的,支持英、中、法、西、德、俄、日、韩、越、阿等多种语言。

阿里 Qwen1.5-110B 模型与最近的 SOTA 语言模型 Meta-Llama3-70B 以及 Mixtral-8x22B 进行了比较,结果如下:

8 个赞

试了下,对中文来说相当不错,比LLAMA3-70B要好

速度很快啊

最近用Qwen做日中翻译翻了几十万字,就日中翻译而言,称得上是第一。(除了Opus试过所有主流模型)

3 个赞

还不错。

比Qwen1.5-72B好多了