ollama 0.4.0 预发布 新增llama3.2-vision

测试:

之前有llava、minicpm、 现在有来了一个llama3.2

13 Likes

挺好的,居然更了

4 Likes

是啊, 还以为会难产. 有进步.

太好了,都快一個月了

minicpm我本地跑一个简单的验证码都识别不对,感觉效果不行

我简单试了试.

1 Like

不错,至少比minicpm好

:nerd_face: 试试llama3.2 对比下结果.

OCR跟 4o比怎么样?

没详细测试过 视觉用得少

这么溜,速度怎么样?

啥时候支持 Qwen-VL

这得看 llama.cpp 的组织了 :laughing:

速度看设备.我这个电脑不算快. 质量比minicpm好些.

正在更新中~~

感觉带了图片速度非常慢,同等模型,秒出,带图就得等一分半才出

我早上试了试,我这笔记本本地跑也挺吃力的.

groq API支持vision模型

1 Like