测试:
之前有llava、minicpm、 现在有来了一个llama3.2
挺好的,居然更了
是啊, 还以为会难产. 有进步.
太好了,都快一個月了
minicpm我本地跑一个简单的验证码都识别不对,感觉效果不行
试试llama3.2 对比下结果.
OCR跟 4o比怎么样?
没详细测试过 视觉用得少
这么溜,速度怎么样?
啥时候支持 Qwen-VL 啊
这得看 llama.cpp 的组织了
速度看设备.我这个电脑不算快. 质量比minicpm好些.
正在更新中~~
感觉带了图片速度非常慢,同等模型,秒出,带图就得等一分半才出
我早上试了试,我这笔记本本地跑也挺吃力的.
groq API支持vision模型