groq 已经上了 llama3.2的vision模型

前几天看到ollama正式版已经上了llama3.2的vision模型. 本地跑有点吃力,我刚才想看看哪家提供了此模型.正好看到groq上面有啊.美滋滋.

测试结果:
curl 一张在线图片 模型是llama3.2那个11b的.

速度很快,请求后啪一下就返回了.

下面列一下个groq的模型列表:

具体vision模型的介绍:

我的本地只能跑11b的vision模型,直接享受在线90b. 鸡你太美啊.

想体验的快去看自己的API key吧.

17 个赞

nextchat 使用顺利,速度很快,groq 牛

1 个赞

:joy: 挺爽. groq 快枪手.

有点遗憾,我今天测了测中文图片他对中文理解差点意思.

1 个赞

Chatbox设置里面直接支持llama 3.2的vision

3 个赞

是的,纯图还好,文本就差了

1 个赞

按照您这句

话,让我想到那他在图片 prompt或者分析上有些用途.

1 个赞

围观下,API应怎么用哦

1 个赞

你是对的,我找到了在最下面.

但是我添加图片好像没生效.

1 个赞

这个可以呀!

1 个赞

是 不用考虑本地硬件问题了.

和github提供的有区别吗

接口地址换成:https://api.groq.com/openai 就好了,如果需要 v1 就对应加上

2 个赞

不知道,我注册的github那个给封了. :laughing:

3 个赞

github 会砍上下文

1 个赞

感谢佬我试一试

我也是,好像model没看到图片

2 个赞

应该是客户端问题,下一版估计就没问题了. 我刚才看的是web端的chat box,确实groq模型里面没有. 切到客户端是有这个模型.

:laughing: 我还纳闷怎么就有了.

用了几天,感觉还可以 :tieba_025:

有这好消息 怎么没分享一下? :sunglasses:

#Groq添加