前几天看到ollama正式版已经上了llama3.2的vision模型. 本地跑有点吃力,我刚才想看看哪家提供了此模型.正好看到groq上面有啊.美滋滋.
测试结果:
curl 一张在线图片 模型是llama3.2那个11b的.
速度很快,请求后啪一下就返回了.
下面列一下个groq的模型列表:
具体vision模型的介绍:
我的本地只能跑11b的vision模型,直接享受在线90b. 鸡你太美啊.
想体验的快去看自己的API key吧.
前几天看到ollama正式版已经上了llama3.2的vision模型. 本地跑有点吃力,我刚才想看看哪家提供了此模型.正好看到groq上面有啊.美滋滋.
测试结果:
curl 一张在线图片 模型是llama3.2那个11b的.
速度很快,请求后啪一下就返回了.
下面列一下个groq的模型列表:
具体vision模型的介绍:
我的本地只能跑11b的vision模型,直接享受在线90b. 鸡你太美啊.
想体验的快去看自己的API key吧.
nextchat 使用顺利,速度很快,groq 牛
挺爽. groq 快枪手.
有点遗憾,我今天测了测中文图片他对中文理解差点意思.
是的,纯图还好,文本就差了
按照您这句
话,让我想到那他在图片 prompt或者分析上有些用途.
围观下,API应怎么用哦
你是对的,我找到了在最下面.
但是我添加图片好像没生效.
这个可以呀!
是 不用考虑本地硬件问题了.
和github提供的有区别吗
接口地址换成:https://api.groq.com/openai 就好了,如果需要 v1 就对应加上
不知道,我注册的github那个给封了.
github 会砍上下文
感谢佬我试一试
我也是,好像model没看到图片
应该是客户端问题,下一版估计就没问题了. 我刚才看的是web端的chat box,确实groq模型里面没有. 切到客户端是有这个模型.
我还纳闷怎么就有了.
用了几天,感觉还可以
有这好消息 怎么没分享一下?
#Groq添加