Google的Gemma3发布了 更新下了Ollama安装

等大佬先测试

对的,很多时候模型并不需要太高的推理能力,小模型永远跑不过大模型的,重要的是便宜,量大。处理些简单日常任务。

好不好用

就是端侧用呀,现在趋势很明显了,未来就是端侧小参数大模型与云端大参数大模型并行,动态分流判断
要的效果就是:该快的任务快,要能力的也有能力,可即时问答也可深度思考,不至于断网用不了也不至于仅局限于端侧的小垃圾

AI in chromium(s) (OS(s)) & AOSP & Android(s) & Fuchsia OS :bili_040:
很快,嵌入式的迭代~~
BTW , open haramony什么时候内置一个:index_pointing_up:

1 Like

可能是用的人太多了才慢吧


快了一点

感觉好慢w

反正数学是差得一塌糊涂

这个帖子随便测了几题全都不对

Gemma3是个多模态的模型啊,还用比吗?

ollama中怎么输出图像啊

page assistant里面好像给他输入输出图片都不行啊

qwq的思考几乎无感,速度太快了几百tokens 快的时候六七百,完全不像思考模型有的速度,非常爽

日常模型为什么要跑数学测试?数学Benchmark本身就是推理模型的主场