等大佬先测试
对的,很多时候模型并不需要太高的推理能力,小模型永远跑不过大模型的,重要的是便宜,量大。处理些简单日常任务。
好不好用
就是端侧用呀,现在趋势很明显了,未来就是端侧小参数大模型与云端大参数大模型并行,动态分流判断
要的效果就是:该快的任务快,要能力的也有能力,可即时问答也可深度思考,不至于断网用不了也不至于仅局限于端侧的小垃圾
AI in chromium(s) (OS(s)) & AOSP & Android(s) & Fuchsia OS
很快,嵌入式的迭代~~
BTW , open haramony什么时候内置一个
1 Like
可能是用的人太多了才慢吧
感觉好慢w
反正数学是差得一塌糊涂
这个帖子随便测了几题全都不对
Gemma3是个多模态的模型啊,还用比吗?
ollama中怎么输出图像啊
page assistant里面好像给他输入输出图片都不行啊
qwq的思考几乎无感,速度太快了几百tokens 快的时候六七百,完全不像思考模型有的速度,非常爽
日常模型为什么要跑数学测试?数学Benchmark本身就是推理模型的主场