qwen3 8B真实用啊!gemini2.5pro大部分时间都不需要用了


百分之95的问题答案和geminipro基本都一模一样,并且速度快非常多,5090两三秒一个问题,一百多token/S。并且也不存在什么卡住,网络等问题,除了复杂问题还是需要用在线的,大部分情况下现在都本地大模型了,第一次感受到本地大模型的实用性!!!拿来学习编程什么的非常爽

image
在m3max上速度也还不错 是5090的1/3左右速度 也完全够用了 但是这个这个速度的话感觉就不如在线的了,等待时间有点久

50 Likes

这么强了吗

2 Likes

只有我在羡慕5090吗

24 Likes

佬可以来个5090吗 :sob:

5 Likes

8b拿来跟几百b的大模型比

12 Likes

5090好评

3 Likes

5090! :tieba_087:

2 Likes

8B这么强?

1 Like

其实大部分情况下使用体验是差不多的 在很多编程问题上 我对比了好多答案 回答的都是正确的 复杂的应该区别蛮大 但是日常用的话还真是差不多了

3 Likes

楼主问的问题简单而已
问题稍微复杂一点就差远了

7 Likes

5090…qwen-30B-A3B更快吧

2 Likes

其实差不多,都是一百多tokens/S

1 Like

大部分时间用2.5 flash,2.0flash,速度飞快

1 Like

这两个我也很喜欢 都是两三秒一个问题

1 Like

确实想要一个又快又能正确回答历史问题本地大模型,在玩一个有每日限时答题的历史游戏,因为用的截图目前国产ai的ocr后的正确率不是很理想,正确率最好的就2.5pro但思考时间太久,昨天问红楼梦一个角色的父亲是谁,连开了搜索的4o的正确率都只有1/3

1 Like

联网模型都解决不了的,本地模型想都别想了

2 Likes

这种本地模型基本不可能实现了 太难了

1 Like

细说5090

m4 128G 32b的qwen3,还是有点慢

RAG可以吗?

1 Like