百分之95的问题答案和geminipro基本都一模一样,并且速度快非常多,5090两三秒一个问题,一百多token/S。并且也不存在什么卡住,网络等问题,除了复杂问题还是需要用在线的,大部分情况下现在都本地大模型了,第一次感受到本地大模型的实用性!!!拿来学习编程什么的非常爽
在m3max上速度也还不错 是5090的1/3左右速度 也完全够用了 但是这个这个速度的话感觉就不如在线的了,等待时间有点久
在m3max上速度也还不错 是5090的1/3左右速度 也完全够用了 但是这个这个速度的话感觉就不如在线的了,等待时间有点久
这么强了吗
只有我在羡慕5090吗
佬可以来个5090吗
8b拿来跟几百b的大模型比
5090好评
5090!
8B这么强?
其实大部分情况下使用体验是差不多的 在很多编程问题上 我对比了好多答案 回答的都是正确的 复杂的应该区别蛮大 但是日常用的话还真是差不多了
楼主问的问题简单而已
问题稍微复杂一点就差远了
5090…qwen-30B-A3B更快吧
其实差不多,都是一百多tokens/S
大部分时间用2.5 flash,2.0flash,速度飞快
这两个我也很喜欢 都是两三秒一个问题
确实想要一个又快又能正确回答历史问题本地大模型,在玩一个有每日限时答题的历史游戏,因为用的截图目前国产ai的ocr后的正确率不是很理想,正确率最好的就2.5pro但思考时间太久,昨天问红楼梦一个角色的父亲是谁,连开了搜索的4o的正确率都只有1/3
联网模型都解决不了的,本地模型想都别想了
这种本地模型基本不可能实现了 太难了
细说5090
m4 128G 32b的qwen3,还是有点慢
RAG可以吗?