13 Likes
一直在用始皇的deeplx,随便跑没限制,质量也还可以
1 Like
但是这个模型不是思考模型吗
原来这个还活着。。好像早就列表下架了
可以考虑一下论坛里的那个DeepXL,用了有段时间了,质量速度都挺不错
2 Likes
L站的deeplx很好用,干嘛用别的
1 Like
我一直用 mini 系列,之前是 4o mini 现在 4.1 mini
1 Like
这个翻译很好吗?
用的本站沉浸式翻译器没有更爽
我之前用deel作者的deelx感觉不稳,现在更挂了。后来就用这个模型,挺好用的。现在用始皇的deelx确实不错
是,但是挺快的。当时佬友推荐的,挺好用的
挺好的感觉
没注意,用了挺长一段时间了
自己的api吗?不知道现在注册还送不送5刀了,我没有api
翻译模型我推荐gemma-2或gemma-3,gemma-2一般比较快,9b和27b都不错
用硅基新的那个智谱模型,也不错,我是用的佬友的grok,平时用的少,有时候用智谱的glm4 flash,都还可以
没用过,硅基有吗?
grok快吗?
之前有的,现在下架了,国外的模型全下了,只能等硅基的国际网站看看了
硅基有glm-4 32b好用,感觉不比gemma差
2 Likes