qychen
(光头不砍树)
1
上线 671B 满血版 DeepSeek-R1、DeepSeek-V3 之后,今天,硅基流动 SiliconCloud 平台继续上线 6 款加速版 DeepSeek-R1 蒸馏版模型,包括 DeepSeek-R1-Distill-Llama-70B、DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Llama-8B(Free)、DeepSeek-R1-Distill-Qwen-7B(Free)、DeepSeek-R1-Distill-Qwen-1.5B(Free)。 其中,上述 8B、7B、1.5B 模型可免费使用。
自己测了一下,感觉7B在很多场景(写作尤其)已经非常强大了,应用搞起来!
4 Likes
我在思考用哪个模型翻译最好,现在硅宝的V3模型快卡死了
zeduwfd
(Zwei)
9
我翻译用逆的qwen-plus-latest,硅宝v3备用。再不行用Gemini号池
1 Like
Qiner
(林黛玉倒拔垂杨柳)
10
我沉浸式翻译用硅基的 Qwen/Qwen2.5-72B-Instruct,V3 现在正在去 Together 多刷几个号池了,硅基 V3 现在已经慢到没法用了。
1 Like
我试试,之前一直用DS 官方API V3 那个时候速度真的快啊~
之前压根没人用,我DS 官方API跑翻译可以开5000线程…
————
不错不错 速度很快
baipiao
(沫云初)
17
llama 和 qwen 什么区别啊,就是公司不一样吗
Qiner
(林黛玉倒拔垂杨柳)
18
Llama 是扎克伯格的 Meta,Qwen 是阿里的。
在拉跨的方向上这俩倒是非常一致。
1 Like