报!硅宝上线R1 Distill系列模型(硅基流动)

上线 671B 满血版 DeepSeek-R1、DeepSeek-V3 之后,今天,硅基流动 SiliconCloud 平台继续上线 6 款加速版 DeepSeek-R1 蒸馏版模型,包括 DeepSeek-R1-Distill-Llama-70B、DeepSeek-R1-Distill-Qwen-32B、DeepSeek-R1-Distill-Qwen-14B、DeepSeek-R1-Distill-Llama-8B(Free)、DeepSeek-R1-Distill-Qwen-7B(Free)、DeepSeek-R1-Distill-Qwen-1.5B(Free)。 其中,上述 8B、7B、1.5B 模型可免费使用。

自己测了一下,感觉7B在很多场景(写作尤其)已经非常强大了,应用搞起来!

4 Likes

可以可以!

1 Like

可以可以!

可以可以!

诶,太好了!

千呼万唤始出来

我在思考用哪个模型翻译最好,现在硅宝的V3模型快卡死了

启动启动

我翻译用逆的qwen-plus-latest,硅宝v3备用。再不行用Gemini号池

1 Like

我沉浸式翻译用硅基的 Qwen/Qwen2.5-72B-Instruct,V3 现在正在去 Together 多刷几个号池了,硅基 V3 现在已经慢到没法用了。

1 Like

我试试,之前一直用DS 官方API V3 那个时候速度真的快啊~
之前压根没人用,我DS 官方API跑翻译可以开5000线程…
————
不错不错 速度很快

7b比8b还强吗?

太强了!

太可以了!!~

一个是llama 一个是千问好像是这个意思

这可以。

llama 和 qwen 什么区别啊,就是公司不一样吗

Llama 是扎克伯格的 Meta,Qwen 是阿里的。 :bili_040: 在拉跨的方向上这俩倒是非常一致。

1 Like