经测试火山引擎的的deepseek R1,速度快,效果不错

测试了坛子里的几个问题,应该是全量的R1,同问题输出速度快于官网的速度,并且推理tokens不占用总的输出8k,计费和输出tokens同价

3 个赞

豆包这个R1不支持文件上传,不够给力呀

接到客户端啊 lobe openwebui都能上传,标准的openai格式的 /v3/chat/completions

我在 cherry 里,传了 pdf 报错呀

立刻使用

没用过cherry 是不是没配置向量模型的问题

昨天试过,有时候不思考

嘿嘿嘿,公司的豆包终于有点用处了,上午一到公司我就开了deepseek模型 :tieba_025:

不知道什么原因我创建接入点老是不成功

难搞接入cline也报错

它的思考过程好像在response-content里,跟结果不在一起,我在libre里 响应正常,思考不显示,需要自己中转一下,
创建一下endpoint,
模型名称是endpoint id,试一下

:bili_040: 不免费吧?

思考过程好像在response-content里,跟结果不在一起,是不是这个原因,
模型名称是endpoint id, 不是r1

不免费,实名送50w tokens

妥,回去就部署

额度用光了

模型调用应该没问题,以前调过豆包 :bili_017:

已经结束了,不仅慢还会没输出

1 个赞

并没有,从几天前开始就很慢很卡,昨天今天两天几乎没法用了

想问下佬,价格,响应速度跟官网比如何?