测试了坛子里的几个问题,应该是全量的R1,同问题输出速度快于官网的速度,并且推理tokens不占用总的输出8k,计费和输出tokens同价
3 个赞
豆包这个R1不支持文件上传,不够给力呀
接到客户端啊 lobe openwebui都能上传,标准的openai格式的 /v3/chat/completions
我在 cherry 里,传了 pdf 报错呀
立刻使用
没用过cherry 是不是没配置向量模型的问题
昨天试过,有时候不思考
嘿嘿嘿,公司的豆包终于有点用处了,上午一到公司我就开了deepseek模型
不知道什么原因我创建接入点老是不成功
难搞接入cline也报错
它的思考过程好像在response-content里,跟结果不在一起,我在libre里 响应正常,思考不显示,需要自己中转一下,
创建一下endpoint,
模型名称是endpoint id,试一下
不免费吧?
思考过程好像在response-content里,跟结果不在一起,是不是这个原因,
模型名称是endpoint id, 不是r1
不免费,实名送50w tokens
妥,回去就部署
额度用光了
模型调用应该没问题,以前调过豆包
已经结束了,不仅慢还会没输出
1 个赞
并没有,从几天前开始就很慢很卡,昨天今天两天几乎没法用了
想问下佬,价格,响应速度跟官网比如何?