Deepseek-R1的输出窗口太少,有没有输出窗口更大的思考模型?

本人经常用推理模型翻译,但是Deepseek-R1的输出窗口实在太小,两千tokens都不到就不会输出了。而且就算你怎么提示,他都会默认给你省略,把很长一段话变成字数少于2000tokens的总结发给你

我用的是火山引擎的Deepseek,现在不太确定这到底是他输出窗口的问题,还是模型自身或者说火山引擎自带省略长文的设置功能。不过我用gork3推理跟gemini-2.0-flash-thinking就没这事

请问有什么推理模型的输出窗口更大吗?或者一般的模型也可以考虑。如果有地方能查所有模型的输出窗口也行

目前我就知道gemini-2.0-flash-thinking的输出窗口比较大,不过我用着感觉他不太智能,对中文的优化不太好

gork-3的推理模型我用着倒不错,不过最近服务器快被挤爆了,经常没次数用。他的API还得等几个礼拜才上线,所以这段时间就很难受

如果有能力能让deepseek-r1不省略,直接输出完整内容也行

非常感谢各位大佬tieba_028

最后附上我用的意译prompt,发明人:宝玉

12 个赞

2k tokens不输出的话是截断问题,看供应商,比如ds官网的模型基本不会出现截断。
gemini可以试试gemini-2.0-pro,智力可以,窗口还好,

3 个赞

马克学习一下

OpenRouter上有更长上下文的提供商,但是价格嘛

2 个赞

这个确实是deepseek-r1这个模型的问题,我用官方API也是这样,他100%会给你省略

这得问宝玉吧~ :joy:
DS这锅背不得

目前推理模型的成本都比指令模型大的多,窗口小很正常,只能等grok3或者claude4等模型看看了

1 个赞

这个确实是Deepseek-R1模型的问题,我在gork3推理模型和gemini-2.0-flash-thinking上都试了,那俩就没事,就Deepseek-R1会给你省略

164K输入输出的R1要不要?

2 个赞

那调用的api接口地址是什么呢?

那当然要了,你是想卖API不?要是怕平台删你帖子私信我,我看看价

不过我现在不太确定这个是输出窗口的问题还是模型自带的设置,要是模型自己默认会省略,那修改输出窗口可能还没啥用

oai的o系列,全系200k context和100k maximum output,不过应该只有pro套餐是这样的满血

2 个赞

我用的火山的,接口就是火山引擎,应该没问题

用的前端是Cherry Studio

总不能火山也跟OpenAI学会降智了吧tieba_033

上下文长度用下来Gemini效果是最好的

1 个赞

感觉Gemini翻译质量还可以的,不够用吗 :tieba_087:

2 个赞

单纯输出窗口,个人体感是chatgpt deepresearch>gemini-2.0-flash-thinking>chatgpt o1 pro

但是gemini的文本质量比较差,deepreaseach的提示词遵从不行。有文本质量要求就o1 pro比较合适。

R1的输出窗口应该是被16元/M的token价格限制了。要是给长输出可能价格高不少,缺竞争力。可能再等2个月左右,腾讯阿里字节等上个高价新版能解决这个问题。

长文本输出的凑合方案,就是分多次对话输出。不过R1低成本带来的上下文幻觉也会影响质量。需要严格控制。
个人体感chatgpt目前的核心竞争力,就是有人买它20/200刀的订阅费,配合降智动态风控,让openai不用考虑推理成本,能给模型拉到最高。其它模型都要严控成本,效果就差了不少。

1 个赞

输出窗口大的体感真的很不错,因此对gemini flash thinking一直很有好感。

1 个赞

gemini吧

1 个赞

gemini的上下文绝对够你用

1 个赞

哦,火山不会降智,也不会减上下文,但是输出token有单位时间限制

1 个赞