Carlxlx
(Carlxlx)
1
本人经常用推理模型翻译,但是Deepseek-R1的输出窗口实在太小,两千tokens都不到就不会输出了。而且就算你怎么提示,他都会默认给你省略,把很长一段话变成字数少于2000tokens的总结发给你
我用的是火山引擎的Deepseek,现在不太确定这到底是他输出窗口的问题,还是模型自身或者说火山引擎自带省略长文的设置功能。不过我用gork3推理跟gemini-2.0-flash-thinking就没这事
请问有什么推理模型的输出窗口更大吗?或者一般的模型也可以考虑。如果有地方能查所有模型的输出窗口也行
目前我就知道gemini-2.0-flash-thinking的输出窗口比较大,不过我用着感觉他不太智能,对中文的优化不太好
gork-3的推理模型我用着倒不错,不过最近服务器快被挤爆了,经常没次数用。他的API还得等几个礼拜才上线,所以这段时间就很难受
如果有能力能让deepseek-r1不省略,直接输出完整内容也行
非常感谢各位大佬
最后附上我用的意译prompt,发明人:宝玉
12 个赞
2k tokens不输出的话是截断问题,看供应商,比如ds官网的模型基本不会出现截断。
gemini可以试试gemini-2.0-pro,智力可以,窗口还好,
3 个赞
OpenRouter上有更长上下文的提供商,但是价格嘛
2 个赞
Carlxlx
(Carlxlx)
5
这个确实是deepseek-r1这个模型的问题,我用官方API也是这样,他100%会给你省略
目前推理模型的成本都比指令模型大的多,窗口小很正常,只能等grok3或者claude4等模型看看了
1 个赞
Carlxlx
(Carlxlx)
8
这个确实是Deepseek-R1模型的问题,我在gork3推理模型和gemini-2.0-flash-thinking上都试了,那俩就没事,就Deepseek-R1会给你省略
Carlxlx
(Carlxlx)
11
那当然要了,你是想卖API不?要是怕平台删你帖子私信我,我看看价
不过我现在不太确定这个是输出窗口的问题还是模型自带的设置,要是模型自己默认会省略,那修改输出窗口可能还没啥用
Biss
(donk666)
12
oai的o系列,全系200k context和100k maximum output,不过应该只有pro套餐是这样的满血
2 个赞
单纯输出窗口,个人体感是chatgpt deepresearch>gemini-2.0-flash-thinking>chatgpt o1 pro
但是gemini的文本质量比较差,deepreaseach的提示词遵从不行。有文本质量要求就o1 pro比较合适。
R1的输出窗口应该是被16元/M的token价格限制了。要是给长输出可能价格高不少,缺竞争力。可能再等2个月左右,腾讯阿里字节等上个高价新版能解决这个问题。
长文本输出的凑合方案,就是分多次对话输出。不过R1低成本带来的上下文幻觉也会影响质量。需要严格控制。
个人体感chatgpt目前的核心竞争力,就是有人买它20/200刀的订阅费,配合降智动态风控,让openai不用考虑推理成本,能给模型拉到最高。其它模型都要严控成本,效果就差了不少。
1 个赞
输出窗口大的体感真的很不错,因此对gemini flash thinking一直很有好感。
1 个赞
yhp666
(yhp666)
20
哦,火山不会降智,也不会减上下文,但是输出token有单位时间限制
1 个赞