cherry studio最大输出3000个tokens。但deep seek r1思考过程很长,往往到3000token就停了,请问怎么办

cherry studio最大输出3000个tokens。但deep seek r1思考过程很长,往往到3000token就停了,已经在参数那里尝试改成最大8192个最大tokens但还是显示最大3000个。 请问怎么办

4 Likes

我也遇到了同样的问题


把这个关掉,应该可以的

1 Like

这个本来默认就是关掉的

那应该没有限制,是模型本身的限制

如未指定 max_tokens,默认最大输出长度为 4K。请调整 max_tokens 以支持更长的输出。

r1官方说的默认4000,最大8000,所以是不是要设置成8000才行

我已经设置成 8192 还是显示 3000 就断了

根据文档说法:max_tokens 是限制 非思考的输出(不设置 默认是 4096)
目前 CoT 长度(最多32K) 是不受限制的(reasoning_effort 参数还没上线),能截断它的 只有上下文窗口大小(64K)
#上下文窗口 是整个连续对话(历史 + 本次CoT + 本次正常输出)

应该和cherry没关系吧?

那是现在没有解决办法了吗?