cherry studio最大输出3000个tokens。但deep seek r1思考过程很长,往往到3000token就停了,已经在参数那里尝试改成最大8192个最大tokens但还是显示最大3000个。 请问怎么办
4 Likes
我也遇到了同样的问题
这个本来默认就是关掉的
那应该没有限制,是模型本身的限制
如未指定
max_tokens
,默认最大输出长度为 4K。请调整max_tokens
以支持更长的输出。
r1官方说的默认4000,最大8000,所以是不是要设置成8000才行
我已经设置成 8192 还是显示 3000 就断了
根据文档说法:max_tokens 是限制 非思考的输出(不设置 默认是 4096)
目前 CoT 长度(最多32K) 是不受限制的(reasoning_effort 参数还没上线),能截断它的 只有上下文窗口大小(64K)
#上下文窗口 是整个连续对话(历史 + 本次CoT + 本次正常输出)
应该和cherry没关系吧?
那是现在没有解决办法了吗?