看了这个佬友的帖子,用其中提到的这个CoT提示词试了一下。
发现DeepSeek V3和Doubao pro 32k的推理能力得到巨大提升。DeepSeek V3在CoT提示词加持下,可以解出以下帖子里除了1、2两道超高难度之外的所有题目。
不知道DeepSeek的那个R1-Lite是不是也是这样实现的
看了这个佬友的帖子,用其中提到的这个CoT提示词试了一下。
发现DeepSeek V3和Doubao pro 32k的推理能力得到巨大提升。DeepSeek V3在CoT提示词加持下,可以解出以下帖子里除了1、2两道超高难度之外的所有题目。
不知道DeepSeek的那个R1-Lite是不是也是这样实现的
这个提示词是真鸡儿长
上来先用11k token
我就在cherrystudio本地知识库内用了下
这样的话感觉deepseek 思考模式提升也不大
我感觉就是加了CoT之后,v3基本是强化版的R1-Lite?
加了提示词后思考时间长不长,r1 lite思考时间非常长
比r1-lite快多了,应该是v3本身api速度加快的原因
太长了吧
那个CoT的仓库里有俩弱化版,大大减少token用量,但是效果不如这个
这个可能要看场景
他刚发帖我就试了用在知识库上
结果用了提示词,反而答不对
搞不懂。。。
我自己的用例是加了CoT提示词,能够把不对的题目做对
不过每一个用例都会有所不同 加入提示词后 可能变得更好 也有可能变得更差 需要自己探索最佳的使用场景~
大佬现身了,我实测感觉这个CoT使用LobeChat比使用Cherry Studio要聪明不少。在LobeChat里能做对的题到Cherry Studio里一模一样的助手关键词,就做不对了。
确实很长 不过除了会占用上下文长度,成本方面不用太担心:
这个我倒没研究过,可能模型设置不同的温度,以及多次运行结果都会出现些许不同~
有道理,我尝试将cherry studio中的温度设置为和LobeChat中的一致值(1.0),模型表现变好了,但是仍然比不上后者。
豆包这个在哪里搞的呢
火山引擎,去年八月份搞过送token的活动
emmm,那时候不知道这活动,哎