提示词CoT真的很强

看了这个佬友的帖子,用其中提到的这个CoT提示词试了一下。

Deepseek-V3 + CoT思维链 + RAG知识库!我的AI现在强的可怕

发现DeepSeek V3和Doubao pro 32k的推理能力得到巨大提升。DeepSeek V3在CoT提示词加持下,可以解出以下帖子里除了1、2两道超高难度之外的所有题目。

【长期更新Wiki】语言模型区分题库:主要用来区分语言模型,也能测试逻辑能力

不知道DeepSeek的那个R1-Lite是不是也是这样实现的

10 个赞

这个提示词是真鸡儿长

1 个赞

忘记说doubao pro 32k了,用了同样的CoT之后,豆包也可以解出第4题了

上来先用11k token

我就在cherrystudio本地知识库内用了下

这样的话感觉deepseek 思考模式提升也不大

我感觉就是加了CoT之后,v3基本是强化版的R1-Lite?

加了提示词后思考时间长不长,r1 lite思考时间非常长

比r1-lite快多了,应该是v3本身api速度加快的原因

1 个赞

太长了吧

那个CoT的仓库里有俩弱化版,大大减少token用量,但是效果不如这个

这个可能要看场景
他刚发帖我就试了用在知识库上
结果用了提示词,反而答不对
搞不懂。。。

我自己的用例是加了CoT提示词,能够把不对的题目做对

不过每一个用例都会有所不同 加入提示词后 可能变得更好 也有可能变得更差 需要自己探索最佳的使用场景~

大佬现身了,我实测感觉这个CoT使用LobeChat比使用Cherry Studio要聪明不少。在LobeChat里能做对的题到Cherry Studio里一模一样的助手关键词,就做不对了。

确实很长 不过除了会占用上下文长度,成本方面不用太担心:

这个我倒没研究过,可能模型设置不同的温度,以及多次运行结果都会出现些许不同~

1 个赞

有道理,我尝试将cherry studio中的温度设置为和LobeChat中的一致值(1.0),模型表现变好了,但是仍然比不上后者。

1 个赞

豆包这个在哪里搞的呢

火山引擎,去年八月份搞过送token的活动

emmm,那时候不知道这活动,哎