在多轮对话中发现Gemini1206模拟R1思维链的情况

今天看到了这个讨论

我提出我的一个发现。

使用网页R12api在本地聊天 保持思维链输出,聊2~3轮之后切换Gemini1206, 在无需额外提示词的介入情况下,1206可以通过自我反思,自我验证等手段提升输出质量,个人感觉有明显提高(我在做小说推理和文字润色)。

3 个赞

相当于给Gemini1206提交了上下文R1思维链输出,达到了提升输出质量的效果?

强啊,等一下去试试

本质上就是 few shot
你甚至可以提前生成一些很长的general example
直接丢给 gemini
甚至都不需要每次对话了
唯一的问题还是上下文长度 上千的prompt确实…
不如直接R1了就

R1在文字风格保持方面有待提高,当然,不妨碍他是我的SOTA

而且一个场景写不长,写着写着就强行切换场景 :joy:

没法 cot 抽风也不是一天两天了
gemini 风格也抽象的 虽然保持还行 但保持的是一种很奇怪的列表式回答
纠正起来也麻烦

嗯,就是这样

一个案例

可以的,相当于利用了deepseek的能力,给其他模型赋能了,如果能探索出高仿deepseek思考的prompt,就更加方便了

1 个赞

挺详细的思考过程,赞

同样的道理 聊天中也可以切换其他支持CoT的模型 只要上下文在

哇,强呀!

可能是谷歌吹过的少样本学习?