今天看到了这个讨论
我提出我的一个发现。
使用网页R12api在本地聊天 保持思维链输出,聊2~3轮之后切换Gemini1206, 在无需额外提示词的介入情况下,1206可以通过自我反思,自我验证等手段提升输出质量,个人感觉有明显提高(我在做小说推理和文字润色)。
今天看到了这个讨论
我提出我的一个发现。
使用网页R12api在本地聊天 保持思维链输出,聊2~3轮之后切换Gemini1206, 在无需额外提示词的介入情况下,1206可以通过自我反思,自我验证等手段提升输出质量,个人感觉有明显提高(我在做小说推理和文字润色)。
相当于给Gemini1206提交了上下文R1思维链输出,达到了提升输出质量的效果?
强啊,等一下去试试
本质上就是 few shot
你甚至可以提前生成一些很长的general example
直接丢给 gemini
甚至都不需要每次对话了
唯一的问题还是上下文长度 上千的prompt确实…
不如直接R1了就
R1在文字风格保持方面有待提高,当然,不妨碍他是我的SOTA
而且一个场景写不长,写着写着就强行切换场景
没法 cot 抽风也不是一天两天了
gemini 风格也抽象的 虽然保持还行 但保持的是一种很奇怪的列表式回答
纠正起来也麻烦
嗯,就是这样
可以的,相当于利用了deepseek的能力,给其他模型赋能了,如果能探索出高仿deepseek思考的prompt,就更加方便了
挺详细的思考过程,赞
同样的道理 聊天中也可以切换其他支持CoT的模型 只要上下文在
哇,强呀!
可能是谷歌吹过的少样本学习?