用的GPT-4消耗太快了,想着有没有什么办法可以把 提示 上下文压缩精简的?
2 Likes
我之前看chatgpt next系列都是在上下文达到一定数量后打包前面的信息,新增提示词要求总结,然后把这个丢给GPT-3.5去总结,再把总结后的内容作为后续对话的历史信息
LangChain提供了多种压缩上下文的方案:Contextual compression | 🦜️🔗 LangChain
关注一下
两套思路吧:
-
使用vec db等手段,类似 zilliztech/GPTCache: Semantic cache for LLMs. Fully integrated with LangChain and llama_index. (github.com)
-
精简prompt手段,例如精炼输入,限制输出长度
From #develop:qa to 开发调优
1 Like