不过不知道扔的东西太多太杂,是不是回答不专一没有针对性
腾讯最近的ima主打就是个人知识库,丢的东西太广泛肯定效果不行
有知识库一下就可以处理超级长文了,甚至超过gemini2.5
无论如何,360公司出的东西都要慎用。
知识库一般都是RAG,向量搜索的效果肯定是不如长上下文的。
啥意思?这种数据库的形式没有直接喂文的效果好?
豆包有ai云盘功能,然后可以用"/"指示符,选择多个文件提问。不过还是cherry studio的本地知识库最好用,可以直接选特定的知识库提问,并且不像腾讯ima那样有容量限制
效果差很多的,可以让deepseek给你介绍一下RAG构建知识库的原理。这个机制的核心是基于语义的向量搜索,最后大模型会参考搜出的前几个片段内容,写一个答案。但这肯定就不如全文都在上下文中效果好
嗯,还是有选择性的好。LM 跟cherry是一回事吗
还真没用过LM。cherrystudio应该是现在最好的AI客户端了吧,GitHub - CherryHQ/cherry-studio: 🍒 Cherry Studio is a desktop client that supports for multiple LLM providers. Support deepseek-r1
好,我也试试!主要作用就是可以自定义api接口和key是吧
可惜就是只能电脑用,不能跨平台
对的,cherrystudio功能完善,设置方便,能够导出聊天记录,支持知识库和自定义智能体,按我看是目前最好用的AI客户端了
向量搜索真的不太行
一是速度慢
二是內容關聯不到
啥叫向量啊
就是知識庫,原理是將文件轉化為向量的關係,在需要時進行關聯搜索,這個目前能力比大模型本身差的。只是方便你提供超級長的上下文
也就是能直接喂就直接喂,实在吃不下,才往库里存?库里存的方式效率比较低?
差不多這個意思,而且一股腦丟進去也不行,你的知識庫寧願少量高質也不能大量低質。不然就會出現搜不到,或者出來的東西不準確的情況
所以有dify這種知識庫工作流,一方面要構建好優質的知識庫,再透過多輪的(LLM<->知識庫)交互,來取得更優解答
所以不能天文地理哲学一起往里装是吧
是的,就想像成兩個是分開的系統, LLM一個桶,RAG一個桶。
哪一邊有短板,出來結果都不行。
天南地北的東西放一起,不就是deep reserach。很多公司都意識到這點有用戶需求,就做成deep reserach了