最近被AI检测搞得不胜其烦,如果试用微调过后的大模型还可以被识别出来吗?
通过监督式训练和包含特征的数据集,如某位作家的小说或者某论坛用户的发言习惯来训练一个模型,这样微调后的输出有多大可能被识别出来?
最近被AI检测搞得不胜其烦,如果试用微调过后的大模型还可以被识别出来吗?
通过监督式训练和包含特征的数据集,如某位作家的小说或者某论坛用户的发言习惯来训练一个模型,这样微调后的输出有多大可能被识别出来?
有没有懂的佬来讲讲
贴个之前研究时总结的帖子:
一直都在研究提示词过检测,但是有效的实现起来不容易,没有几个好用的提示词,在检测数据库更新后都会失效
所以开始研究起了微调开源模型,希望能通过微调的方式来改变输出语言习惯从而避免被检测
微调+强化学习后确实可以限制LLM的文风,但具体数据不太清楚。
之前站里不是有人还分享过文字水印的么。。。当时没太仔细看的说
估计还是能检测的,要微调很多才有用
谷歌好像放弃了
创建数据集很难,目前主流用的数据集都是监督式的,要求提问对应回答
但若是想模仿写作风格的数据集就不确定如何创建了
微调怎么可能?除非你用特殊的数据全新的训练。
感觉找论文比问佬友快点
感觉个人想要微调大模型,很难有足够的算力啊
除了个人用用,其他的似乎又不大有这样的需求
微调…不太可能吧w
instruction是你的写作场景的prompt
input是你的问题
output是按照你要求的风格写的文章。
input可以是大模型抽取output构建的问题。
还是会的
之前的想法是用云端计算微调基本上是一次性付费,然后部署在本地电脑上日常推理
找到一篇:
微调的时间、资源成本都较高,而且小模型的创作能力一般般,如果是写作的话,可能效果不会像你想的那样也不一定,当然,微调肯定是好的,但值不值得就另算了,起码现在阶段来看。
个人建议还是首推通用大模型,我长期都使用Gemini,最新推出的2.5更是对抗朱雀检测的利器,简单的提示+高温度创作就可以做到0%AI味了,暂时来说够用。
没什么必要,只要你一直用最新最强的大模型然后稍微调整一下提示词跟温度,自己再多试试压根就测不出来的,最近估计要更新一个新的llama模型,回答相当拟人,等一段时间,你把其他ai生成的文章喂进去,让他重新输出,估计检测直接降到0%,没必要耗时耗力折腾微调
最新的大模型确实一般都很难检测出,但是也有时效性问题,一般数据库更新后就100%了