我一直有个关于GPT对字数理解的疑问

有时候用gpt写文章,跟他说要写2000字,通常会写很少,即便我指令跟他说了是2000个汉字左右,他也执行不好,这个问题怎么产生的?有办法破解吗?让他写的篇幅跟要求基本相符

6 个赞

本身输出有限制吧

5 个赞

不是,完全有能力做到输出这么多字,有时候就直接写少。有的时候还写多,特别不稳定。感觉字数这方面没办法用指令精确控制

5 个赞

我想写500字,就叫它写1000字的文章出来:smiling_face:

6 个赞

你都是这样操作的?

5 个赞

有的时候确实会抽风…这时候就建议开新会话了

5 个赞

确实对字数的控制很不好,不过不是GPT4自己的问题,是大家都有这个问题

5 个赞

这应该和这类模型的原理有关

3 个赞

gpt只是根据上下文去找可能性最高的输出,它其实并不理解什么是 2000

3 个赞

一个比较靠谱的控制长度的做法是要求模型输出 XX 句。算是模糊的控制,但还是比较有效果的。

这个方法我是从 https://learn.deeplearning.ai/courses/chatgpt-prompt-eng/lesson/3/iterative 这里看到的。

如果对原理感兴趣,可看一下大模型的 token 是什么。有大量的视频讲解这些。

3 个赞

基本上不会连续2000字,即使有,也比较水,一般要逐步给提示。

1 个赞

可以换成10断,200句话

1 个赞

2000字离谱了,我让他500字-1000字挺正常的

1 个赞

:+1:学到了

不像ChatGPT在字数上经常抽风,我之前发现文心一言对字数的把握相当准,3.5的,1500字以内,基本都能达到要求
如果对于字数要求比较严格可以试试文心一言

好的,谢谢!是不是国产那些都要好一些?什么智某,某螺,某暗面啥的?

可以先让gpt写个大纲,再让它根据每个主题进行扩写

我试过,但字数还是控制的不很精确。其实我以前曾经觉得厉害的AI可以一气呵成写完通篇,只要一次的token量够。不知道为什么要拆分去写。

这个问题我之前测了一下,基本上在各家(gpt,claude,文心,通义,混元,kimi)最便宜的模型里面,只有claude3-haiku,moonshot-8k能够比较好的响应超过1000字的字数限制,其它基本上要求1500字能够输出800到1000字就算不错,不过在各家顶级模型上面还是响应的比较好了。
如果在prompt中,细化规定必须要几段,每段几百字,这种会好一些。

猜测可能受到了百度上“小编为您整理xx字文章”的污染:joy:
因为用英文提示词让它写准确度比中文高不少