现阶段大模型ai并不是真的理解你的指令,而是基于你的描述猜测最大可能性的回复。你可以理解为ai是全屏直觉回复你,而不是用逻辑,除非ai应用了特定逻辑的插件来调用逻辑程序计算
- 大语言模型的计算单位叫token,可以翻译为“词元”。
- 也就是说,模型的输出是一个一个词元地输出。
- 模型在输出的时候,是依靠已有的上文,推断下一个有token是什么。这是一场大型的词语接龙。比如,如果模型此时看到
This is a red
,它会考虑直接输出下一个token为apple
,然后如此循环。 - 因此模型无法统计,也无法理解一句话里有多少个字符。
- 那为什么有时候跟某些模型说“输出1000个字”的时候,总字数比较准?也许是在训练的时候,模型比较擅长在合适的时候插入输出终止符。也就是,“在这里需要需要停下来”的特殊token。
- 一句话里,token到底是怎么划分和计算的?这依赖tokenizer。这是一个示例网站:https://platform.openai.com/tokenizer
你可以把一段话输进入,看看gpt眼中的一句话到底是怎样的。(可以先用英文试试看,中文因为编码的原因可能显示不正常)
gpt好像更可能在API里一次性不间断地输出很长的文字,调整max token即可。在ChatGPT里应该有单次对话的限制,避免给服务器带来太大压力
未来更强大模型有没有可能轻易做到一气呵成的完成长篇构思及输出?
如果要生成长文,我都是先让模型生成大纲,然后在大纲的基础上把文章填充完整。
现在市面上也有很多能够一键长文的工具:
直接面向用户的成熟产品,比如metaso,perplexity pages之类的(基于搜索的长文输出)
还有github上的诸多开源项目也可以做到
如果想自己试着搭建的话,可以试下扣子Coze(国内版或海外版),在上面搭建工作流,也挺好玩的
From #develop:ai to #share