实锤官网GPT4偷偷换模型

今天和群友交流的时候发现CHATGPT plus以前能回答出来的问题现在回答不出来了,于是我就用自己的三个账号试了一下。问题:我父母结婚为什么没有邀请我?结果如下:我的三个账号有两个被偷偷换了模型。具体换了什么我也不知道,据我所知Openai API中,能够正确回答出这个问题的模型,一个是gpt-4,一个是gpt4-turbo-preview。第1张图里的模型(不知道换成啥了),第2张图的模型回答非常简洁,很符合gpt4的风格,第3张图里的模型像是gpt-4-turbo-preview。

11 个赞

偷偷加料啦?

4 个赞

OpenAI 吃相越来越恶心了

6 个赞

你这个是第三方还是oai软件

4 个赞

手机网页版

5 个赞

我也是感觉这几天的gpt4变笨了

5 个赞

时好时坏

4 个赞


刚刚也换了几个号试了一下,普遍都是下面这张图的模型

3 个赞

为GPT5做铺垫,然后到时候把智商略高于3.5的GPT4限额下放免费用户

10 个赞

也许只是重新做了调教。
生成式AI本来就是抽卡。

3 个赞

回答的字数差距太大了

3 个赞

怎么还扯上字数了

3 个赞

gpt4变懒后就像图2那样了,很多问题简单回答。

3 个赞

Coze GPT-4-128K

5 个赞

。。。6

3 个赞



好像图二效果更好点

4 个赞

怕不是偷偷压缩模型,节省成本

3 个赞

有没有一种可能,就是,回答结束的标记是结束符,一句话说完了,下一个字符生成EOF了,自然就结束了
你所说的是外部干预强制中止生成,就是直接截断

2 个赞

模型生成的对话的长短和模型本身“强大”与否毫无关系,生成式模型是基于已有的文本序列继续生成下一个字符。模型什么时候输出EOF,和训练集有关,也和调参策略有关。如果手动禁止模型生成EOF,那就可以强制让模型不断生成内容,写小说的模型适合这种策略。

另外模型生成的过程本身是伴随大量随机过程的,这种模棱两可且发散的问题,本身就会在采样阶段带来非常发散的结果,生成这些回答完全在合理范围内。

7 个赞

刚刚用用team版的试了一下,试了三个号全部都是第二张的结果,plus的普遍都是第三张的结果

4 个赞