deepseek-v3 是chatgpt?

应该是训练的时候 套了很多 GPT 的回答

日经问题了 就你这个帖子的相关帖就一堆

正常的 都是抄来抄去

这个问题其实有点不专业。因为大模型输出文本的能力本质是语料堆积下的token预测能力,本质上预测的结果跟语料特别相关,实际上早期的ChatGPT部分中文回答还会说自己是文心一言。

我想表达的是这个问题意义不是很大,无论是OpenAI、Google、DeepSeek还是Anthropic,它们的模型回答的内容说自己是别的模型都很正常,大部分的厂商应对这种问题的方案都是在模型的SystemPrompt中加入自己的身份说明,例如ChatGPT可能是:“你是ChatGPT,由OpenAI训练的…”。

但是由于本质上sampling的过程是一个概率事件,即使加入了这个上下文,也有可能sampling到一个其他的token,所以这个问题本身不具备什么意义。

同样,诸如“9.11和9.8谁更大“,“strawberry有几个r”等容易引发模型出现数字幻觉或简单事实错误 的问题,也缺乏实际参考价值。这类问题本质上是测试模型在特定边缘情况下的表现,而非其核心能力

貌似在chatgpt里面搞一个自己的GPT然后设定角色为deepseek,在加上语料库训练在进行反代就能搞出deepseek,而且效果确实能做到deepseek的结果

closeai确实会对账号进行降智,但是我发现那些被降智了的账号他的GPT是没有被降智的,这样的话,搞一个deepseek出来而且成本低确实是可以实现的,尤其是那些美国原生家庭ip是不会被封号的,就算你使用次数很多也不会被封,这样就可以做到成本很低

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。