deepseek-v3 api 怎么还返回open ai相关的内容

curl -X POST “https://api.deepseek.com/chat/completions
-H “Content-Type: application/json”
-H “Authorization: Bearer sk-xxx”
-d ‘{
“messages”: [
{
“role”: “user”,
“content”: “你是谁 你的模型版本是多少”
}
],
“model”: “deepseek-chat”
}’

3 个赞

兼容了 openai 的格式而已

7 个赞

多调几次 又告诉我 它是 deepseek-v3 助手

2 个赞

我理解的是兼容openai 的格式, 内容也"兼容"openai?

6 个赞

文心4.0 上线的时候 也这样 那时候是纯api转发 套壳

2 个赞

deepseek 回复了, 没说原因

1 个赞

直接转发应该成本很高吧, 估计是用openai 训练了.如果是这样的话, 对消费者倒是无害.我记得openai 因为这事封过字节跳动

1 个赞

大模型互相套词数据训练,屡见不鲜

2 个赞

老生常谈了

正常,这种问题除了 openai 没有,其他一切模型全有,不值得大惊小怪

1 个赞

正常,大模型训练数据没有特意训练他的自我意识,如果系统提示词不指明它自己是谁,大多数模型都会胡说八道

过度增加自我认知数据,会导致模型能力下降,这也是一种平衡吧。模型只要好用,它说它是谁有那么重要吗?tieba_092

难道因为它说它是openai,就影响力它给你回答的问题,带来的便利?tieba_091

开源的模型都会有部分存在这种现象,那些过度纠正的,就是一坨,难用的很。

2 个赞

训练数据里,故意用了openai的合成数据。或者训练数据不小心被openai生成的数据污染了

就像前几天新上线的gemnin也说自己是claude一样

1 个赞

官网也是这样 :face_exhaling:

可能所有模型都这样吧。可能没有这个问题的模型对这个问题微调过了
即使没有用其他的模型生成数据用于训练,单是互联网上的资料里这个问题就全是openai了

我的理解是用了openai来训练了,就像之前的字节,不然真用几百块gpu就能这个水平,吗? :smiling_face_with_tear:

不过他是公开了模型和论文的

1 个赞