curl -X POST “https://api.deepseek.com/chat/completions”
-H “Content-Type: application/json”
-H “Authorization: Bearer sk-xxx”
-d ‘{
“messages”: [
{
“role”: “user”,
“content”: “你是谁 你的模型版本是多少”
}
],
“model”: “deepseek-chat”
}’
3 个赞
兼容了 openai 的格式而已
7 个赞
多调几次 又告诉我 它是 deepseek-v3 助手
2 个赞
文心4.0 上线的时候 也这样 那时候是纯api转发 套壳
2 个赞
直接转发应该成本很高吧, 估计是用openai 训练了.如果是这样的话, 对消费者倒是无害.我记得openai 因为这事封过字节跳动
1 个赞
大模型互相套词数据训练,屡见不鲜
2 个赞
老生常谈了
正常,这种问题除了 openai 没有,其他一切模型全有,不值得大惊小怪
1 个赞
正常,大模型训练数据没有特意训练他的自我意识,如果系统提示词不指明它自己是谁,大多数模型都会胡说八道
过度增加自我认知数据,会导致模型能力下降,这也是一种平衡吧。模型只要好用,它说它是谁有那么重要吗?
难道因为它说它是openai,就影响力它给你回答的问题,带来的便利?
开源的模型都会有部分存在这种现象,那些过度纠正的,就是一坨,难用的很。
2 个赞
训练数据里,故意用了openai的合成数据。或者训练数据不小心被openai生成的数据污染了
就像前几天新上线的gemnin也说自己是claude一样
1 个赞
可能所有模型都这样吧。可能没有这个问题的模型对这个问题微调过了
即使没有用其他的模型生成数据用于训练,单是互联网上的资料里这个问题就全是openai了
我的理解是用了openai来训练了,就像之前的字节,不然真用几百块gpu就能这个水平,吗?
不过他是公开了模型和论文的
1 个赞