我在网页端用O3做测试题思考几秒就出结果了,答案全是错的,画图功能也是稀碎。(人物画的跟鬼一样,角色面部全崩)
但是在手机上APP一点问题没有,O3可以思考很久,答案也是对的,画图也ok。
———————————————————————————————————————————
在公司和在自己家的网页端都一样降智,(挂的都是同一个节点来着)
我在网页端用O3做测试题思考几秒就出结果了,答案全是错的,画图功能也是稀碎。(人物画的跟鬼一样,角色面部全崩)
但是在手机上APP一点问题没有,O3可以思考很久,答案也是对的,画图也ok。
———————————————————————————————————————————
在公司和在自己家的网页端都一样降智,(挂的都是同一个节点来着)
~~本来就不是同一个通道……
这样嘛,这个我倒是不了解…
一般不都是 app端智能吗
我在公司都是用网页端的 ,老捧着手机也不是个事
现在公司为了防止泄密,都自己买api鼓励员工自己用了
接口是不一样的,网页端走的 chatgpt.com(新版),iOS 和 macOS App 走的 ios.chat.openai.com,Android App 走的 android.chat.openai.com(历史遗留问题)
手机端 App 出的时候 ChatGPT 还没迁移到新网址(那个时候 ChatGPT 还在 chat.openai.com 上面),macOS App 为什么跟 iOS App 共用接口我猜 OpenAI 工程师们搞 ChatGPT App 时候偷懒,直接在 iOS App 基础上改几下,这也就好解释为什么 ChatGPT macOS 版只有 Apple Silicon 版本了
防泄密?本地部署 DeepSeek 了解一下()
确实有用本地deepseek的
目前我试过能在我电脑上跑的最强的模型可能就是 DeepSeek R1 0528 Qwen3 8B(woc 这名字好长,简称 R1 0528 8B 吧)
跑分上很行,实测大多数情况也算 OK,奈何 R1 0528 8B 的 Q4 版本(Ollama)也就压着我电脑的性能极限打,MacBook Air 无风扇的痛点 (16GB 内存跑小模型还算勉强行)
大公司有服务器跑全量的