不开太多帖了,几个想要向各位佬咨询的问题放到一起

多谢大佬们解答
1、我记得o1 preview版本closeai称最好不要用过度的指令性prompt,比如思维链

o1正式版对这方面的设定有变化吗?
2、chatllm这个产品怎么样?某x是铺天盖地的推广,以致于想找点真实用户评价都看不到
再加上使用要先绑卡还不走标准支付平台,总感觉不太靠谱
3、微软copilot前一阵加了个think deeper选项,可能是接入了o1
https://linux.do/t/topic/248594
新版copilot之前口碑一直不好,不知道现在有没有大佬还在坚持用的?
4、azure的模型API跟原厂的API,在使用体感上差异会很大吗

1 个赞

你怎么也是猫猫头

3 个赞

chatllm 是 abacus.ai 的吗?

他不是你失散多年的亲兄弟吗水哥

多谢挽尊,水老师还是个忠厚人啊

对,指的是这个产品

那个字读帅

这不是你失散多年的兄弟吗

又来了一位大水(shuai)哥的分身

直言不讳

我也好奇这个问题,好像az比较好撸?所以不值钱。

但我个人用起来感觉好像没啥区别,该降智还是会降智

所以大家聊了半天好像都没有回答问题
我就先说一下第一个问题
但凡是思考模型,他有自己的思维链 很可能思考类提示词中的思考步骤就会被他放在思考过程里,不会在回答中显现 。或者干脆被忽略, 因为它的原始提示词可能就已经包含了思考类的指令
哪怕是我这种多路径迭代并非思考的提示词也会对o1无效
思考模型足够强的话,就不必要这些提示词了

另外感谢引用

1 个赞

还有第三个问题,copilot我一直有用,毕竟还是免费的DALL-E3
新版整体上非常非常流畅,尤其是回答速度特别特别快,整体体验没有卡顿
未来如果能支持中国用户访问的话, 很可能会成为我的日常助手

1 个赞

好像能支持o1的聚合平台,后端都是用az的吧,似乎定价比官网的便宜?
至少聚合平台的o1都有输出格式问题,latex公式、表格等等都比较混乱,不知道是否与后端来源有关

大佬这个prompt确实效果很好,非常感谢智慧输出

1 个赞

似乎很多人觉得他们新版的copilot降级成4o-mini了,不知道是不是只有订阅才能使用“高级模型”

1 个赞

我挺赞同你的看法的
这个omini比官方正版都快 不也挺好:rofl:

1 个赞