在网页里可以用小艺了,速度最快的R1

华为的chat终于可以在网页里用小艺了

网址:

提示:
需要登录华为账号,不喜勿点(测试了一下,不登录也可以用)

感受:
接入了R1,是不是满血版自己测试
提供了一个新的自动深度思考模式,可以自动判断需不需做深度推理
速度快,目前接入R1里速度最快的,很稳定
疑似可以借用华为的多模态能力实现R1的多模态,还没深入测试

欢迎各位补充!

21 Likes

感谢分享

备用个 :grin:

1 Like

感谢分享

能用好几天了

速度最快吗

1 Like

你在怀疑华为的实力? :rofl:

上次用感觉不怎么好,我在试一下

1 Like

等待备用

华为云买了个服务器,每个月固定打电话问你有没有其他需要,快到期天天轰炸,希望用ai别这样(

感谢分享,这个帖子分享出来请求就上去了。

2 Likes

嘿嘿!good

3 Likes

哇!立刻使用

用了佬友提供的题目测试

https://linux.do/t/topic/420398

思考的答案正确,但是输出时截断吞字了

1 Like

这种三方的大多数都是限制了token的

我之前试过腾讯元宝和问小白,正常输出出来了,不知道这两个平台限制多大的token

元宝的确实不错

哈哈哈,没用过华为的,用阿里云的服务器和oss,给我打电话怕oss当网盘用了,挺亲切

字节火山也挺好用的

不用登陆的ai 天工ai比它快(做题) :grimacing: