试用了一下,是满血版,比字节吐字还快,支持64K上下文长度,最大支持8K输出长度。单账号限制接口并发上限为5,有需要可以看一下
指路:https://console.cloud.tencent.com/lkeap
省流:base_url:https://api.lkeap.cloud.tencent.com/v1
试用了一下,是满血版,比字节吐字还快,支持64K上下文长度,最大支持8K输出长度。单账号限制接口并发上限为5,有需要可以看一下
指路:https://console.cloud.tencent.com/lkeap
省流:base_url:https://api.lkeap.cloud.tencent.com/v1
待会看看
感谢分享。
灵魂三问:
满血吗?
速度快吗?
8192吗?
我来试试
感谢分享
谢谢热佬
还挺快的
好用吗?
我看的是32b版本的
太感谢了,亲测好用
实测还挺快的,但是输出token有效,输出不完整
试了下,确实不错,感谢推荐
说明:
本接口调用 DeepSeek 系列模型限时免费。
即日至北京时间2025年2月25日23:59:59,所有腾讯云用户均可享受 DeepSeek-V3、DeepSeek-R1 模型限时免费服务,单账号限制接口并发上限为5。在此之后,模型价格将恢复至原价。
DeepSeek-R1(model 参数值为 deepseek-r1)
DeepSeek-R1 为671B模型,使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字。 该系列模型在数学、代码以及各种复杂逻辑推理任务上推理效果优异,并为用户展现了完整的思考过程。
支持64K上下文长度,最大支持8K输出长度。
8k输出。。。
api就时不能联网的
用上了,确实是快点了,其他的都显得很迟滞,谢谢分享
8k输出有什么问题吗