Azure R1已成功部署并连接到New-API上(思维链也成功输出了)

其实在Azure上部署之后,连接到New-API上很简单。

一开始我以为New-API不支持微软的无服务器服务,后面受到佬的启发,直接用OpenAI的渠道就可以,代理和秘钥填终结点网址和秘钥就可以了,模型填DeepSeek-R1,好像填部署名也可以(比如DeepSeek-R1-xxx)。

直接连到CherryStudio上也是可以的,同样是选择OpenAI渠道,填法一样的

至于思维链怎么输出,我试了好几种方法后找到了。诀窍就是在CherryStudio里,不要用默认助手,而是要用一个带提示词设置的助手,比如“:computer: 开发工程师 - Software Engineer”带有提示词,然后CherryStudio就可以输出思维链了!很神奇,目前不清楚为何会这样。

25 Likes

cherry有没有输出呀

3 Likes

Cherry 没有COT输出,其实这个R1部署在Azure的操场里也没有COT输出,怀疑部署本身就是不支持COT输出的。

1 Like

请求下看看格式试试 :tieba_087:

1 Like

更新在主楼了

1 Like

不是不是 :tieba_087:,post一下 :tieba_087:

1 Like


支持的呀

这是什么项目进行对话的佬

就随便创建了个

怎么配置的呀,我 cherry 也不支持

az100能用吗

你怎么配置的?为啥我的不支持捏

cherry从中国直连会不会触发Azure风控。

这用的什么提示词呢(指猫娘)

一般不会的。

不太懂…

https://platform.openai.com/docs/guides/text-generation

这个吗
import os
from azure.ai.inference import ChatCompletionsClient
from azure.ai.inference.models import SystemMessage, UserMessage
from azure.core.credentials import AzureKeyCredential

endpoint = “<ENDPOINT_URL>”
model_name = “DeepSeek-R1”

client = ChatCompletionsClient(
endpoint=endpoint,
credential=AzureKeyCredential(key),
)

response = client.complete(
stream=True,
messages=[
SystemMessage(content=“You are a helpful assistant.”),
UserMessage(content=“I am going to Paris, what should I see?”)
],
max_tokens=2048,
model=model_name
)

for update in response:
if update.choices:
print(update.choices[0].delta.content or “”, end=“”)

client.close()

差不多,但是要看完整返回json :tieba_087:

我找到诀窍了,在CherryStudio里,不要用默认助手,而是要用一个带提示词设置的助手,比如“:computer: 开发工程师 - Software Engineer”带有提示词,然后CherryStudio就可以输出思维链了

1 Like