将Github Models添加到one-api等分发平台

直接自定义吧,方便点

https://models.inference.ai.azure.com/chat/completions#
加#号就行,oneapi可以的

4 个赞

又在瞎扯淡了,只有GPT 系列会因为路径问题报404,其他系列没影响(Oneapi中)

这个方法确实可以修复GPT系列404的问题,不过其他模型本身就没影响

2 个赞

这也没瞎扯蛋吧 说的就是GPT而已

经佬友测试, 直接用如下自定义即可。 话题终结
https://models.inference.ai.azure.com/chat/completions#

16 个赞

实测可以,大佬你太牛了

看看而依,动手能力不够 ~~~

感谢分享,实测4o和4omini响应都是0.7秒左右

3 个赞

embeddings text-embedding-3-small这种可以?

1 个赞

免费额度只有 50 条每条啊!!

成功添加到oneapi了

我测试了好象不行,只有4o和mini可以

gpt-4o 和 gpt-mini 通过在 URL 后加 # 的方式在 NewAPI 成功接入了,就是 text-embedding-3-small 等 embedding 模型用不了,所以我还是用了反向代理的方式给 Open WebUI 接入跑通了语义向量部分:

location /v1/embeddings {
    proxy_pass https://models.inference.ai.azure.com/embeddings;
    proxy_set_header Host models.inference.ai.azure.com;
    proxy_set_header X-Real-IP $remote_addr;
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header X-Forwarded-Proto $scheme;

    # Optional: If you need to handle SSL certificates, add the following lines
    proxy_ssl_server_name on;
    proxy_ssl_protocols TLSv1.2 TLSv1.3;
    proxy_ssl_verify off; # This is not recommended for production, use proper SSL verification instead
}
1 个赞