[文档共建]官方免费API大全

厂商 免费模型 Token 限制 请求限制 速度 备注
硅基流动Siliconflow Qwen2.5-7B-Instruct, glm-4-9b-chat, gemma-2-9b-it,… TPM=50K RPM=1000 每个模型单独限速。 有的模型会限制实名可用,有的模型会限制充值余额可用。
智谱Big Model GLM-4V-Flash, GLM-4-Flash - QPS=200 -
书生·浦语InternLM internlm2.5-latest TPM=5K RPM=10 普通 可申请更高流控配置
百度千帆大模型 ERNIE-Speed-AppBuilder, ERNIE-Speed-128K,… TPM=200K RPM=500 很慢 -
腾讯混元大模型 hunyuan-lite - QPS=5 -
讯飞星火大模型 Spark Lite - QPS=2 很慢 -
Google AI Studio gemini-1.5-pro,gemini-exp-1206, gemini-exp-1121, gemini-exp-1114 TPM=[32K, 1M] RPM=2; RPD=50 很快 不带flash的exp模型限制与之前pro相同
Google AI Studio gemini-1.5-flash,gemini-2.0-flash-exp, gemini-2.0-flash-thinking-exp TPM=[32K, 1M] RPM=15; RPD=1500 很快 带flash的exp模型限制与之前flash相同
OpenRouter Llama-3.3-70B-instruct,Gemini 2.0 Flash Thinking Experimental (free),Gemini Flash 2.0 Experimental (free),Gemini Experimental 1206 (free),Gemini Experimental 1121 (free),LearnLM 1.5 Pro Experimental (free),Gemini Experimental 1114 (free),Meta: Llama 3.2 90B Vision Instruct (free),Meta: Llama 3.1 405B Instruct (free)等 - RPM=20; RPD=200 -
Groq Llama-3.3-70B TPM=7K; TPD=500K RPM=30; RPD=7000 很快 限制有很多档位
Cohere command-r-plus, command-r, command - RPM=20; RPMonth=1000 -
GitHub Models GPT-4o, GPT-4o-mini,… 每次请求输入8K,输出4K RPM=[10, 15]; RPD=[50, 150] 普通 -
Hugging Face Qwen2.5-Coder-32B-Instruct, Qwen/Qwen2.5-72B-Instr… - RPD=1000 普通 -
Cerebras Llama-3.3-70B TPM=60K; TPH=1M; TPD=1M RPM=30; RPH=900; RPD=14400 很快 需要申请
glhf llama系,qwen系 480 RPH 480 RPH -
Mistral Mistral-large等 TPM=50w 1 RPS 提供moderation接口
Sambanova Llama3.1~3.3 ,Llama3.3Vision ,Qwen2.5 ,QWQ RPM=10~30 RPM=10~30 很快 Llama3.2 90b vison的RPM=1,小模型30,32B以上20,Llama3.1 405B和QWQ为10
91 个赞

先礼拜一波

deepseek好像也有

我这边是文档共建,要是有你可以补充

1 个赞

收藏一下

蹲守一波


我好像不行耶tieba_087

github models好像现在不用申请了

1 个赞

是 bug 吗,好像确实和别的文档共建不一样,编辑不了:

image

image

这个几年内不会跑路是怎么得出来的啊?

1 个赞

他开始分类不在文档共建里,已修复。

mark

用于沉浸式翻译的,哪个免费的API比较好用

OpenRouter 居然有3年不会跑路?这么牛吗

人工猜测的吧

跑路预测 应该是个人跑路预测吧。

那这种最好不要写,到时候跑路了是不是要负责?

4 个赞

感谢总结!

跑路预测是根据啥来的呀?