【推荐】开发了个简化版转发器simple-one-api,来给沉浸式翻译使用

开发能力比较弱,结合gpt4,磕磕巴巴把项目给整出来了!!!
项目地址:GitHub - fruitbars/simple-one-api: OpenAI 接口接入适配,支持千帆大模型平台、讯飞星火大模型、腾讯混元以及MiniMax、Deep-Seek,等兼容OpenAI接口,仅单可执行文件,配置超级简单,一键部署,开箱即用. Seamlessly integrate with OpenAI and compatible APIs using a single executable for quick setup and deployment.

简介

目前市面上免费的使用国产的免费大模型越来越多,one-api对于个人用起来还是有点麻烦,就想要一个不要统计、流量、计费等等的适配程序即可。

还有一点是:即使有些厂商说兼容openai的接口,但是实际上还是存在些许差异的!!!

simple-one-api主要是解决以上2点,旨在兼容多种大模型接口,并统一对外提供 OpenAI 接口。通过该项目,用户可以方便地集成和调用多种大模型,简化了不同平台接口差异带来的复杂性。

免费模型接入

接入沉浸式翻译
参考这篇:在沉浸式翻译中使用simple-one-api

87 个赞

太强了!

牛蛙牛蛙

1 个赞

6 6 6

1 个赞

siliconflow 带佬兼容下这个厂商呗
虽然说兼容,但是实际one-api无法工作,

666666

这几个国内的大语言模型跟deeplx相比咋样?有佬知道的吗?

厉害了

佬强

感觉大模型理解能力更好哎,翻译效果总体更强一些

1 个赞

能加一个cloudflare ai的支持吗?

感谢!

1 个赞

强 学习一下

1 个赞

我看这个是自动兼容openai协议的,因此可以这样配置

{
	"server_port": ":9090",
	"load_balancing": "random",
	"services": {
		"openai": [{
			"models": ["deepseek-ai/deepseek-llm-67b-chat"],
			"enabled": true,
			"credentials": {
				"api_key": "xxx"
			},
			"server_url": "https://api.siliconflow.cn/v1"
		}]
	}
}

是这个接口吗?我来看看,加上问题不大

1 个赞

再看了看文档:OpenAI compatible API endpoints · Cloudflare Workers AI docs

Workers AI 还支持 /v1/chat/completions ,也就是说Workers AI 兼容OpenAI的接口,因此可以直接在simple-one-api中使用。

具体接入说明文档我更新了: Cloudflare_Workers_AI申请使用流程

4 个赞

好诶!Mark!

酷啊~

这不就我们希望的纯净API吗?没有什么多用户啥的,只管用,厉害!
对了可以docker部署吗

已经支持了,文档也做了一波更新, 文档地址:

Docker 启动

以下是如何使用 Docker 部署 simple-one-api 的步骤: 运行 使用以下命令运行 Docker 容器,同时挂载你的配置文件 config.json

docker run -d -p 9090:9090 -v /path/to/config.json:/app/config.json fruitbars/simple-one-api

请确保将 /path/to/config.json 替换为 config.json 文件在你主机上的绝对路径。

查看容器日志 你可以使用以下命令查看容器的日志输出:

docker logs -f <container_id>

其中,<container_id> 是容器的 ID,可以通过 docker ps 命令查看。

3 个赞