【开源】coze-discord-proxy-白嫖GPT4-128k【完美适配NextChat、One-Api等】

GitHub:coze-discord-proxy

  • 完美适配NextChat,one-api,LobeChat等对话面板。
  • 完美支持对话隔离。
  • 对话接口支持流式返回。
  • 支持创建 discord分类/频道/线程。
  • 支持和openai对齐的对话接口(v1/chat/completions)(也支持dall-e-3文生图)(支持指定discord-channel)。
  • 支持和openai对齐的图/文件生文接口(v1/chat/completions)(按照GPT4V图/文件生文接口的请求格式 [ 支持urlbase64 ])(支持指定discord-channel)。
  • 支持和openai对齐的dall-e-3文生图接口(v1/images/generations)。
  • 支持每日24点定时任务自动活跃机器人。
  • 支持配置多用户Authorization负载。
  • 支持配置多机器人负载 (通过PROXY_SECRET/model指定) 。
66 Likes

常规话题软件分享

啊?

1 Like

啊?试试试试

1 Like

人在外面,你们先用,对技术以及开源送上点赞

2 Likes

快试试!

1 Like

谢谢支持!

1 Like

路过支持

偶尔他的回答刚好不提出建议的话,非流式还是会卡住的,只能自己设置超时(但如此就会完全没有内容返回了)

不知道能不能做成多少间隔没有新内容时,非流式就回传当前收到的内容,这样可以降低非流式无响应的几率

请问COZE是真GPT4吗?用起来感觉不是很爽快

看不懂啊,到底什么样的大佬才配玩这个论坛

1 Like

已经在计划中了 这几天在想有没有更好一点的解决方案 :smiling_face_with_tear:

真的假的不知道 但是写着是128k 挺唬人的

我也是菜鸡罢了

给你解释下这里的乐趣,coze不开放api 但是开放绑定机器人,
于是就有这样一个思路:

1、我们先给他绑定机器人,这时候如果discord有人@他他就会回复。

2、我们再造一个机器人,并且接到我们程序里

3、我们用机器人来@机器人,接收他的回复,再丢回我们程序里处理

就是让两个机器人当仲介,一个对coze一个对使用者

3 Likes

困难的就是如果太短了造不成图…太长了等文字回传等太久…如果是暂时方案,多个header参数让使用者决定等多久不知道如何。
因为请求端设定超时的话,只能根据开始请求来计时且无回应文字(如果回复长文有可能误杀),而如果是服务端里面的超时,可以根据没有新data来超时,且已经产的文也能回传

go我涉略尚浅,暂时帮不上忙:sob:

目前估计也就只能这样了 两个超时参数 中间有一次流响应超时直接切段流,非流响应超时直接返回空 虽然也不太优雅

1 Like

有意思

哈哈,我就是这么玩的,用另一个机器人传输捕获coze机器人的消息,走微信中间件到微信用

:+1: :+1:

体验体验