Dean
(X)
1
GitHub:coze-discord-proxy
- 完美适配
NextChat
,one-api
,LobeChat
等对话面板。
- 完美支持对话隔离。
- 对话接口支持流式返回。
- 支持创建
discord
分类/频道/线程。
- 支持和
openai
对齐的对话接口(v1/chat/completions
)(也支持dall-e-3
文生图)(支持指定discord-channel
)。
- 支持和
openai
对齐的图/文件生文接口(v1/chat/completions
)(按照GPT4V
图/文件生文接口的请求格式 [ 支持url
或base64
])(支持指定discord-channel
)。
- 支持和
openai
对齐的dall-e-3
文生图接口(v1/images/generations
)。
- 支持每日
24
点定时任务自动活跃机器人。
- 支持配置多discord用户
Authorization
作请求负载均衡(目前每个discord用户调用coze-bot在24h内有次数上限,可配置多用户来实现叠加请求次数及请求负载均衡)。
- 支持配置多coze机器人作响应负载均衡 。
239 个赞
Bee
(( ⩌ ˰ ⩌))
8
路过支持
偶尔他的回答刚好不提出建议的话,非流式还是会卡住的,只能自己设置超时(但如此就会完全没有内容返回了)
不知道能不能做成多少间隔没有新内容时,非流式就回传当前收到的内容,这样可以降低非流式无响应的几率
9 个赞
Dean
(X)
11
已经在计划中了 这几天在想有没有更好一点的解决方案 
8 个赞
Bee
(( ⩌ ˰ ⩌))
14
给你解释下这里的乐趣,coze不开放api 但是开放绑定机器人,
于是就有这样一个思路:
1、我们先给他绑定机器人,这时候如果discord有人@他他就会回复。
2、我们再造一个机器人,并且接到我们程序里
3、我们用机器人来@机器人,接收他的回复,再丢回我们程序里处理
就是让两个机器人当仲介,一个对coze一个对使用者
16 个赞
Bee
(( ⩌ ˰ ⩌))
15
困难的就是如果太短了造不成图…太长了等文字回传等太久…如果是暂时方案,多个header参数让使用者决定等多久不知道如何。
因为请求端设定超时的话,只能根据开始请求来计时且无回应文字(如果回复长文有可能误杀),而如果是服务端里面的超时,可以根据没有新data来超时,且已经产的文也能回传
go我涉略尚浅,暂时帮不上忙
8 个赞
Dean
(X)
16
目前估计也就只能这样了 两个超时参数 中间有一次流响应超时直接切段流,非流响应超时直接返回空 虽然也不太优雅
8 个赞
哈哈,我就是这么玩的,用另一个机器人传输捕获coze机器人的消息,走微信中间件到微信用
8 个赞