各位佬友救救孩子吧
我用的render作为服务器来部署的oneapi,然后用vercel来进行反代,现在遇到了一个问题,只要这次对话响应时间过长,就会报错
我的oneapi日志是有输出的
目前根本就解决不了这个思考模型如果响应时间长了怎么办的问题,o3mini是有流式,但是不知道为什么openwebui里面使用的时候流不出来。o1是非流的,用不了就。
不知道有没有佬友也是vercel来反代的,有没有也遇到过类似的问题
各位佬友救救孩子吧
我用的render作为服务器来部署的oneapi,然后用vercel来进行反代,现在遇到了一个问题,只要这次对话响应时间过长,就会报错
目前根本就解决不了这个思考模型如果响应时间长了怎么办的问题,o3mini是有流式,但是不知道为什么openwebui里面使用的时候流不出来。o1是非流的,用不了就。
不知道有没有佬友也是vercel来反代的,有没有也遇到过类似的问题
vercel最长10秒的响应时长吧
vercel 60秒,你问一下gpt怎么调长一点吧
我调成了60,但是也基本,emmmmmm,就是想知道有没有解决方案啥的
cf好像挺长的时间,但是吧,serverless注定是短时间的,上vps吧。render现在是被墙了还是怎么样,为什么还要反代
托管在 cloudflare 的域名,cloudflare 免费账号最长就100秒。