简而言之,就是让模型直接帮你发送 POST 请求。配置在这个贴:
用 Stable Diffusion 3.5 Large 是为了蹭新模型流量,实际上你可以直接修改 Prompt 的参数,例如我直接将 model 改成了 FLUX.1:
不支持的参数会自动忽略,插件没有的 prompt 参数大模型会帮你整合进请求里,具体使用方法看原帖,很简单。模型与参数自行去硅基流动官网对,以上。
简而言之,就是让模型直接帮你发送 POST 请求。配置在这个贴:
用 Stable Diffusion 3.5 Large 是为了蹭新模型流量,实际上你可以直接修改 Prompt 的参数,例如我直接将 model 改成了 FLUX.1:
不支持的参数会自动忽略,插件没有的 prompt 参数大模型会帮你整合进请求里,具体使用方法看原帖,很简单。模型与参数自行去硅基流动官网对,以上。
感谢大佬分享!
感谢分享大佬厉害
看来论坛佬都转去用功能更全面的 Lob 和 OpenWebUI 了。。吾等老鸡用户还在坚守轻量版的 NextChat 了。
感谢大佬分享!
啊,这个是这个模型本身不支持 Function Calling,你换 DeepSeek 就行,Qwen 我记得 72B 都不支持 FC。
感谢大佬的教程
好的好的,谢谢大佬,我再测试一下。
感谢佬的分享
我是直接下载的win版本,在电脑上安装没找到这个开启调用插件的按键,大佬是不是本地安装的程序,没有这个功能啊。
调用了插件会多一个这个调用过程,2.15.0 之前版本的 NextChat 还没有这个功能不清楚你的是什么版本的,帖子那个 https://15.cn-gpt.wiki 有你可以先试试再更新新版客户端。
我知道咋回事了,我下载2.15.5版本就有调用插件这个按钮了,我晕了,感谢大佬指导。太感谢了 。
先出 URL → 客户端再次请求 URL 资源 → 加载完成变成最终显示效果。
框架已搭好,你可以直接改对话里的 prompt,比如 model 改成
Pro/black-forest-labs/FLUX.1-schnell
这个是快速出图的只要 3 秒左右一张。