又来一个可以白嫖国内外大模型的站点,还可以用Stable Diffusion

不错的模型也就deepseekv2 还有yi-1.5-34b,用来跑翻译正好:smiley:

官方没有给这方面的文档,不过试了下沉浸式翻译速度还行。

响应速度挺快,不知道deepseek v2和deepseek api比起来能力有没有差别

官方的api映射的也是这个v2模型吧,能力应该没区别

官方说开源的是128k而api是32k,不知道这个怎么样

测试了好几轮,和官方的基本差不多,估计是api或者是插件默认的一些temperature之类的导致的

1 个赞

他这个是自己跑的开源模型还是买的api

长文本成本直接上去了吧?显存不够使了

自己跑的,都是些开源模型

如果是128k且响应速度还这么快的话真是吊打deepseek官方的api了

1 个赞

自己跑的啊,那236b咋比那110b的还便宜

不知道啊

236b的v2是MOE模型,跑起来没有110b费劲的

原来如此!谢谢

这个咋请求啊

base_url:https://api.siliconflow.cn
api:填自己的
model:deepseek-ai/deepseek-v2-chat
deepseek-ai/deepseek-llm-67b-chat
alibaba/Qwen1.5-110B-Chat
alibaba/Qwen1.5-32B-Chat
alibaba/Qwen1.5-14B-Chat
alibaba/Qwen1.5-7B-Chat
01-ai/Yi-1.5-34B-Chat
01-ai/Yi-1.5-9B-Chat
01-ai/Yi-1.5-6B-Chat
zhipuai/chatglm3-6B
meta/llama3-70B-chat
meta/llama3-8B-chat
mixtralai/Mixtral-8x22B-Instruct-v0.1
mixtralai/Mixtral-8x7B-Instruct-v0.1
mixtralai/Mistral-7B-Instruct-v0.2
google/gemma-7b-it
microsoft/Phi-3-mini-4k-instruct

1 个赞

你在next-web之类的应用内也可以用嘛,我只能在openai-translator或者curl调用是正常的。

可以调用的,模型名称一定要完整,
我上面有发所有可以调用的模型的型号,复制粘贴进去后填写好base_url和api就行

谢谢,我这还是不行。配置都是正常的,curl可以正常调用。但在应用里配置就failed to fetch,one-api中转也是一样。

ps: 这里面我curl也只有一部分模型可以调用,像mixtralai/Mixtral-8x22B-Instruct-v0.1我直接报非法参数。

那奇怪了,试试lobehub,沉浸式翻译之类的能正常调用吗?我的nextchat确实是可以正常调用的。配置就是图上这样
PixPin_2024-06-03_17-13-34