openrouter的 deepseek一直有点问题,属于严重被低估。
先说免费,我一直用老版本的v3,max tokens上限太少了,新版v3.1可能会好一些。主要提供商是chutes,用的是web3分布式计算,返回经常被截断,导致无法用在代码工具上。(页面上的max tokens显示很大,但是分布式你懂的,每个节点都不统一)
付费也有问题,优先是deepseek官网供应商,max tokens也低到离谱,速度又慢。拉低了整个供应商平均水平。
感觉openrouter这个排行榜,主要还是针对代码辅助编辑工具。刚好deekseep没能卡进去,可惜了。
不能。不过很多用OpenRouter的都是为了用Cline/Roo Code,我认为这里面应该有非常多的中国用户,推测理由是同样的工具Cursor大概有三成中国ip用户(所以你懂的,实际上还有一些非大陆地区用户也是大陆人在用)
这就戾气了 ???
这贴怪怪的。
针对代码编辑这个对的,很多人都是用Cline。
另外OpenRouter对DeepSeek不太上心我觉得这个可能也是真的,但是我个人觉得,更多还是因为需求不太行(它毕竟就一中转商,如果大家真的非常喜欢,没道理和钱过不去,毕竟它收手续费的),OpenRouter好像连Azure的DeepSeek都没有上,Azure的DeepSeek应该质量好很多
这种中转商对于企业是一种绕不过去的障碍
速度慢,效果差,配套不足,不支持多模态,上下文小,输出墨迹,输出token量少
难以想象有人不做出入参校验
说到生产环境,我提供一些视角
国内生产环境(狭义上的),不允许使用国外模型。那么可以选择的就很少了。这也是deepseek那么出圈的原因。
我在国内互联网大公司,一般生产环境项目会被要求用自己公司的模型。剩下的选择deepseek的就比较多了,选择qwen的反而比较少,有竞争关系(非AI领域)。
R1是幻觉严重,但国内也没其它选择了,看你怎么用了,实际会多个模型,不是单一的就R1
R1慢 V3 qwen就能解决大部分问题了
回复太慢了,只适合问问题,指令遵循其实不错的,json格式输出也很好,我处理一条要20秒,flash只需要5秒
v3-0324是我一般性任务和翻译用的默认模型. 在你不需要那么特别强的性能又不想用一个弱智模型的时候, 上0324刚刚好. 这样看下来r1才是尴尬的那一个, 幻觉高用起来心惊胆战, 创意和智商又没有比竞品高出多少. 思考模型天生延迟还大…r2你什么时候出来啊
当然现在有新的grok3-mini-beta, 有gpt4.1, 都在打这个"甜品模型"的区间. 但是我其实不太担心, 我是不相信grok3和gpt4.1这个价格是没补贴的, 最后还是会发现有一个虽然不是sota, 但是大致算一流的开源模型就够覆盖日常80%需求了
v3新版本幻觉更高
其他服务商的deepseek算在里面吗?
比如阿里,火山等等也有deepseek模型
官网的太慢了,我现在放弃..我都是用第三方的 日常用