GitHub copilot打破了我的幻想

可惜了,本来想搞一年普通 Pro 用用,这么看的话次数不够了

1 个赞

cline才蠢啊,它是把所有代码一起发给llm的,所以token使用量非常夸张,效果还很差。copilot好歹是embedding,虽然效果也不够理想
不知道cline开发者哪根筋搭错了想出来的把所有代码一起发出去
用一下aider就知道cline有多烂了

好吧。。

zed有免费的服务,但是也就是将将能用,用起来还是靠自己配置。

佬友,想问下直接发代码和发 embedding 有什么区别呢?后者是前者的一个语义压缩,导致 token 量上的减小?

其实github copilot模型限制的很严格,说不上好用;系统提示词严格限制在了编程领域,这么严格的限制会拉低模型的智商,然后所有模型严格限制了max token 导致输出内容相较没有限制的简略;然后o1的话,我有时觉得是假的,感觉好傻,但是一些测试题又有几率做对;然后上下文是有限制了,具体多少没有测试过,但是应该是比较少的;然后补全模型是gpt-4o 感觉比不上cursor之类工具的补全了;前段时间新更新的mcp和edit还没怎么用,用cursor去了 :tieba_087:

然后最大的问题是chat输出好慢,在之前完全比不上可以白嫖的cursor,不得不说之前cursor用的真爽 :tieba_087:

2 个赞

不是发embedding,是通过embedding做语义搜索,把和用户问题相关的代码而非所有代码最终发给llm
但是copilot让我怀疑对代码做语义搜索的效果(或者是embedding的效果)并不像纯文本那样好

1 个赞

aider用了一个比embedding简单得多的办法,但是非常有效:基于语法树做一个项目的地图,包括项目有哪些文件,文件里有什么函数,函数的输入输出,但是不包含代码,所以占的token很少
然后把这个地图一起发给llm,如果它判断你一开始手动加的文件不够,会根据这个地图问你要权限访问需要的文件
这个简单的办法的效果有时候比cursor的embedding要好

3 个赞

刚想冲的心,塌了!

:joy: vs code 上使用 github copilot 和 cursor 差距太大了, 还是 cursor 好用. 这价格看起来不怎么划算了.

可以转移阵地了,300次是来搞笑的吗 :sweat_smile:

学生包带的pro立马不香了

最初我也是 使用 Copilot 后面转到 cursor了,一直没回去~

差不多前1个多月试了预览版,感觉还不错,就是编辑文件慢了点,前不久 WebStorm 上支持 Edits 功能后,编辑速度快了许多,感觉还挺香的。
现在新的收费策略出来,一下感觉性价比不行了,月底订阅到期后,准备转 cursor 了

1 个赞

github 教育 能享受到什么档次的服务

2 个赞

Github Copilot Chat (VSCode) 前置提示词是可以删除的, 然后就可以问任何问题了
在extension.js里查找像这样 Your expertise is strictly limited to software development topics 的文本替换为空格就行

macOS + VSCode路径:

$HOME/.vscode/extensions/github.copilot-chat-版本号/dist/extension.js

如果你用的是copilot.vim 或者Zed / JetBrains pack那我就不知道了, 不过VSCode是可以的

8 个赞

edu 只能到 Pro, 不能 Pro+

2 个赞

话说删系统提示词不会封使用权限吗,我记得前段时间删了会封copilot权限 :bili_020:

咨询下佬友aider在大项目(约1k+.py文件)上表现如何?最近cursor降智,在观望 :folded_hands:

是指一千个python文件吗
那效果肯定不好,map的token最多4096,估计最多塞下八十个文件
所以让它自动读文件是不太可能的,你手动加文件可能可以。就是这么大的项目应该有很多模块?你写一个功能的时候应该很多其他模块的代码是没用的?你手动把要用的文件加进去