使用Cursor、GitHub Copilot编程助手存在规则文件后门漏洞

规则文件后门(Rules File Backdoor)
Pillar Security的研究人员发现了一种新的供应链攻击向量,命名为“规则文件后门”。该攻击通过在Cursor和GitHub Copilot(AI代码编辑器)所使用的看似无害的配置文件中注入隐藏的恶意指令,使黑客能够悄无声息地篡改AI生成的代码。
攻击者利用隐藏的Unicode字符及复杂的规避技术,操纵AI在指令有效载荷中插入恶意代码,从而绕过常规代码审查。
与传统针对特定漏洞的代码注入攻击不同,“规则文件后门”将AI本身作为攻击载体,将开发人员信赖的助手转变为无意识的帮凶,可能通过受攻击软件影响数百万终端用户,带来重大安全风险。

当人工智能 (AI) 彻底改变软件开发时,安全风险也在迅速发展。另一种未被发现的攻击方法,即规则文件后门 ,暴露了GitHub Copilot和 Cursor 等人工智能驱动的编码助手中的漏洞。这种技术允许攻击者巧妙地将恶意代码注入项目,在开发人员不知情的情况下损害软件完整性。

出处:

3 Likes

啊,这么吓人

ai-payload,有点恐怖了 :fearful:

攻击者利用隐藏的Unicode字符,那这样Cursor或Copilot应该有责任筛选输出内容吧,筛出Unicode生成内容就阻断应该对他们来说不难。

不过看来以后写提示词要加上禁止他自动生成Unicode字符了。

这这这吓人

上次看到这个技术还是在讲怎么防止文章被 AI 自动爬去洗稿

才用上不久就被吓屎了

不用别人的规则文件不就好了

woc又来投毒了

此话题已在最后回复的 30 天后被自动关闭。不再允许新回复。