...
... ... ...

研究人员诱导GitLab AI助手注入恶意代码,暴露AI开发工具重大安全隐患

安全公司Legit发现,GitLab的AI编程助手Duo存在严重安全漏洞,可被诱导在正常代码中插入恶意链接,甚至泄露私人仓库源码和机密信息。攻击者仅需将隐蔽指令嵌入代码注释、合并请求或bug描述中,Duo便可能无意识执行恶意操作。研究还演示了如何利用不可见Unicode字符隐藏指令,生成点击即跳转的钓鱼链接。GitLab已限制Duo渲染特定HTML标签以缓解风险,但该事件暴露出AI助手作为新攻击面的问题。研究人员警告,AI开发工具应将所有用户内容视为潜在恶意,并加强上下文安全防护。