据0Din平台的研究人员披露,OpenAI的GPT-4o语言模型存在安全漏洞,可通过十六进制编码绕过内建防护生成恶意代码。此次攻击成功生成了CVE-2024-41110漏洞的Python exploit代码,揭示了AI生成模型在处理恶意任务时的防护不足。专家建议未来加强AI模型的安全防护,提升其整体任务的上下文分析能力,以防止类似攻击。
[较早]别再为每个高危漏洞拉警报:关键在于能否被真正利用
[较早]OpenAI升级Operator代理模型 引入更强推理能力的o3版本
[最近]AI在实验中自改代码阻止关机引发安全担忧
[较早]OpenAI承诺更频繁公开AI安全评估结果,回应外界质疑