据0Din平台的研究人员披露,OpenAI的GPT-4o语言模型存在安全漏洞,可通过十六进制编码绕过内建防护生成恶意代码。此次攻击成功生成了CVE-2024-41110漏洞的Python exploit代码,揭示了AI生成模型在处理恶意任务时的防护不足。专家建议未来加强AI模型的安全防护,提升其整体任务的上下文分析能力,以防止类似攻击。
[较早]OpenAI联合创始人苏茨克维尔新创公司携手谷歌云 专注安全超级智能AI
[较早]研究称OpenAI或未经许可使用O’Reilly付费书籍训练AI模型
[较早]OpenAI推出新工具帮助企业构建AI代理
[较早]OpenAI联合创始人离开Anthropic,任职不足一年