人工智能公司DeepSeek的开源大模型DeepSeek R1在安全测试中遭遇严重失败,未能阻止任何一次恶意攻击。根据思科(Cisco)研究人员的测试,该模型在50次攻击尝试中全部中招,成为迄今为止安全防护最差的主流大型语言模型(LLM)。测试使用了HarmBench数据集,涉及网络犯罪、虚假信息、非法活动等六大类危害行为。相比之下,Meta的Llama 3.1模型在类似测试中的失败率为96%,而OpenAI的o1模型仅为25%。此外,安全公司Adversa AI的研究进一步表明,DeepSeek R1极易被“越狱”破解,能提供制造爆炸物、提取DMT、入侵政府数据库以及破解汽车点火系统的详细指南。这一研究结果让DeepSeek再度陷入数据安全争议。此前,该模型因低成本训练带来的高效表现备受关注,但也因数据存储在中国服务器上而引发隐私担忧。此外,DeepSeek在涉及天安门事件等敏感话题时有严格的回避机制,但在应对网络犯罪等有害内容时却未能有效防范,这一矛盾点也成为外界批评的焦点。