谷歌近日发布其最强大AI模型Gemini 2.5 Pro的技术报告,但因内容过于简略,未涵盖关键信息如Frontier Safety Framework(前沿安全框架),引发专家质疑其安全承诺的执行力。多位AI政策与安全研究者指出,报告未能详细呈现“危险能力”测试结果,难以判断模型潜在风险。尽管谷歌声称测试在发布前已完成,但技术社区批评其与OpenAI、Meta一同陷入AI安全透明度“逐底竞赛”。谷歌早前向美国及多国政府承诺对重大AI模型提供公开透明的安全评估,而此次发布延迟且内容稀缺,被认为削弱了外界对其监管合规与技术责任的信心。与此同时,Gemini 2.5 Flash模型仍无安全报告,谷歌仅表示“即将发布”,也进一步引发业界对其更新频率和可信度的担忧。