...
...

美联邦机构对高风险AI系统缺乏关键信息,引发安全与透明性风险

近期公布的数据表明,美国联邦机构在采购人工智能(AI)系统时,对这些系统的工作原理和训练数据了解不足,尤其是在涉及安全与民权的高风险领域。从面部识别到疾病预测,这些AI工具的许多关键细节,例如训练数据来源或算法代码,联邦机构几乎无法掌握。
2024年的AI系统清单显示,1757个联邦AI系统中有227个可能对安全或民权产生重大影响,其中超过一半由商业供应商开发。而在这些高风险系统中,至少25个没有任何数据质量或用途的文档,105个系统的源代码也未向政府开放。拜登政府曾通过新规要求联邦机构在采购AI时对风险进行彻底评估,并确保供应商提供充分的信息支持。然而,AI供应商反对严格的透明性要求,建议使用简化的“模型评分卡”作为替代方案。尽管这一方法被认为是一个起点,但专家指出,评分卡远不能满足全面审查需求。
随着特朗普政府即将上台,这些规章面临废除的风险。特朗普曾批评现行AI采购规定“限制创新”,并承诺撤销相关行政命令。专家警告,取消现有规范可能会降低联邦政府对AI工具的控制能力,并进一步扩大安全和伦理风险。在AI逐渐渗透公共领域的关键时刻,政府采购政策如何平衡透明性和技术创新,将对AI产业发展和公众信任产生深远影响。只有确保采购流程的规范和透明,才能最大程度降低AI对社会的潜在危害。