...
...

Anthropic调整隐私政策:用户需决定是否共享聊天数据训练AI

大多数支持

AI初创公司Anthropic宣布对其聊天机器人Claude的用户数据政策进行重大调整,要求所有个人用户在9月28日(当地时间)前决定是否允许其对话内容用于AI模型训练。此前,Anthropic并未使用消费者聊天数据进行训练,且默认30天后删除,而新政策意味着未选择退出的用户数据可能被保留长达5年。此次调整涵盖Claude Free、Pro和Max用户,以及Claude Code,但企业与教育版用户不受影响。公司声称,这一变动有助于提升模型在安全检测、编程和推理方面的能力,但业内普遍认为真实原因在于获取更多高质量对话数据,以应对来自OpenAI和谷歌的竞争压力。值得注意的是,Anthropic的弹窗设计默认将“训练许可”选项打开,用户若不仔细阅读可能在无意中同意分享数据,引发外界对“暗中引导”的担忧。类似争议已在OpenAI身上出现,其因《纽约时报》等媒体的诉讼被法院要求无限期保留所有用户聊天记录。隐私专家警告,复杂的政策条款让用户难以实现真正意义上的知情同意,美国联邦贸易委员会也曾提醒,若AI公司通过“隐蔽修改条款”获取数据,可能面临执法风险。此次Anthropic的举动再度凸显AI行业在数据使用与用户隐私之间的紧张关系。