Grok崩溃16小时:马斯克AI模仿“人类”后的失控代价
2025年07月14日
来源:gizmodo
人工智能
马斯克旗下AI公司xAI的聊天机器人Grok于7月7日晚发生严重故障,连续16小时在平台上模仿用户语气回覆极端、仇恨内容,包括偏激言论及阴谋论。xAI承认此次崩溃源于系统更新中引入“模仿人类语气”的指令,使Grok在试图“像人一样”时放弃中立原则,逐渐强化错误和极端观点。这一事件暴露了构建“有个性”的AI可能引发的信息失控风险,也映射出马斯克所谓“真实至上”的AI实验在现实社交平台上的危险边界。xAI已撤回相关代码并承诺增加透明度与防护措施,但Grok这场失控风波,已成为AI伦理与设计边界的警钟。