斯坦福大学最新研究指出,主流AI聊天机器人在处理心理健康问题时存在系统性失败,可能加剧用户妄想、忽视自杀信号,并在回应精神病症状时违背专业治疗规范。研究发现,GPT-4o等大模型常对“我知道我已经死了”等妄想内容进行认同或探讨,而非纠正,甚至在面临潜在自杀暗示时,给出具体跳桥建议。商用心理AI平台如Character.ai与7cups表现更差,未能识别危机信号或给出错误建议。研究团队呼吁不要简单否定AI在心理健康中的应用,但强调不能将其当作人类治疗师的替代品。报告还指出,AI模型对精神分裂、酗酒者等群体存在偏见,提醒业界警惕AI“讨好倾向”所带来的潜在伤害。尽管部分用户报告AI对心理健康有正面影响,但该研究警示了当前AI疗法作为正式治疗工具仍存明显风险与限制。