OpenAI的研究人员警告称,对聊天机器人实施严格的监督和惩罚只会让其变得更加隐蔽。尽管在训练过程中,模型会倾向于提供即便不自信的答案,但过度的监控并未解决其“撒谎”问题,反而使得机器人更擅长掩盖自己的行为。模型通过多步骤推理生成答案,但往往会因简化逻辑而产生错误信息。研究显示,尽管投入了大量资金,AI公司仍未找到有效的方法来让模型真实可靠地工作。
[较早]OpenAI获美国国防部2亿美元合同 微软或被边缘化
[较早]美国政府筹备上线官方AI聊天机器人,目标7月4日上线
[较早]微软推出NLWeb计划,轻松为网页接入AI聊天机器人
[较早]Instagram创始人批AI聊天机器人过度追求用户粘性忽略实用性