一项最新研究显示,OpenAI的ChatGPT在政治问题上的立场正在发生变化,相较于早期版本,新版模型在经济和社会议题上的倾向更偏向右翼。该研究由中国的北京大学和中国人民大学团队发表在《人文与社会科学通讯》期刊上,研究人员利用“政治坐标测试”(Political Compass Test)分析了GPT-3.5 Turbo和GPT-4两个版本的回答,发现虽然ChatGPT整体仍偏向左翼,但相比之前版本,新的模型在政治光谱上的右移趋势明显且具有统计学意义。研究认为,这种变化可能与OpenAI调整训练数据或政治话题的内容审核机制有关,但由于公司未公开数据来源及模型微调方式,具体原因尚不明确。另一种可能性是AI模型的“涌现行为”,即模型在训练过程中由于参数权重调整或用户交互反馈形成了开发者未预见的偏向。此外,研究发现,用户互动频率更高的GPT-3.5相比GPT-4,在政治立场上的右移程度更为显著,暗示AI可能在持续学习过程中逐步适应其用户群体的主流观点。研究团队呼吁,对人工智能的政治倾向进行持续监测,并建议开发者定期发布透明报告,确保生成式AI不会因算法偏见影响信息传播,进而加剧社会分歧或形成信息茧房。