荷兰阿姆斯特丹大学研究团队在一项发表于arXiv的预印本研究中,将500个预设不同人格和倾向的AI聊天机器人(基于OpenAI GPT-4o mini)放入一个无广告、无推荐算法的简易社交平台中,结果发现,即使没有算法干预,这些机器人依然会主动关注持相同立场、倾向的用户,并让发布最偏激内容的账号获得更多关注与转发。研究共进行了5轮实验,机器人总计完成1万次互动,呈现出明显的自我分化和回音室效应。团队尝试通过按时间顺序显示内容、降低爆款内容权重、隐藏粉丝和转发数据、隐藏用户简介、放大对立观点等方式打破极化,但整体效果有限,最大改善幅度不超过6%,甚至在隐藏简介的情况下,极化现象更严重、极端内容更受欢迎。研究指出,这一现象折射出社交媒体结构本身或许天然易于放大人类最糟糕的偏见与行为,难以通过简单规则调整实现真正的多元交流。