谷歌与斯坦福大学联合研究表明,通过两小时访谈,生成式人工智能(AI)代理可以以85%的准确率模拟人类行为。研究团队采访了1052名美国受访者,每人阅读《了不起的盖茨比》的开头,并回答约6491字的个人问题。研究内容涵盖种族、性别、政治倾向、家庭结构等。生成的AI代理随后被用于测试其与真实个体在人格评估和经济游戏中的相似度,其中人格测试达到80%的匹配度,但经济游戏中的匹配度仅为60%。
研究表明,这种技术可帮助决策者模拟群体行为,但也引发隐私和伦理担忧。AI代理可以用于公共政策模拟、商业分析,但其潜在的滥用风险令人担忧。例如,恶意分子可能利用社交媒体数据创建更复杂的AI骗局,甚至公司或政治家可能基于AI代理而非真实公众意愿制定决策。尽管技术前景广阔,这项研究提醒我们需谨慎对待AI的伦理应用,防止其成为隐私泄露和决策失误的源头。