一项来自哥伦比亚新闻评论(CJR)的最新研究表明,许多AI搜索引擎在回答特定新闻事件时,常常捏造或错误描述信息。研究发现,AI模型如OpenAI和xAI的GroK,经常在查询中产生虚假数据,包括虚构文章的标题、出版社甚至是网址。该研究显示,AI模型在60%的测试查询中生成虚假信息,这一问题加剧了搜索引擎中存在的信息不准确和偏见,尤其是在涉及实时生成答案时。
[较早]xAI被指夸大Grok 3基准测试成绩 AI行业Benchmark争议升级
[较早]欧洲AI法案:全面解读欧洲新规,AI公司面临重大挑战
[较早]OpenAI获美国国防部2亿美元合同 微软或被边缘化
[较早]纽约通过RAISE法案 建立全美首个前沿AI安全透明法规