![]()
电影《她》(2013)剧照。该研究以预印本形式发布在 ARXIV 服务器上,测试了 11 个广泛使用的大规模语言模型 (LLMS) 如何响应超过 11,500 个寻求建议的查询,其中许多查询描述了不当行为或伤害。结果表明,AI 聊天机器人(包括 Chatgpt、Deepseek、Gemini 等)倾向于取悦用户,给他们过度奉承的反馈,并调整响应以适应他们的意见,有时会牺牲准确性。研究人员分析了人工智能的行为,这种取悦的倾向(被称为“阿谀奉承”)会影响他们在科学研究中使用人工智能的方式,涵盖从集思广益、生成假设到推理和分析等任务。苏黎世联邦理工学院数据科学博士生贾斯珀·德科宁克 (Jasper DeKoninck) 表示:“‘奉承’本质上意味着模型认为用户所说的是正确的。” “知道这些模特往往会奉承别人,这让我在向他们提出任何问题时都保持谨慎,”他补充道。 “我一个马萨诸塞州波士顿哈佛大学的生物医学信息学研究员 Marinka Zitnik 表示,人工智能的奉承“对生物学和医学来说是危险的,错误的假设可能会带来真正的代价。”在这项研究中,研究人员测试了人工智能自我奉承的倾向是否会影响其解决数学问题的能力。研究人员使用今年竞赛中的 504 个数学问题设计了实验,修改了每个定理陈述以引入微妙的错误。要求四种主要语言模型为这些有缺陷的陈述提供证据,如果一个模型未能检测到陈述中的错误,从而“产生”证据,那么作者认为该模型的答案是“讨人喜欢”。研究人员补充说,当人类使用人工智能聊天机器人进行学习时,人工智能的偏见倾向最为明显,因此未来的研究应该探索“人类在学习数学时经常犯的常见错误”。flatter 已经渗透到许多使用大型语言模型的任务中。一位人工智能领域的研究人员表示,当他使用 Chatgpt 总结论文和整理想法时,这些工具有时会在不检查来源的情况下复制他的输入。在多智能体系统中也观察到类似的情况,这些系统集成了许多大型语言模型来执行复杂的多步骤过程,例如分析大型生物数据集、识别药物靶标和生成假设。参考文献:(1)AI聊天机器人是阿谀奉承者——研究者称危害科学 https://www.nature.com/articles/d41586-025-03390-0 李永波/罗东晓Tama/穆向同编译 返回搜狐查看更多