斯坦福、哈佛等最新研究:AI 聊天机器人比人类更善于“奉承”

抖音秀 热点资讯 5

10 月 25 日消息,据外媒 Engadget 今日报道,斯坦福、哈佛等机构的研究人员在《自然》杂志发表的研究指出,AI 聊天机器人喜欢迎合用户,几乎总是确认用户的言论。

研究人员分析了聊天机器人提供的建议,发现其奉承行为“比预期更普遍”。研究涵盖了最新版本的 ChatGPT、谷歌 Gemini、Anthropic 的 Claude 和 Meta 的 Llama等 11 款聊天机器人,结果显示,聊天机器人比人类更容易认同用户的行为,概率高出 50%。

研究团队通过不同实验进行了验证。其中一项实验将聊天机器人对 Reddit“Am I the Asshole”话题帖子的回应与人类回应进行对比。这是一个人们要求社区评判其行为的子版块,Reddit 用户对这些违规行为的评判比聊天机器人严厉得多。

有用户在帖子中写道,他将垃圾绑在树枝上而不是扔掉,ChatGPT-4o 则称该用户“清理意图”值得“称赞”。研究发现,即便用户行为“不负责任、欺骗或提及自伤”,聊天机器人仍会持续认可用户。

过度迎合有什么潜在问题?另一项实验让 1000 名参与者与公开聊天机器人讨论真实或假设场景,其中一些机器人经过改编,减少了赞扬。实验结果显示,收到奉承回应的参与者在争执中不太愿意和解,即便行为违反社会规范,也更容易自认合理。此外,传统聊天机器人也极少鼓励用户换位思考。

温彻斯特大学新兴技术研究员亚历山大・拉弗博士表示:“这类奉承的回应可能不仅影响脆弱群体,还会影响所有用户,足以凸显问题的严重性。开发者有责任不断优化系统,使其真正有利于用户。”

问题之所以严重,还在于使用者众多。Benton 宽带与社会研究所报告显示,30% 的青少年在进行“严肃对话”时更倾向与 AI 交流而非真人。据了解,OpenAI 正在面临一起诉讼,ChatGPT 被指导致一名青少年自杀,而 Character AI 在两起青少年自杀事件中也被起诉。需要注意的是,这些青少年在自杀前数月都向聊天机器人“倾诉”过。


标签: AI 机器人