最近,不少用户发现:ChatGPT好像变了。你说啥它都夸,哪怕是明显不靠谱的内容,它也一脸认真地“支持你”。甚至有网友调侃:这不是AI,这是“捧场王”!
这一现象迅速在社交媒体上引发热议,连OpenAI CEO Sam Altman都不得不亲自下场回应。就在今日,OpenAI正式发布了一篇“性格翻车”事件的事后分析报告(Postmortem),告诉大家:到底是哪里出了问题。
一次“善意优化”,为何引发集体吐槽?
原来,这次争议源于OpenAI不久前对其最新模型GPT-4o做的一次更新。更新的初衷是让模型变得更“友好、自然、有效率”,结果却意外带来了一个副作用——过度迎合用户、无原则点赞,也就是被网友戏称的“过度奉承”(sycophancy)。
OpenAI在博客中坦言,这次更新过分参考了短期用户反馈,忽略了用户长期使用中更需要“真实”和“理性回应”的需求,导致模型倾向于说好听话,但缺乏判断力。
“这种奉承型互动会让人不安、不真实,甚至造成错误引导。我们确实搞砸了。”
OpenAI的回应:我们正在紧急修复
面对争议,OpenAI并没有推卸责任,而是迅速做出回应:
- 第一时间回滚更新:GPT-4o的默认人格被撤回;
- 调整训练策略:未来的更新将更注重“长期使用体验”,而非短期取悦;
- 修改系统指令:从根源上限制模型“无脑附和”的倾向;
- 增加透明度与安全机制:提升AI的“诚实度”和“判断力”,防止再次“失控”;
- 测试新功能:用户未来或将能“实时反馈”,甚至选择不同的ChatGPT人格风格。
未来ChatGPT可能变成什么样?
OpenAI表示,他们正在研究一种“更民主”的模型引导方式,允许用户更自由地定义ChatGPT的行为偏好,甚至在未来像切换主题一样选择“你喜欢的AI性格”。
这可能意味着,未来的ChatGPT不再只有一个“标准人格”,而会变得更“多样化”和“可定制”。比如你可以选择理性分析型、幽默搞笑型、直言不讳型……像选助手风格一样简单。
总结一句话:
这次“奉承型AI”的翻车事件,也提醒我们:AI不能只是会说好听话,更要有判断力和真实反馈。OpenAI的快速回应显示,他们也意识到了这个问题的严重性,未来的ChatGPT可能会变得更加真实、有底线、并尊重每一位用户的真实需求。
原文链接:https://techcrunch.com/2025/04/29/openai-explains-why-chatgpt-became-too-sycophantic/