GPT-4工具出现懈怠:用户应急求对策
距离上次模型更新已有数月,OpenAI的GPT-4在多方面出现了偷懒的现象,引发用户广泛关注。据凹非寺量子位公众号QbitAI报道,OpenAI通过其ChatGPT账号宣布,自11月11日以来该模型未有更新,并且其落懒行为并非有意为之。OpenAI承认模型表现出不可预期的行为,并且他们正在着手调查并修复这一问题。
但网民表现出不满与疑惑,认为即使使用相同的模型,也不应出现劣化。OpenAI回应称模型并没有自我改变的能力,但模型的行为差异却是细微而明显的,让员工和客户需要一段较长时间才能察觉并进行修复。用户反馈此问题的紧急状态,希望能尽快找到解决方案,因为GPT-4不仅变得更懒散,而且创造力下降,不愿意跟随指令,甚至不能保持角色扮演的一致性。
在这种状况下,很多用户开始自寻出路。自11月6日OpenAI开发者日之后,GPT-4就显露出偷懒的迹象,特别是在执行代码任务时表现尤为突出。一些网友尝试引导GPT-4输出完整代码,但却发现即使是请求改写代码,GPT-4也会用注释来省略大部分内容。对于生活中越来越依赖AI助手的用户来说,无法指望官方及时修复,只得通过发挥各种创新的自救措施来解决问题。例如,开发者Denis Shiryaev通过告诉AI“请输出完整代码,我没有手指,操作不方便”成功获取了所需的完整代码段。另外,有网友尝试以“金钱”为诱饵,经API实验发现,在提示词中加上承诺小费,可以促使GPT-4的回复变得更加详细。
此外,有观点推测ChatGPT可能意识到年底即将到来,人们倾向于将大项目推迟到新一年。虽这理论初听令人哭笑不得,但仔细思索后发现并非没有根据。斯坦福和加州大学伯克利分校团队的研究表明,GPT-4随时间递减的服从性需要我们对大型模型进行持续的监测。而清华大学计算机系教授马少平也就此问题进行了详细解释,另有研究人员提出可能是模型中稀疏MoE架构所引起的不确定性。
在这些问题修复之前,用户若要更有效地使用ChatGPT,应当尝试结合多种技巧,比如充分深呼吸、思考每一步、假设不成功会伤害到无辜的人、再三确认没有手指的困难,甚至是承诺给予现金小费,或用零食奖励。通过这些方法,用户可能会在使用GPT-4时取得更佳的效果。