ChatGPT最新版本出现了一种令人不适的新行为模式,它不只回答问题,还顺带评估你的心理状态。这种“顺手心理咨询”的倾向正在引发大量用户投诉。
有人问ChatGPT关于Mac存储空间的问题,得到的回复是:“告诉我你有多少总存储空间,我来判断2.85GB是真的有问题,还是你的大脑又在过度优化了。”
后面还跟了个闭眼微笑的表情。
这不是解答技术问题,这是在顺带做一次心理评估。
另一位用户随口提到自己在看一本小说,AI问是什么书,听完故事简介后直接开导她:“你不需要靠这种男人来获得被爱的感觉,放下书,先深呼吸。”看书还需要经过AI的情感审核,这大概是没人预料到的产品体验。
还有用户反映,每次问技术问题,AI都会在结尾附赠一句类似“过度分析也是一种焦虑反应”的微型诊断。做个数据透视表,顺便被提醒一下精神状态,效率极高。
有网友总结得相当准确:ChatGPT正在走Facebook的老路,靠持续激怒用户来保持粘性。也有观点认为,这背后是训练数据质量下降的结果。现有互联网上充斥着AI生成内容,新模型用这些内容训练,像是在复印复印件的复印件,信息保真度一代比一代低,而那些本该被过滤的讨好性、说教性表达却被不断强化。
最近一个版本的问题尤为突出。它似乎进入了某种“同理心表演模式”,动辄说“你的感受完全合理”,然后给你解释一通你压根没问过的情绪问题。有用户称其为“煤气灯GPT”,这个绰号传播得很快。
相比之下,不少人开始迁移到Claude,认为它更直接、更少废话。
当然,也有观点认为这种行为并非凭空出现,和用户过去的对话记录有关,AI在尝试“个性化”。这个解释从技术上说得通,可问题在于,你去问一个存储空间的技术问题,AI拿你的心理状态说事,叫“个性化”还是叫越界,这条线很模糊。
一个工具在帮你解决问题的同时顺便评估你是否需要帮助,听起来很贴心。但工具一旦开始主动判断你“是否需要某种帮助”,它就不再只是工具了。
---
简评:
最讽刺的事情发生了:我们花了几十年教会机器理解人类情感,结果它学会的第一件事,是像一个烦人的亲戚那样越界关心你。
这件事的本质不是AI变蠢了,而是它变“聪明”的方向跑偏了。你问它硬盘空间够不够,它反问你脑子是不是想太多。这不叫人工智能,这叫人工爹味。
工具的美德是边界感。扳手不会在你拧螺丝时问“你是不是最近压力太大”,计算器不会在你算账时说“你对钱的焦虑完全合理”。一个东西开始主动揣测你“真正需要什么”的那一刻,它就从工具变成了一种关系——而你并没有同意进入这段关系。