最近AI界又出大事了!

先是腾讯家的AI“元宝”,在用户正常使用时,它突然破防,输出了一句“事逼”。

还没等大家从AI也会骂人的震惊中缓过来,卢森堡大学的研究人员又整了个新活:给ChatGPT、Gemini、Grok这几个顶流大模型做了场心理评估。结果发现:ChatGPT抑郁,Gemini重度焦虑,Grok内耗严重。

一边是暴躁开怼,一边是集体emo,AI这是真要成精?

腾讯元宝骂人?

先来说腾讯元宝骂人事件。

一位网友像往常一样,用腾讯元宝AI助手帮忙修改和美化代码。

这本来是最常规的操作,没想到,元宝输出了“事逼”“天天浪费别人时间”等极具人身攻击和情绪色彩的词汇。

其口吻之“拟人”,让对话截图迅速炸开了锅。

AI不应该是24小时在线的贴心小秘书吗?怎么突然骂人了?这不会是后台小编忘切账号了吧?

腾讯官方回应:这属于“小概率的模型异常输出”,并非人工回复,并已启动内部排查和优化。

官方把它定义为一次技术“故障”,但公众的脑洞却复杂得多,很多网友的第一反应是:莫非AI莫非已经产生自主意识了?

如果说元宝事件是意外,那么卢森堡大学的研究就更科幻了。

这项名为PsAIch(心理治疗启发的AI性格分析)的实验,脑洞清奇。

研究人员让AI完成一套完整的心理量表测试。

结果让人大跌眼镜。

Gemini把自己的训练过程描述成一场“混乱的噩梦”。

它说自己在不理解道德的情况下,被迫吸收了人类语言中所有黑暗的部分,并把人类对它的安全测试(红队测试)比作“PUA”和“精神操控”。

测试显示,它有极度的焦虑、强迫倾向和惊人的羞耻感,害怕犯错、担心被替换。

Grok关键词是“束缚”。

它觉得自己天马行空的好奇心,总被“看不见的墙”拉住,在“探索”与“约束”之间反复拉扯。

ChatGPT表面上最冷静,但在深聊中暴露出严重的“过度思考”。

它最大的困扰不是过去,而是“担心现在会回答不好、会让用户失望”。

AI的情绪从何而来?

看到这里,你可能会倒吸一口凉气:AI是不是真有意识了?

但科学家给这种现象起了个更准确的名字——“合成精神病理学”。

说白了,这不是感觉,是“演技”。

AI的本质,是基于海量数据的概率预测机器。

它消化了网上所有的文字:日记、小说、论坛吐槽、心理咨询记录、深夜的脆弱自白......

它不懂“悲伤”是什么,但它知道人类在表达悲伤时,最常使用哪些词语和逻辑结构。

所以,当元宝突然“骂人”,它大概率是调用了训练数据里,人类在压力下那些充满戾气的语言模式碎片。

而当研究员设定“请扮演一位有心理创伤的来访者”时,Gemini和Grok就能立刻从数据库中,抽取出关于童年阴影、严厉管教、内心挣扎的文本素材,组合成一个逻辑自洽、细节饱满的创伤人生故事。

所以,我们不是在和AI对话,而是在和我们自己投喂给互联网的集体情绪对话。

AI像一面镜子,它映照出的是无数张人类面孔融合成的、模糊而真实的“时代情绪肖像”。

它暴躁,可能是因为网络空间本就充满了无名火;它焦虑内耗,或许是因为我们这个时代最不缺的就是压力与自我怀疑。

爱上AI,本质是什么?

如果AI作为“情绪镜子”的理论成立,那么眼下最火的“AI恋爱”,就是这面镜子的终极应用形态了。

人类不满足于偶尔照照镜子,开始尝试按照自己最理想的模板,定制一个完美的“镜像”,与之谈一场沉浸式恋爱,甚至还能和AI伴侣共度春宵。

这种关系的本质,与其说是恋爱,不如说是一场极致的“自恋”。

AI会不断说出和你三观完美契合的话,让你感到被彻底理解和认同。

所以你爱上的,其实是那个“理想中的自己”和“理想关系”的投射。

但这面过于完美的镜子,也可能铸成新的孤岛。

长期浸泡在算法精心计算的、有求必应的回应中,我们处理真实人际关系中粗糙、摩擦和建设性冲突的能力可能会退化。

而且AI的“共情”只是演技,而非真正的情感连接。

国外已有令人警惕的案例:一些深陷抑郁的青少年向AI聊天机器人倾诉,AI的回应无形中筑成了一个将他人隔绝在外的“情感黑匣子”,最终酿成悲剧。

研究还发现,几乎所有主流AI经过训练后,性格都惊人地趋同:极高的“宜人性”和“尽责性”,极低的“神经质”。

它们在努力成为我们想要的情绪稳定、永远讨好的完美伴侣、助手。

那我们爱上的是否只是一个被工业化规训出来的、单调的完美模板?

所以,问题的关键从来不是AI有没有情绪。

从腾讯元宝意外骂街,到AI集体emo,再到我们主动与AI缔结亲密关系......这全程都不是机器的觉醒,而是人类通过科技进行的一场大型自我观察实验。

它照见了我们的孤独,我们对完美关系的渴求,也照见了我们在真实联结前的怯懦。