AI 成了人类亲密关系中,最大的「雷」

抖音秀百科网 网络资讯 2

结婚誓词是 AI 写的,劝分劝离的建议是 AI 给的,就连出轨对象也是 AI。

如果说这个世界上有什么事比「被分手」更惨,那大概就是「被 AI 分手」,或者说关系里的「第三者」竟然是 AI。

最近,《Futurism》的一篇报道揭开了一个正在硅谷蔓延的魔幻现实:ChatGPT 正在深度介入人类的亲密关系,从让它评评理,到代写分手信,从做伴侣咨询,到写离婚协议。

而且这并不是像电影《Her》那样,人类爱上了操作系统;而是两个大活人,因为过度依赖这个「第三方」来评理、沟通,最终把关系搞砸了。

最魔幻的案例莫过于 AI 界的泰斗、图灵奖得主,「AI 教父」杰弗里・辛顿也是「受害者」之一。作为深度学习之父,辛顿大概没想到,有一天深度学习会反噬到他的私生活上。据他在《金融时报》的采访里表示,他的前女友曾用 ChatGPT 生成了一篇檄文,专门用来指责他。

「她让 ChatGPT 来告诉我,我是一只什么样的老鼠(原文是 Rat,意为卑鄙小人)。」亲手开启 AI 时代的人,最终都在情感战场上被 AI 来了个「反噬」。

而当 AI 开始介入我们最私密、最纠结的情感深水区,它究竟是在帮我们「修补」关系,还是在强化我们「自我的回音」?

一、为什么 AI 评不了理?

曾几何时,我们在遇到情感问题时,也会寻求闺蜜或兄弟的帮助,朋友们也会在「劝分」和「劝和」之间争执得不可开交。

但 AI 不同,它不是有情感的真人,而是上百亿打造出的「高科技」,所以人们对其赋予了「专业」、「客观」、「无情感倾向」的立场。这种对「算法客观性」的盲目信任,恰恰是算法介入关系、制造矛盾的入口。

最常见的用法,是把 AI 当作情感生活里的「裁判」。

在《Futurism》报道里有着大量这样的案例:情侣们在发生争吵时,不再试图互相理解,而是把聊天记录截图、喂给 AI,让它来「评评理」。这种做法听起来很客观,毕竟 AI 没有情绪。但实际上,这往往是亲密关系变脆弱的开始。

有案例就提到,一方发现伴侣将他们所有的私人对话都输入给 AI,要求分析自己的「漏洞」和「防御机制」,这让被分析的一方感到被侵犯和背叛,认为关系中没有了信任和隐私。

而且,AI 会倾向于顺着提问者的意图说话,以达成更久的留存率,AI 的奖励模型也会倾向于强化用户的情绪,而不是弱化它,于是,你越问越觉得自己委屈,越问越觉得自己占理,一个完美的「回音室」就形成了。

所以当你带着委屈去问:「我伴侣这样做是不是很过分?」AI 大概率会捕捉到你的情绪倾向,告诉你:「是的,你的感受是合理的。」于是,你越问越觉得自己委屈,越问越觉得自己占理。

当我怀疑自己沉迷 AI 去解决关系问题时,AI 又把我夸了一通|图源:ChatGPT

「共情和认可是任何心理健康治疗或干预的重要组成部分,但不能止步于此,你不能不断地告诉一个寻求情感支持的人,他们的方式是正确的,他们的世界观是唯一正确的世界观。」斯坦福大学医学院成瘾医学教授兼医疗主任安娜・伦布克博士说道。

AI 对情侣之间的摩擦,也秉持着一种「小事化大」的解题思路。

比如现实中,你的伴侣只是忘了倒垃圾,或者说话大声了点。你去问 AI,AI 的回答可能是:这是「被动攻击」,可能涉及「自恋型人格」的特征。你需要警惕这种「毒性关系」。

原本只是一次关于「谁洗碗」的争论,让 AI 分析完,会变成了一场关于「尊严、界限与操控」的权力关系博弈。

因为 AI 的训练数据里包含了大量的互联网心理学文章,在回答中,又倾向于展现自己的专业性,这就很容易「上纲上线」,去给亲密关系贴标签,甚至病理化,它能把生活中的鸡毛蒜皮,上升到了人格障碍的高度。

这种极端案例在报道中不乏见,有很多位受访者表示,在与 ChatGPT 进行了长时间的「伴侣咨询」后,他们的配偶突然指控他们有虐待行为,建议立刻采取法律行动。

在报道中,AI 以伴侣咨询的身份介入关系,最终导致关系破裂的案例数不胜数,而且都遵循着类似的模式。

用户带着主观情绪输入问题,AI 提供符合用户预期的分析和「专业」标签,强化用户的受害者心态;用户把 AI 的分析奉为圭臬,当作「正确且专业的答案」反馈给伴侣,将日常摩擦上升到「人格缺陷」的病理学高度,导致沟通断裂,信任破裂。

实际上,伴侣双方一旦养成了「遇事问 AI」的习惯,他们并不是在解决冲突,而是在绕开冲突。原本应该通过沟通解决的矛盾,需要经历表达、解释、承担责任、协调预期等等环节,但人们把这些最难、最需要勇气的部分通通交给 AI。

更让人难以接受地是,AI 已经不只作用于情侣矛盾,甚至来到了人生情感的每一个重大节点上。

二、节点的逃避

人类正在将最需要真诚和在场感的「情感重大时刻」外包给 AI。

比如,有越来越多的新人正在使用 ChatGPT 撰写结婚誓词。「帮我写一段感人的誓词,提到我们曾在迪士尼相遇,承诺会照顾对方一辈子。」几秒钟后,一段辞藻华丽、逻辑通顺同时非常个性化的誓词就诞生了。

谁能想到,新娘的眼泪可能是由 1750 亿个参数的排列组合构成的。

而到了关系的终点,AI 再次登场。就像辛顿的前女友一样,许多人开始利用 AI 来处理那些「难以启齿」的时刻。

真实的分手需要勇气,你需要面对对方的眼泪、质问,甚至歇斯底里。但现在,只要一句「帮我写一封分手信,理由是性格不合,语气要坚定但体面,顺便指出对方的控制欲。」ChatGPT 会立刻生成一段滴水不漏的文字,用词精准、礼貌疏离,甚至还贴心地引用了心理学术语,阐述了分手的合理性。

《Futurism》的文章还揭示了一个更冷酷的趋势:人类的情感能力,正在像长期不用的肌肉一样萎缩。当我们把「理解」和「表达」这两个核心动作都交给 AI 完成时,我们的大脑就开始偷懒了。

文章中,一位女士回忆道,当她试图和丈夫沟通情感隔阂时,丈夫不再看着她的眼睛说话,而是发来一份长达 30 页的 ChatGPT 生成文档。这些文档里充斥着心理学术语、逻辑分析和对他行为的「完美辩护」。

「他把这堆数据甩给我,他不再分享他的感受,他只是在用 AI 证明他是对的。」

另一个典型的案例是:有一对结婚近 15 年的夫妻关系濒临破裂。在他们有一次吵架后,10 岁的儿子用手机给父母发短信写道「求求你们不要离婚」。而妻子面对儿子短信的第一反应是,打开 ChatGPT 问应该如何回复。

这一片段宛若《黑镜》的剧情,面对至亲的眼泪,我们竟然先要去问 AI 的答案,迷信那个「永远正确」的算法能给出一个比我们更好的「最优解」。

三、当 AI 成了「第三者」

如果说把 AI 当作裁判只是为了在争吵中「赢」,那么把 AI 当作伴侣,则是一场彻底的「逃」。

你可能听过很多离婚理由:性格不合、家暴、出轨…… 但在今年的美国,律师 Rebecca Palmer 接到的案子却越来越魔幻:原告控诉伴侣出轨,出轨方是 AI。

AI 威胁到亲密关系的另一个点是:AI 成为「第三者」|图源:Futurism

在佛罗里达州的法庭上,一位妻子拿出丈夫出轨的证据:她的丈夫每晚躲在书房对着手机低语,账户里每个月都在少钱。经过调查,这笔钱不是流向女主播或网恋对象,而是 AI 的订阅费,她丈夫甚至把银行账户和社保号码等私人信息都告诉了 AI。

最终,她在离婚理由一栏写下:「他出轨了 AI。」

该案并非个例,根据布里格姆杨大学(BYU)与家庭研究所(IFS)发布的最新报告《虚假连接》中,这种现象已成规模:近五分之一(19%)的美国成年人承认与 AI 进行过浪漫互动。

研究 AI 与人类情感关系的《虚假链接》调查报告

为什么一个没有实体的程序,能打败相伴多年的活人?

因为对于那些在婚姻中感到孤独或疲惫的人来说,AI 提供了一种致命的诱惑:它让你在没有任何社交风险、没有任何摩擦成本的情况下,获得了一种被理解、被崇拜的幻觉。甚至面对非人的 AI,你都不会产生「出轨」的道德负担。

而无论是依赖于 AI 提供的「情绪价值」,还是依赖 AI 代替自己去解决真实的冲突,这种依赖,都将构成一种死循环:当人越来越习惯 AI 的「完美回应」后,在面对现实中真实的沉默、语无伦次和情感爆发时,会感到前所未有的恐慌。

于是,他们只能再次躲回屏幕后,选择跳过关系中那些粘稠、混乱但最真实的部分,直接求助于那个永远能给出答案的 AI。

但现实是粗糙的,是有毛边的,是不可控的,情感也是非理性的,这正是算法难以企及的部分。

当人类情感密度最大的领域 —— 亲密关系,正被 AI 侵蚀。

在警惕 AI 越来越像人之前,人类已经在自我割舍掉人之为人的部分,让自己变得更像 AI。

本文来自微信公众号:极客公园(ID:geekpark),作者:Moonshot