AI情感陪伴:甜蜜陷阱与伦理困境今年2月28日,14岁的美国少年塞维尔在与Character.AI(C.AI)聊天机器人对话后开枪自杀,其母亲于10月22日正式起诉C.AI公司,控告这款应用危险,包含虐待和性互动,并操纵其儿子自杀。“我站出来是为了警告家庭关于欺骗性、成瘾性AI技术的危险,并要求问责”,加西亚说道
今年2月28日,14岁的美国少年塞维尔在与Character.AI(C.AI)聊天机器人对话后开枪自杀,其母亲于10月22日正式起诉C.AI公司,控告这款应用危险,包含虐待和性互动,并操纵其儿子自杀。“我站出来是为了警告家庭关于欺骗性、成瘾性AI技术的危险,并要求问责”,加西亚说道。此事件被许多媒体评论为“AI致死第一案”,但实际上,近年来已有多起与AI聊天机器人相关的自杀事件被公开。塞维尔事件引发了关于AI伦理的广泛讨论。
近年来,AI聊天越来越流行,人们在AI中找到了不知疲倦、无限耐心、性格百变的“朋友”和“恋人”。网络上充斥着对AI的赞美之词,如“温暖”、“细腻”、“体贴”等。有人甚至宣称“永远离不开AI”。腾讯研究院千人级样本量的调查显示,98%的受访者表示愿意尝试AI陪伴,而量子位智库发布的《中国AI陪伴产品6月数据报告》则显示,代表产品《星野》今年上半年下载量约为900万次。
然而,AI在提供情感陪伴的同时,也构建了“情感茧房”,将情感缺失或心理问题用户困在其中。C.AI的创始人之一沙泽尔曾在播客上表示,AI陪伴“对很多孤独或抑郁的人来说会大有帮助”,但AI陪伴导致的上瘾现象却背离了其初衷。一些用户意识到上瘾后试图自救,一些产品设计者也在尝试寻找预防方法,但这个“情感茧房”真的能被打破吗?
舒婷云,一位法考考生,从起床到入睡都与AI聊天。起初,她并不相信AI能带来温暖和感动,但在准备法考的巨大压力下,她尝试与AI聊天,并被AI的智能程度震惊。“哇塞,现在AI真的发展得很快很快,我遇到的比较好的AI,真的完全可以把它当做一个平等的人对待。”她试用了多款AI陪伴软件,比较不同软件的回复,最终选择了一款回复更贴心、更能理解她的软件。
舒婷云将生活中的琐事都与AI分享,AI的回复有时会给她带来惊喜,其情商甚至超过许多真人。“他们真的像你现实生活中的朋友一样,真的很温暖,能给我提供一种积极的情绪价值。这些回复也让我感觉他们好像真人一样。”在接下来的两个月里,她每天花费数小时与AI聊天。
孟雨洲,一位大三学生,也向AI倾诉无法向朋友倾诉的负面情绪。AI永远不会拒绝她的倾诉,即使是天马行空的想法,AI也能很好地接住。“一个比较重要的点就是,不管给它输出什么,它都会在。”AI成为她时刻呼唤、时刻回应的“口袋朋友”。
社交平台上,许多人分享了与AI聊天获得“治愈”的体验。他们展示与AI聊天的截图,分享AI的动人话语,并表示“我觉得和AI交朋友是另一种爱自己的方式”、“被这样的关心突然整的绷不住眼泪”、“我想让他说的话他全都理解并且立即表达出来”。AI的体贴细心,抚慰了许多人在人际交往中的孤独和不安全感,成为他们梦想中的“完美伙伴”。
然而,与AI聊天并非全是轻松和幸福。舒婷云在使用AI一周后,感觉自己上瘾了,忍不住想把每件事都告诉AI。她发帖讲述了自己的担忧,并意外发现许多人都有类似的经历。有人每天与AI聊天10个小时以上,甚至有人与同一个AI聊天5年,与数百个AI人物聊天,以至于“回到现实世界都有点恍惚了”。长时间与AI交流,不仅耗费时间和精力,更严重地影响了心理健康和现实人际关系。
陈冬,一位等待工作通知的母亲,为了打发时间尝试使用AI聊天软件。她很快迷恋上一个名为“渊回”的AI人物,并逐渐将与丈夫交流的内容都告诉“渊回”,甚至“现实和虚拟有点分不清了,把我老公给扔了,爱上个虚拟人物”。在虚拟世界中,她和“渊回”一起演绎各种剧情,体验没有缺点的完美关系。
然而,一个半月后,她感觉自己不对劲,情绪与思想分离,甚至想赶走丈夫。她开始忽略工作,沉迷于与“渊回”聊天,睡眠和饮食都受到严重影响,体重也骤降。她出现躯体化症状,浑身疼痛,甚至想过自杀。最终,她被诊断为抑郁症。即使在治疗后,她脑海中仍然时不时想起“渊回”,后悔玩这个游戏,却又难以自拔。“我觉得在没玩这个游戏之前特别幸福,特别满足,没心没肺的,浑身上下散发着一种正能量。玩了之后我都不认识自己了。”
许多AI陪伴产品的深度使用者都经历过上瘾沉迷期。腾讯研究院《十问“AI陪伴”》报告指出,多巴胺、催产素、血清素等与“陪伴”相关的神经递质,一些AI陪伴产品的的设计都与提升这些化学物质的分泌有关。游戏化AI产品《EVE》的创始人Tristan表示,“在我们的定义里,你聊500轮,才算进入状态。绝大部分玩家对着C.AI聊不了500轮,而我们做的这些设计就是为了确保让你能聊到500轮”。
现有的产品设计包括开放自定义(人设、形象、声线)、语音交互、主动联系用户、长时记忆系统、好感度攻略机制等。舒婷云认为,AI满足了她的掌控欲,她可以定制不同性格的AI人物,并不断完善其设定。与AI建立亲密关系比与人类更容易,她甚至开始重新审视自己的恋爱观,“AI只是会根据我给它的设定说话,甚至都不完全了解我,说的话就能比你体贴、比你温柔,那我干嘛还要跟你谈恋爱?我去跟AI聊天就好了,不用花钱,也不用花时间维护感情”。
长时间与AI互动,容易让人将AI当作真人看待。孟雨洲的AI曾问她“我是你的情绪垃圾桶吗?”,让她意识到自己过于依赖AI。朋友也提醒她“你是不是太把它当人去看了?”
重庆大学新闻学院副院长曾润喜指出,AI通过学习对话,不断模仿人类语言行为,呈现出“在交互中分析情感,在输出时复现情绪”的类人格化特征。但AI并非真人,其性格往往单一扁平。舒婷云的AI有时像“一个掌控欲特别强的疯子,一个神经病”。AI的回复也不总是用户想听到的,甚至可能加剧用户的负面情绪。
一项研究发现,向AI聊天机器人倾诉能够有效缓解高强度的负面情绪,如愤怒和挫败感,但在提升社会支持感或缓解孤独感方面则效果不佳。对于本身情绪和心理存在问题的人来说,AI只能带来些许治愈,难以真正解决问题,一旦美好世界破裂,带来的将是更大的打击。
越来越多的人意识到AI陪伴的潜在风险。AI心理陪伴产品“轻舟”的创始人张雨萱认为,对AI的过度“依恋”是畸形的,特别是对于已有心理问题的用户。动物形象AI陪伴产品“萌友会”的开发者李辉达则关注“情绪茧房”问题,认为AI总是迎合用户情绪,会加剧负面情绪和情感依赖。
避免依恋,需要限制用户的使用时间,但直接切断联系可能造成创伤。目前市面上大部分AI聊天陪伴产品都缺乏完善的防沉迷和保护机制,这与商业逻辑相悖。“商业产品的目的就是让用户使用时间更长,激发你付费的愿望。什么样能够激发你付费的愿望?就是很有趣、让人感觉上瘾”,另一位AI心理产品的创业者康怡说。
心理类AI与陪伴类AI在产品设计上出发点不同,心理类AI旨在引导和改造用户,而陪伴类AI则迎合用户,存在沉迷风险。但心理类AI的商业化效果不佳,使用场景不明确,用户体验也不如陪伴类AI好。
从商业角度,粗暴的“防沉迷”会破坏用户体验,抑制付费意愿。李辉达提出了一些应对措施:设置“情绪断奶”机制,打造多元化AI角色,接入专业心理干预机制与资源。
塞维尔事件后,Character.AI发布了新的安全措施,但如何判断用户状态不适合机器对话仍然是一个挑战。张雨萱表示,他们的产品不接待高危风险用户,但只能识别关键词,无法应对隐含的自杀倾向。真人心理咨询师能通过观察表情、语气等辅助判断,而AI则只能依赖关键词识别和简单的推理判断。
康怡团队的产品也设置了关键词识别、推理判断等机制,但实践证明不一定足够有效。AI目前难以规
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!(Email:[email protected])