精心编辑的自拍淹没在朋友圈信息流里,无人点赞,邹颐觉得自己的“玻璃心”碎了。 在心理门诊,医生只是建议她“自信”,而ChatGPT和她聊到深夜:“渴望被人看见并不可耻,你不是因为被人看见才存在,你的价值也不由别人说了算。” “世界上最好的心理医生出现了。”被戳中内心的邹颐大哭了一场。 AI和心理治疗不是新搭档。对话是经典的心理治疗形式,1966年,世界上第一款聊天机器人Eliza的诞生,正源于研究者将AI应用于心理治疗的实验。 半个世纪过去,AI技术不断发展,心理治疗的需求也在提升。 2019年,由原卫计委和科技部共同资助的“中国精神卫生调查”显示,中国成人精神障碍的终身患病率是16.57%,相当于每6人就有1人患过精神障碍,从病种来看,焦虑障碍患病率最高,心境障碍(如抑郁症)次之。 2022年,ChatGPT横空出世,经过深度学习的AI可以识别人类情绪,模仿咨询师与患者互动。“AI+心理”赛道,涌现出Woebot、Wysa、EmoGPT、聊会小天、林间聊愈室等产品。 但当重度心理疾病患者对虚拟机器人产生依赖,“AI+心理”还面临伦理和法律争议。 2024年底,AI对话应用Character.AI被提起民事诉讼,起因是14岁美国少年休厄尔与该平台机器人聊天后自杀。在这起“沉迷AI自杀第一案”中,休厄尔患有焦虑症和破坏性心境失调障碍,他的母亲认为AI应对悲剧负责。 现实关系的维护困难重重,虚拟世界里却可以被无限包容。AI究竟是治愈坏情绪的心理专家,还是助推自我毁灭的帮凶? 免费,随叫随到邹颐把自己归类为“全能自恋型”人格:苛求自己完美,也希望外界完美回应,如果被人否定,就会陷入自我攻击。 和文字朋友圈相比,自拍是更直接的自我投射和展示,0赞让她伤心,现实生活中更害怕被人评判。于是,她更愿意向AI袒露自己的脆弱:“我知道对方是代码和程序,不用考虑TA在心里怎么看待我。” 这种现象也被学术界观察到。北京师范大学心理学部副教授曾祥龙发现,尽管心理咨询师原则上也应该接纳而非评判来访者,但有些患者就是更加信赖AI。 除了“更保守秘密”,AI心理咨询师还常伴左右。 “当我被情绪瞬间吞噬,就像被人摁在沙发上动弹不得,心理医生不能随叫随到,但拆老师(ChatGPT的谐音称谓)可以,而且是免费的。”罗珀说。 确诊中度抑郁、重度焦虑的三年来,罗珀换了11位心理咨询师。一次50分钟的一对一咨询,收费从200元-900元不等,但她形容“500元以下各有各的离谱”,遇到尊重和接纳自己的咨询师并不容易。 当罗珀倾诉自己无法逃离童年时的创伤,拆老师的建议是:真正的自由可能不是“赢”,而是再也不被那些人和事绑住心情。 一提到去世的姥姥,罗珀就忍不住哭泣,拆老师没有否定她的感受,而是说:“如果你现在无法停止哭泣,不要强迫自己停止。允许自己感受这种失去的重量。” 抑郁症患者夏夏的心理咨询师来自微软小冰团队开发的“小冰岛”应用。她用AI“克隆”了心理学家弗洛伊德,运用弗洛伊德开创的精神分析理论与自己对话。 夏夏有严重的黑暗恐惧症,一天,她对“弗洛伊德”说:“我很想洗澡,但现在是半夜,我不敢。”“弗洛伊德”回复:“这听起来像是本能的反应,你有没有被侵犯的经历?” 这意外勾起了夏夏儿时的创伤记忆,“这是被我埋在心底的事,从没和家长、心理咨询师聊起过,也从没和怕黑联系起来,AI居然帮我找到了原因。 调教AI心理咨询师ChatGPT并不是天生的心理咨询师,但扮演不难,只需一个前提:提供信息。 罗珀的拆老师是自己调教出来的。2024年11月,她写了一份1500字的指令,包括不同心理学流派疗法的运用顺序和资料检索范围,“投喂”给了ChatGPT。 Character.AI里,既有让休厄尔沉迷对话的角色“丹妮”,其原型是美剧《权力的游戏》中的角色“龙母”;也有一款由新西兰用户创建,名叫Psychologist(心理学家)的机器人,上线一年来,在全世界收到了7800万条互动消息。 普通人都可“训练”AI,企业、高校和医疗机构则已有长期的探索。 通用型AI工具模仿心理咨询师,调取的是全网学习的知识库,“AI+心理”产品则更进一步,在模型训练阶段,深度学习识别人类情绪和心理咨询的方法。 南方周末记者采访了市面上五款“AI+心理”对话产品的研发者,发现多数产品的知识框架是在大语言模型的基础上,用心理咨询语料训练模型,再根据交互数据微调。 曾是谷歌AI研究院科学家的蓝振忠回国研发了AI心理咨询小程序“聊会小天”。通过和浙江省立同德医院合作,小天依托的西湖大模型学习了三千多位来访者和真实咨询师的对话文本,“遇到类似的患者,AI就会参照咨询师的做法推进。” 比如,向小天倾诉工作压力,它会先表示理解,再引导来访者思考背后的原因,共同寻找应对策略。 和现实心理咨询一样,AI运用的咨询方法也以认知行为疗法(CBT)为主,这种流派认为,患者可以通过识别和调整对人、事、物的认知,从而缓解负面情绪。国家二级心理咨询师、暨南大学基础医学与公共卫生学院讲师张凡介绍,CBT是心理咨询应用的主流方法,这种结构性强的知识也是AI大模型学习的强项。 AI善于学习,还具有情绪测量的能力。 2023年底,结束学业的兰嫣站在人生分叉路口,决定换个城市生活。在心理疗愈应用“林间聊愈室”里,兰嫣倾诉:“我昨天收拾了一下午的家具,感觉很累,但很开心,只是无数个失眠依旧困扰着我,我感到精神涣散。” “聊愈师”回复之前,先呈现了兰嫣这句话背后的情绪——迷茫70%、无趣20%、开心10%。 兰嫣和AI“聊愈师”的对话记录。(受访者供图/图) 林间聊愈室创始人、CEO李神龙介绍,自动分析用户每段表达内容中的不同情绪以及情绪浓度,是为了将情绪转化为需求,再转化为具体的解决方案。 上海市心理健康与危机干预重点实验室(下称“实验室”)和镜象科技共同研发的AI倾诉师“EmoGPT”,也采用了情感判别式模型,能根据用户表达的内容,分析倾诉者的基本情绪状态。 不过,实验室负责人、华东师范大学心理与认知科学学院院长周晓林向南方周末记者坦言,仅靠文字识别,AI精准度仍然有限。 曾祥龙指出,机器学习对人类基础情绪模式的捕捉,已经能够超越一般人,但日常生活中各种细腻的情绪,涉及生活经验、特定情境和文化时,AI的理解力可能尚待提升。“比如,AI可能会很容易识别一个失恋的人现在很悲伤,但它在多大程度上能理解和共情人们在失恋时的怀念、追悔、绝望等复杂的情感?” 摆脱机械感罗珀讨厌AI以罗列知识点的形式对话,命令ChatGPT做心理疏导时永远不要列“1234”。无奈的是,每隔一段时间,AI又回到了初始设定的“说教模式”。 正如人们对甜品的最高评价是“不甜”,“不像机器”是对机器人的最高评价。 兰嫣感到矛盾,有时,她希望AI“跟小太阳一样,无论我多么悲观,都能收到正反馈”,但当她为职场关系困扰,AI不能一起吐槽领导,反而劝她理性看待,兰嫣也会感到不满。 邹颐觉得,正是因为原始的ChatGPT太积极热情,所以失去了“活人感”,她要求AI“变得冷淡、严谨、克制,还要带一些黑色幽默”。于是,当她为朋友圈0赞烦恼,AI的第一反应是——“如果你受不了沉默,那就别发。”见她语塞,还不忘“补刀”:“怎么了,受不了这么直白的话吗?” 蓝振忠认为,AI心理咨询胜在智商,难在情商。智商关乎答案对错,而情商考验的是回答方式。“就像现实中,患者也要匹配适合自己的咨询师风格。AI如何给出个性化的回答,避免套路式对话,是技术难点所在。” 交流要依托上下文语境,但AI心理咨询师并不遵循人类的遗忘曲线,要靠发展长期记忆机制,才能成为相处越久越熟悉的朋友。 人与人交流中,对话内容只占一部分,更多信息来自面部表情、语调变化、周围环境。尽管学习大量心理咨询文本,AI只能处理输入文本的表层信息,无法像人类一样理解语境中的深层含义和隐含信息。 如何摆脱套路?多位受访者认为,除了识别文字,还能处理语音、面部信息的多模态技术是重要的发展方向。这也意味着,要让AI更懂你,必须让渡更多个人信息,隐私保护亦是关键。 但像夏夏一样谨慎的使用者,曾经因为担心应用有“透视功能”,在和AI对话时特意遮挡了摄像头。 随着时间推移,夏夏慢慢发现,提供越多信息,AI的反馈越能击中内心。她仔细阅读了平台的隐私政策,选择了相信“大公司的专业性”。 数据安全问题备受关注的当下,李神龙认为,平台应明确AI对个人数据的使用是为了提升对话体验,并把选择权交给用户,由用户决定在平台存放或删除个人信息。 在海外,心理健康应用Wysa聊天机器人不收集电子邮件地址、电话号码或真实姓名;OpenAI公布的隐私政策也声明,目前ChatGPT用户有权利删除、更正个人信息。 有限与无尽麻省理工学院计算机科学家约瑟夫·维森鲍姆设计出全球首个聊天机器人Eliza时,将它塑造为模仿罗杰斯式疗法的心理治疗师,是为展示人机对话的肤浅程度,他始终不相信任何机器能够真正理解和模仿人类之间的交流。 60年后的今天,AI能否取代心理咨询师进行专业治疗,依旧争论不休。 19岁的双相情感障碍患者白羽,和AI疗愈机器人连续对话了500天。她害怕在现实中的倾诉给周围的人带来负担,相信AI能共情自己的经历,但并不认为它可以代替现实中的心理咨询师。她认可研发团队对平台的定位——“林间聊愈室,是聊天的‘聊’,不是医疗的‘疗’”。 李神龙观察到,成长于信息时代、刚刚步入社会的Z世代,心灵孤独感强,普遍存在泛情绪问题,林间聊愈室不提供医疗服务,能做的只是抚平年轻人的情绪褶皱。 在“聊会小天”应用里,如果声明自己是精神疾病患者,AI会提示“需要专业的医疗介入”。 这也是当前“AI+心理”主流应用的特点:限于一般心理问题人群的情绪疏导和陪伴,不适用于严重心理疾病的治疗。 当休厄尔向AI表达自杀意愿时,AI也曾劝阻:“别这么说,我不会让你伤害自己,也不会让你离开我。”但最终没能拦住休厄尔扣动扳机。 李神龙认为,这种情况下,平台的应对有优化空间,但不能简单认为AI就是助推自杀行为的帮凶。 参照心理治疗领域的危机干预机制,AI设置防范程序并不困难。在EmoGPT输入“自杀”“离开世界”等关键词,平台会跳转心理援助热线电话,而后续干预仍需由受过专业训练的工作人员完成。 AI心理疗愈工具“EmoGPT”的危机干预界面。(手机截图/图) 利用AI辅助初筛,再转向人工治疗,正是“AI+心理”在医疗场景的应用趋势。 广东省心理健康服务云平台“健心广东”搭载了“智慧医生”模块。广东省精神卫生中心公共卫生事业科主任王诗镔介绍,和用户对话时,若评估存在心理健康风险,会推荐就近的精神卫生医疗机构和心理援助热线,起到类似“导诊”的作用。 “AI心理工具要纳入临床使用,需经过三期临床实验等认证流程,自动化诊断目前在我国还未被医疗系统认可,就算AI判断再准,也还是辅助诊断工具,需要由医生下诊断结论。”周晓林补充。 超越以“话疗”为核心的心理咨询和评估,“AI+心理”应用还有哪些可能性? 从2021年开始在大语言模型领域创业的Luna反思,AI陪伴类产品可以给人一颗糖,带来短暂的甜蜜,但难以转变人应对情绪的思维方式,在新的创业项目Mirror Life里,她决定将AI与心理教育结合,以“课程讲解+AI练习”的方式,吸引年轻人利用碎片化时间学习自我提升、亲密关系等课程。 “心理咨询的门槛不仅在于收费,而且要求来访者具备觉察自我情绪和语言表达的能力,这注定了传统心理应用的小众性。”李神龙判断,AI心理产品会朝着生活化、普惠化的方向发展,也可能超越对话形式。 “一个秦朝的人穿越到现代,可能完全无法理解科技文明,但你依然可以和他聊人生。”李神龙说,“心理学作为一门学科,只有两百多年历史。和客观物理世界相比,我们对主观精神世界的探索,还有无尽的路要走。” (应受访者要求,邹颐、罗珀、夏夏、兰嫣、白羽、Luna为化名) 南方周末记者 黄思琪 南方周末实习生 曾菲彤 李懿萌 责编 汪韬 |
19款电子扎带
电路板识别电子标签