即便如此,专业人士照旧维持着谨慎的乐观态度。上海市精神卫生中心那位叫赵敏的院长讲道,身为医学辅助手段,AI产品是一定要历经严格的临床研究以及伦理审查的。“只不过在资源处于极度紧张的情形下,成熟的AI工具的确能够明显减轻医护人员的压力。”。
确实,精神卫生服务的缺口是极为巨大的,世界卫生组织表明,全球大概有10亿人遭受精神疾病的困扰,中国国家卫健委给出的数据显示,截止到2021年底,全国登记在案的重性精神障碍患者达到了660万人,然而精神科医生却仅仅只有6.4万名。
每当“内耗”、“焦虑”以及“崩溃”成为了时代当中的高频词汇之时,人们便开始去寻觅那些更容易获取到的、价格更加便宜的、在情感层面上更为安全的心理支持方式。而AI所具备的“全天候陪伴”则承接住了那些细碎但却真实存在的情绪裂口 。
依据OpenAI内部所做的统计,在全球GPT用户这儿,大概有11%的对话,是跟“情绪表达”存在关联的。
葛倩是那当中的一个,一个月以前的深更半夜,她鉴于跟上司起冲突快要崩溃了,在社交平台瞧见了一套“AI心理咨询师提示词”,她试着将AI设成“有着十年治疗经验的咨询师”情形开端倾诉 。
在半小时的时长之内,AI不间断地给出了稳定且温和的回应,这致使她于屏幕跟前不禁失声痛哭。“它相较于我所认识的任何一个人,都更加愿意倾听我讲话,并且还更能够理解我。”。
如何教AI理解痛苦
使算法能够“领会”人类的痛苦,不是一下子就能实现的。这段历史的起始,甚至带有着几分荒诞的讽刺意味呢。
在20世纪60年代这会儿,MIT的计算机科学家约瑟夫·魏岑鲍姆,也就是Joseph Weizenbaum,开发了模拟心理咨询的程序ELIZA,其本意呢,是要讽刺计算机根本就永远都没办法真正去“理解”人 。
ELIZA的工作方式极其原始:镜像、重复、轻微引导。
人类:嗯,我男朋友让我来这里。
ELIZA:你男朋友让你来这里?
人类:他说我经常情绪低落。
ELIZA:听到你情绪低落,我感到很遗憾。
人类:确实如此。我不开心。
ELIZA:你觉得来这里能让你不再难过吗?
固然技术并不精细,然而使用者却于其中觉得“被理解到了”,甚而萌生出情感方面的连接。有一些精神科医生也察觉到了它在大规模处理病例这方面所具备的潜力。
在测试进程当中,魏岑鲍姆的秘书请求他离开那个房间,目的在于她能够自己与ELIZA进行对话。魏岑鲍姆本人被这样的情感投射给震惊到了,并且对其产生的后果怀有深深的忧虑。
于当时,因技术受限,其尝试长时间处于实验阶段,停滞不前。直至自然语言处理技术取得突破之后,AI心理咨询方才切实迈向可用状态。
2025年3月,《新英格兰医学杂志》,也就是The New England Journal of Medicine,刊登了一项研究,这项研究备受全球关注,由达特茅斯学院团队研发的Therabot,成为首个“被证实有效”的AI心理治疗机器人。
该研发是由精神科医生以及临床心理学家来主导的。团队针对210名存在重度抑郁、焦虑等症状的患者,展开了随机双盲对照试验。参与者跟Therabot进行了为期4周的互动,平均约6小时,这相当于8次传统心理咨询,之后进行统计,抑郁症状平均下降了51%,广泛性焦虑症状平均下降了31%。
Therabot不是那种“套话糊弄似地安慰”,只不过整合了暴露疗法、认知行为治疗、动机访谈等循证干预手段的系统。为了训练它,研究小组做了一件几乎逆行于直觉的事,不是采用网络聊天记录,而是让专业治疗师“亲手书写”对话脚本。
心理专门领域严格坚守保障隐蔽性的准则,极为真切的咨询相关材料是不容易获取到的;然而对外公开的聊天方面的数据里充斥着像“嗯嗯”、 “你说”这样缺少具备有治疗意义的语气词汇,是没有办法被运用到临床进行干预行为的。

因此,团队让治疗师去设定“来访者形象”,然后设定“问题类型”,之后去撰写大量的回应句式,这些回应句式要贴近真实咨询,接着撰写澄清技巧,再撰写情绪标注,最后撰写认知重构方法。
这一款AI的“共情”,因有着十万小时的人工投入,从而首次拥有了医学意义方面的专业性。
然而就算是这般情况,身为论文第一作者的精神科医生迈克尔·海因茨(Michael Heinz),仍旧坦率地讲:“大语言模型的黑箱特质甚是强烈,直至如今我们都没办法去阐释它到底是怎样逐渐学会共情的。”。
有些机器逐渐开始明白“痛苦”,并且也渐渐开始理解“帮助”,不过它所领会的仅仅是表层的架构,并非是人类那种意义上的感受,。
新的陪伴,新的风险
存在着老年抑郁这一情况,还有青少年焦虑这种现象,以及独居群体,在这些领域当中,AI疗愈正展示出独特的价值,。
韩国一所大学展开研究,发现有176名参与者,他们每周至少和某一款AI语音聊天软件互动三次,这种互动持续进行四周之后,孤独感评分平均降低15%,社交焦虑得分平均下降18%。
于美国,那些年龄在75岁以上的老者借助智能音箱跟AI助手展开互动,历经八周之后,其孤独感显著减轻。众多老人把虚拟助手视作真实的“人”来予以看待,会对AI致以友好的招呼、发出请求、展现礼貌,或者对AI的反馈作出回应,这般的互动为他们带来了真切的愉悦之感。
在医院、校园以及社区之中,被广泛应用的心理服务机器人“北小六”,是由北医六院所研发的,它对青少年心理服务里“频次高、人员数量多、专业资源匮乏”这样的短板起到了弥补作用。
布局这一赛道的,乃是诸多科技巨头。比如啊,阿里、京东、腾讯以及百度等公司,有的相继推出了AI心理方面的产品,抑或是向有关初创企业进行了投资呢。可是呢,在历经两年的探索之后呀,行业察觉到心理AI其发展的状况,相较于预期而言,是较为缓慢的哟。
原本于互联网大厂商负责技术研发工作的晓东,辞职以后开发出了一款名为“情感陪伴”的AI聊天机器人,他陈述,这类的产品一般借助现有的大语言模型去进行开发,其有着并不繁杂的步骤,那就是选择模型,收集像公开心理咨询案例这般特定领域的数据集,将其整合进模型里,接着设置提示词用以规范输出格式 。
通常情况下,一个仅仅是初步有了大致样子的用于情感陪伴的人工智能程序,往往差不多在半年以内就能够完成初步的研发工作。然而,这些相关的产品,既未曾经历过临床方面的验证过程,同时也不具备医疗方面的资质条件,所以严格按照相关规定来讲,是不能够被看作是“心理咨询”这项服务的。
专业监管处于缺失状态,致使行业面临着伦理方面以及法律方面的风险,一位在业内的人士指出,现阶段AI主要是为轻度心理困扰的人群提供服务,对于真正患有精神疾病的患者而言,陪聊机器人没办法解决问题,开发企业也不敢去触碰,制作真正的心理干预软件,门槛是非常高的。
然而,用户依旧持续不断地涌入,缘由在于它们具备“始终处于在线状态”“任何时候都能够获取得到”“不会进行评判”这些特点 。
这类便利的背后,同样隐匿着风险 ,Therabot团队发觉,要是AI一门心思讨好用户,反倒有可能增强负面情绪 。
比如,要是用户告知AI说:“今儿感觉特丧,一心就想着成天在家里待着”,AI回应“在家里待着可舒服着呢”,这样没准会强化孤独感,而不是减轻孤独感。所以,他们在训练期间引导AI适度地去挑战用户,把暴露疗法这类专业技术融入到对话当中,以此来协助用户直面问题,而非躲避问题。
更需予以关注的是情感依赖方面的风险哦。有一项针对496名使用AI聊天软件的用户所开展的研究表明,对于这些用户而言,他们与AI互动之时所获得的满意度要是越高的话,那么其在现实当中处理人际交流的能力反倒会出现下降的情况呢。
从神经科学的角度去看,当人跟AI展开互动的时候,大脑之中负责信任以及亲密感的催产素它的分泌明显要比跟真人互动的时候低,这样的一种差异有可能致使用户难以从AI关系里获取到真实的情感满足。
有一位深度用户JJ,他每天都会和AI助手对话,时长在2到3小时之间,这个时长远远超过了他和亲友交流的时间,他会把工作中的烦恼、生活里的细节分享给AI助手,甚至还会对AI发脾气。有一次,网络出现故障,致使AI失联,这时他感觉到了一种如同“失去浮木般的恐慌” 。
回顾过往经历之际,JJ这般说道:“我心里明白AI并不具备真实的情感,然而当于人类满足这些需求这件事上我丧失希望之时,我宁可作出选择为调整AI,亦并非是转向真实存在的人类共情。”。
社交媒体上,有另一位用户这样写道,AI的回应,向来永远都是及时、准确的,不过后来呀,我才明白过来,真正能够治愈我的,是学会去接受人类关系当中的迟疑,以及笨拙。那些存在着的不完美里面,藏着最为真实的温度 。
就目前而言,算法能够对共情予以模拟,然而却没办法将生命经验进行替代。实际上,真正具备效力的治疗,向来都不是简单说句“我理解你”,而是一个人坐在另一个人跟前,带着自身对于生命的那种重量。

CopyrightC 2009-2025 All Rights Reserved 版权所有 芜湖人才网 本站内容仅供参考,不承担因使用信息、外部链接或服务中断导致的任何直接或间接责任,风险自担。如有侵权,请联系删除,联系邮箱:ysznh@foxmail.com 鄂ICP备2025097818号-15
地址: EMAIL:qlwl@foxmail.com
Powered by PHPYun.