APP下载

人工智能心理咨询的发展与应用

2022-06-24李敬荣赵然张玉

心理技术与应用 2022年5期

李敬荣 赵然 张玉

摘 要 基于对话技术的人工智能研究蓬勃发展,而临床心理咨询是一个典型的、运用对话技术达成目标的领域,由此,人工智能心理咨询成为一个全新而且热门的发展方向。本文全新定义人工智能心理咨询这一概念,梳理人工智能心理咨询的初期发展历程和应用研究,详述人工智能心理咨询的相关理论——解释水平理论、情绪对话模型和人工智能心理咨询技术,对人工智能心理咨询的类型、咨询效果和伦理关系进行全面总结,并总结人工智能心理咨询面临挑战。人工智能心理咨询可以解决我国心理咨询供给侧不足的问题,还能提供个性化心理咨询服务以满足不同群体的心理健康需求,全面提高心理健康服务效率和质量,科学地提供专业心理咨询,提高我国国民心理健康素养水平。

关键词 人工智能心理咨询;聊天机器人;情绪对话模型;人工智能心理识别;心理健康数字化应用

分类号 B849

DOI: 10.16842/j.cnki.issn2095-5588.2022.05.005

1 引言

世界格局多变,全球疫情形势严峻,大众也面临着更多的心理挑战,当下年轻人的心理健康状况不容乐观,尤其是面临城市化和互联网化带来的生活压力,抑郁症、拖延症、焦虑症、强迫症、社交恐惧症等新型心理问题正在成为流行的“时代病”。一项2018年的调查表明,中国约有41.1%的抑郁障碍患者共病其他精神障碍,其中29.8%的患者共病焦虑障碍,13.1%的患者共病物质使用障碍,7.7%的患者共病冲动控制障碍,研究结果还显示,大多数抑郁障碍患者均存在明显社会功能损害,且卫生服务利用率很低,很少获得充分治疗(黄悦勤, 2018)。

同时民众对心理健康的需求巨大,有研究表明88%的受访者认为心理健康工作重要,但在实际生活中,国民感知到心理咨询服务不便利,心理咨询行业存在服务体系不完善,相关法律缺失等问题(刘燊, 柏江竹, 2022; 傅小兰, 张侃, 2019)。国内心理服务平台简单心理(2021)发布的2020大众心理健康洞察报告显示,超过80%的受访者表示有过抑郁、焦虑等情绪困扰,78.34%的受访者认为心理健康问题很重要。人们对心理健康前瞻性和预防性的需求大幅增加,政府也随之出台相应政策,国家发展和改革委员会规划司(2021)发布《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》,其中第四十四章第一节“构建强大公共卫生体系”中指出要“完善心理健康和精神卫生服务体系”;第五十五章第一节指出“健全社会矛盾综合治理机制。健全社会心理服务体系和危机干预机制”。可见我国政府与国民都相当重视心理健康问题,心理咨询行业也逐渐被大家关注和接纳。

在美国, 每100万人口就有1000人(1000∶1)从事心理咨询服务,按照此比例,中国至少需要140万名心理咨询师, 2018年我国持证心理咨询师约为60万人,从业率仅达5%(江成程, 2018);截至2020年3月,中国心理学会(2020)累计发展个人会员约13000人,可见,目前执业的专业人士远远不能满足我国庞大的心理需求,且相当多的持证心理咨询师并未胜任咨询工作;傅小兰等人(2019)的报告中也指出我国心理咨询行业存在从业人员专业性相对较低的问题,因此我们必须重视心理咨询服务的专业性,在保证心理咨询质量的同时,扩大心理咨询服务的范围。

面对疫情下的严峻挑战和对心理咨询的迫切需求,线上心理咨询在疫情期间发挥作用,逐渐成为心理咨询的主导形式(李玲, 黄艳苹, 2021)。而中国心理咨询行业存在的供需矛盾让人们放眼前沿科技,将人工智能技术尝试应用于心理健康和心理咨询。本文对基于人工智能的心理咨询进行概念化说明,梳理人工智能心理咨询前期发展和实际应用,论述人工智能心理咨询的理论基础——解释水平理论、情绪对话生成模型和其依托技术,对人工智能心理咨询的不同分类、咨询效果和伦理关系全面总结,归纳人工智能心理咨询面临挑战。人工智能心理咨询这一新兴产业将会大大改善我国心理咨询现状,在满足大量用户心理咨询需求的同时,真正关注人们的心理健康,促进社会发展,保障我国国民心理健康素养。同时人工智能技术也将出现质的飞跃,人类真正进入强人工智能时代。

2 人工智能心理咨询前期发展

心理咨询是指运用心理学的方法,对心理适应方面出现问题并企求解决问题的求询者提供心理援助的过程。人工智能心理咨询,即采用人工智能技术的机器人或对话系统,为来访者提供心理援助和心理支持。人工智能心理咨询可以通过深度学习技术借鉴大量咨询师的专业知识与经验,通过情绪对话生成理论构建心理咨询模型,为来访者提供专业的心理咨询服务。人工智能简称AI,因此,有研究者将其称为AI心理咨询(史梦璐, 2016)。

近年来,民众对心理咨询的需求量猛增,但国内专业心理咨询师数量远远不足,且目前专业心理咨询师的培养时间久,要求高,时间金钱等消耗巨大。比如,中国心理学会注册心理师要求学员为心理学相关专业硕士学位且直接咨询时长不少于150小时,接受注册督导师面对面督导时长不少于100小时等,这意味着在3~5年的时间内,我国具备胜任能力的心理咨询师依然稀缺。2020年,世界各地发生新冠肺炎疫情,面对这一公共卫生危机事件,我国大量群体需要及時的心理疏导和专业的心理咨询,因此基于网络的线上心理咨询逐渐成为主导的咨询方式。人工智能心理咨询不仅能缓解我国咨询行业供给侧严重不足的问题,满足广大人民的心理健康需求,更能提高基于互联网的线上心理咨询服务的质量,促进我国心理健康战略部署。因此在人工智能对话系统的不断发展中,人们将机器人技术和心理咨询相结合,更新迭代了多个社交机器人,并将社交机器人运用在医疗保健、老年人护理、自闭症儿童及抑郁症患者等的治疗中,并且取得了相当不错的成效(郭怡, 侯晨雨, 2021; 李睿强, 2016; 袁钦湄等, 2020; Dawe et al., 2019; Fulmer, 2019; Prochaska et al., 2021)。75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

2.1 人工智能对话机器人研发历程

人工智能是能理解人类语言,执行涉及复杂操纵的机械任务,可以解决涉及大数据的复杂问题,并以类人方式回应的数字技术。人工智能在当下生活已经无处不在,从社交媒体到语音智能助手,从人脸识别系统到数字化车间,人工智能技术帮助人们获取信息,促进社会交往,提高工作效率。

对话机器人(chatterbots),也被译为聊天机器人、虚拟代理等,是模拟人类对话的计算机程序(Deryugina, 2010),它能够在人类环境中与人进行自然有效的人机交互,并通过赋予其情感化和人性化的特征,给人以相应的情感交互体验(邓卫斌, 于国龙, 2016; 李烨, 2010; 史梦璐, 2018)。

1966年,约瑟夫·魏森鲍姆在麻省理工学院开发了第一个聊天机器人伊莱扎(Eliza)。伊莱扎会使用一些技巧来展开对话,例如重复回答一个人或提供开放式的问题来创设对话场景。魏曾鲍姆发现,人们相信他们在和一个真正的治疗师交谈,有些人还透露了非常私人的秘密(Knight, 2018)。计算机化认知行为治疗(CCBT)是通过电脑交互界面,用高度结构化的多种媒介互动方式(如网页、漫画、动画、视频、声音等)来体现认知行为治疗(袁钦湄等, 2020)。Calm和Headspace等应用程序能提供信息和自助指导,教授健康的应对技能,如冥想或正念;Ginger、Silvercloud、Unmind和Together all等平台能帮助用户与心理健康专家建立虚拟联系以进行咨询和治疗,或帮助用户相互交流,以获得支持和社会联系;国内的对话机器人有小丘和对话系统EVA;2017年,斯坦福大学研究人员开发了一款Facebook对话机器人——Woebot,它是一种自动会话代理,以简短的日常文本会话格式提供认知行为疗法,以情绪跟踪和量身定制的对话为中心,根据用户的输入和选择,专注于CBT心理教育、应用心理治疗技能来改变认知、正念练习等(Prochaska et al., 2021),且研究发现Woebot可以在两周内减轻学生的抑郁症状(Fitzpatrick et al., 2017)。对话机器人已经具备了心理咨询的基础技能,提供即时倾诉功能,时刻陪伴用户,给用户情感支持。

2.2 人工智能对话机器人应用研究

人工智能对话机器人被研发至今,在日常生活中一直具有陪伴、倾诉和情感支持的功能,因此近年来不断被应用于心理治疗及心理健康干预,其中Paro、NAO、CRECA、Betty和Haptic Creature等社交机器人被用于不同年龄段个体的心理健康管理,已被证实可以引导积极情绪、 提高锻炼动机与幸福感、 降低焦虑及心率(郭怡, 侯晨雨, 2021)。

在医疗保健方面,人工智能聊天机器人可以帮助减轻癌症患者焦虑、抑郁等负性情绪(史梦璐, 2018; Alemi et al., 2014);聊天机器人可以用于养老院减轻老人的孤独感和护士的职业倦怠(史梦璐, 2018; Wada et al., 2004)。NAO、Rrobotic、Softbank等机器人被应用于医疗护理及特殊教育等机构和领域(Dawe et al., 2019),比如通过课程模块为自闭症儿童进行康复训练(李睿强, 2016)。Joranson等人(2015)发现Paro可以减少痴呆症患者的躁动和抑郁;在护理方面,有些人更喜欢机器人帮助自己做康复运动,以减少麻烦他人的内疚感(史梦璐, 2018; Cherry et al., 2017)。人工智能技术可以对医疗信息的大型数据集进行快速模式分析,其算法能够评估人眼无法检测到的异常或细微之处,有些方面人工智能表现得与经验丰富的临床医生一样好(Graham et al., 2019; Hosny et al., 2018; Sengupta & Adjeroh, 2018)。

借鉴人工智能技术的模式识别, 朱廷劭(2019)提出了基于人工智能技术的心理识别——生态化识别(ecological recognition, ER)方法,充分利用生态化行为数据,结合人工智能技术,实现对个体心理特征的自动识别。他们也将生态识别成功应用于家暴、在线干预自杀、分析网络热点下的社会心态等现实研究,如朱廷劭(2019)使用生态化识别开展家庭暴力的心理影响研究,追踪受害者在遭受家暴前后的网络行为,利用预测模型对比家暴前后的抑郁程度,发现亲密关系间暴力会导致受害者抑郁程度显著升高,由于测量时间较短,受害者的自杀意念与幸福感两项心理特征没有表现出显著性差异。这意味着,生态化识别可以预测并对比家暴后人们的抑郁程度这一心理特征,虽然目前受限于时间和技术,但是生态化识别这一技术可以在大数据时代对人们的心理状态进行快速追踪研究,拥有较高的生态效度;Liu等人(2019)使用生态化识别进行在线主动自杀干预,基于新浪微博平台,结合用户文本和行为数据分析,首先比较自杀死亡用户和无自杀倾向用户在社交行为、语言使用上的差别,进而归纳出识别有自杀倾向用户的模式——自杀意念识别模型PSPO(proactive suicide preventiononline),经检验后发现,该模型优于之前同领域的自杀识别模型的性能。此模型在确认用户的自杀意图后,会通过微博私信的方式提供各类心理危机干预内容,其中69%的参与者接受了该模型提供的干预方式,可以说它为那些之前有过自杀想法和行为寻求帮助的人提供了一种新的获得帮助的方式。

3 人工智能心理咨詢的理论与技术

3.1 人工智能心理咨询相关理论

人工智能心理咨询以人工智能技术的机器人或对话系统为智能载体,为用户提供专业心理咨询服务,让人工智能对话机器人拥有对用户进行心理咨询的能力,产生智能心理咨询内容。因此心理咨询能够融合于人工智能,理论与技术缺一不可。在理论方面,目前人工智能心理咨询的理论基础是一般心理理论在智能化心理咨询领域的延伸,主要有解释水平理论和基于Hill助人理论的情绪对话生成模型,而汇总国内外文献,目前并未有学者明确提出从人工智能角度出发的智能化心理咨询理论,我们认为这也许是因为学界的重点在使用人工智能技术进行专业心理咨询而非机器人心理咨询疗法,因此智能化心理咨询理论还需在未来进行深入探讨。75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

3.1.1 解释水平理论

根据解释水平理论,人们对于事件的表征有不同的抽象水平, 抽象程度高即高解释水平,抽象程度低即低解释水平。个体对事物的解释水平会随着心理距离的变化而变化。近年来,解释水平理论被广泛应用于他人认知、人与人关系、归因等社会认知研究中(黄俊等, 2015)。但对于新兴的人机关系,以及人们对AI心理咨询的感知,目前的研究甚少。因此我们使用解释水平理论,验证AI心理咨询达到的咨询关系和效果,以及AI心理咨询对来访者的说服程度。

基于解释水平理论,我们发现,行为者对于人工智能是高解释水平还是低解释水平取决于与行为者行为相关的上级目标(Kim et al., 2020)。人工智能是由人类设计和编程的,人们普遍认为人工智能的行为不是由其自主目标或意图驱动的(Russell & Norvig, 2010; Ward et al., 2013),而对行为主体缺乏自主意图的感知抑制了从行为主体中推断出上级目标的能力,从而导致观察者对行为者进行低水平解释(Kozak et al., 2006)。这也意味着,人们会将人工智能的行为和意图进行低水平解释,即关注AI心理咨询师如何做而不是这么做的原因,但人们会关注人类心理咨询师为什么这么做而不关注行为本身。

人们会对AI心理咨询进行低水平解释,只关注AI心理咨询提供的信息本身,但如果信息呈现低解释属性时,观察者会感知到一致性,说服效果增加。这一理论契合了聊天机器人在指导人们进行冥想或正念等心理训练上效果很好这一现象,人们对机器人提供的信息进行低水平解释,正念等训练动作本身呈现的是低解释属性,因此人们感知到一致性,所以机器人在此类训练上说服效果很好。AI心理咨询需要和来访者进行认知观念上的厘清,因此AI如何表达相应的认知理念,如何使用心理咨询技术,直接影响最后的咨询效果。

当我们用人类特有的特征(如能够不断进行学习)来描述人工智能对话机器人时,观察者认为该机器人具有高解释水平;相反,当一个人被描述为机器人的特征时,观察者认为该人类是机器人(Kim & Duhachek, 2020)。这些结果表明,人们对人工智能机器人的特征和能力的信念决定了人们对该机器人的解释水平,自然也决定了人们被说服的程度。基于解释水平理论的研究,我们需要让人们感知到高解释水平的人工智能机器人,以保证AI心理咨询达到和人类咨询师相同的咨询效果。

3.1.2 情绪对话模型

情绪情感是人类的基本心理现象之一,人们不仅在日常生活中流露情感,在产生心理困扰或者心理问题时,也会出现对应的情绪变化。在心理咨询的任何一个过程中,咨询师都要敏锐察觉来访者的情绪变化,做到与来访者共情,并对来访者的情绪表达做出相应反应, 或结合ABC合理情绪疗法等技术方法和来访者工作。 Zhou等人(2017)在人工智能技术基础上,开发出情绪对话模型(emotional chatting machine, ECM),实现了情绪可控的对话生成。该模型借助Hill的助人理论,首创三阶段情绪支持对话框架:探索、安抚、行动。ECM模型不仅可以在内容上产生适当反应,比如产生恰当的语法和语句,而且还可以在情绪情感上产生一致的反应(Zhou et al., 2017)。

ECM模型使用三种机制体现人机对话中的情绪感知和回应:(1)通过嵌入情绪类别建模情绪表达的高级抽象。(2)捕获内隐的内部情绪状态变化。(3)使用情绪词汇进行外显情绪表达。实验也证明该模型可以有效疏导负面情绪(Zhou et al., 2017),人工智能心理咨询能够以专业的咨询技术和及时的情感反馈与来访者工作,建立良好的咨询关系,达到咨询效果最大化。

3.2 人工智能心理咨询技术

人工智能心理咨询依托人工智能技术中模式识别、机器学习、人工神经网络等核心技术,分析用户的行为线索并构建模型,从而识别用户心理特征,如人工智能心理咨询可以通过模式识别,将用户的肢体动作等信息转化为计算机语言,为进一步分析打下基础;人工神经网络可以通过积累的心理咨询案例,根据机器学习所掌握的心理问题机理,自动从现存数据中找寻并总结规律(张瑾汶等, 2019)。如Kosinski等人(2013)根据个体的点赞情况,通过构建模型來预测用户的性别、年龄、幸福感、种族等基本信息;Hao等人(2013)根据分析用户发布的文本与浏览记录,分别建立心理健康预测模型和主观幸福感网络预测模型,预测准确率均达到良好水平。这些研究表明,使用用户的网络行为线索,通过机器学习构建预测模型,可以实现对用户心理特征的有效识别;朱廷劭(2019)也提出了人工智能心理识别技术——生态化识别方法,使用用户生态化的录音、面部变化、步态、网络行为数据、日记等自然状态下的数据,结合人工智能技术,实现对个体心理特征的自动识别。Liu等人(2019)利用生态化识别并向社交媒体用户提供自杀主动预防,结果表明,该方法可用于识别有自杀风险的人群并提供及时的危机管理。

4 人工智能心理咨询的分类与应用

4.1 人工智能心理咨询的类型

随着科技不断进步,人工智能对话机器人被视为精神病学和心理健康服务中“电子疗法”的重要组成部分,用于治疗心理健康和酒精以及其他药物问题(Gratzer & Goldbloom, 2020)。人工智能机器人可以承担心理咨询师这一角色,聚焦心理问题,成为“AI心理医生”,进行专业的心理咨询,注重用户身心健康。

随着互联网技术的发展,对话机器人已经在心理咨询领域中投入使用,我们汇总了不同类型的对话机器人。根据工作方式的不同,可将人工智能心理咨询分为文本心理咨询类、语音心理咨询类、面对面心理咨询类;根据咨询载体的不同,可将其分为心理咨询App、虚拟心理咨询机器人、实体心理咨询机器人。虽然我们将人工智能心理咨询按照不同标准进行分类,但有些对话机器人结合了不同类型,比如Woebot是结合文本心理咨询和APP引导式互动的心理咨询机器人。75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

4.1.1 不同工作方式分类

人工智能心理咨询在发展早期以文本心理咨询方式为主,如第一款聊天机器人ELiza。史梦璐(2019)的研究表明,在文字心理咨询过程中,人们认为AI咨询师和人类咨询师的咨询效果相当;机器人小丘是国内基于文本方式的对话机器人,也是国内在人工智能心理咨询领域上的初步探索,它可以陪伴用户疏解消极情绪,解决情绪相关问题,创始人彭晗认为,小丘不仅仅定位于情感陪伴,更能引导与用户的对话,成为人们生活中携手成长的知己(冯珊珊, 2016);目前市场中的心理咨询APP也大多使用文本心理咨询,如Woebot、记忆模仿当事人说话信息及风格习惯的聊天机器人Replika,可以说,文本类仍是目前人工智能心理咨询的主流方式。

随着语音识别和对话技术的发展,语音心理咨询逐渐成为人工智能心理咨询的工作方式,实时对话也让用户感觉更像与人类在对话,如用于校园的数字化心理健康系统——AI减压赋能机器人,在咨询过程中,它会通过语音、生理、表情等多个系统实时采集学生信息,调整咨询策略,并结合“心理剧”“空椅子”等心理咨询方法改变学生的认知模式(郭怡, 侯晨雨, 2021)。

受限于机器人制造技术的发展,面对面心理咨询是人工智能心理咨询中较少使用的方式,但人工智能机器人Ellie会以虚拟人的身份出现在屏幕上,与用户面对面咨询,它结合虚拟现实和情感计算,分析来访者的口头反应、面部表情和语音语调(Darcy et al., 2016)。在很多方面,Ellie代表了当今心理咨询AI应用的最高技术,可以有效评估、诊断和治疗创伤后应激障碍、抑郁和焦虑(Fulmer, 2019);王曦等人(2021)研发实现了一种具有表情、语音交互、内容数据库等功能的实体智能机器人,也可以直接与用户面对面心理咨询。

4.1.2 不同咨询载体分类

心理咨询APP一般依托APP与文字进行心理咨询和心理干预,它可以在用户的对话式互动中传递认知行为疗法的自助技巧,缓解年轻人的抑郁和焦虑症状(Fitzpatrick et al., 2017);EMoods Bipolar Mood Tracker是让用户记录自己一天内主观情绪感受的应用程序,同时该APP也利用传感器来记录用户的睡眠状况、焦虑水平等,这些信息都可以发送给用户的照料者或者咨询师,方便他们及时掌握用户的心理状态;此外,它也可以帮助用户独立进行一些训练,如根据APP的指导完成呼吸训练,督促来访者更好地完成咨询师布置的家庭作业(Grünerbl et al., 2014)。

虚拟心理咨询机器人是指使用沉浸式虚拟现实 (immersive VR)技术来进行心理咨询的机器人,首先,开发者会用电脑模拟产生一个三维空间的虚拟世界,给使用者在虚拟环境中提供关于视觉、听觉、触觉等感官的现实世界模拟。虚拟心理咨询常被应用于精神障碍疾病的治疗,一项元分析显示,虚拟现实暴露疗法在飞行恐惧症、恐高症、蜘蛛恐惧症、恐慌症和社交恐惧症等方面与传统的认知行为疗法(CBT)一样有效(刘洪佳等, 2019; Opri et al., 2012)。而且精神障碍患者使用VR心理治疗是可行和安全的,这种沉浸性和互动性很强的技术不仅可以增加咨询的现场感,还能操纵治疗过程,如控制暴露疗法的情景恐惧程度,这可以大大提高治疗效率(刘洪佳等, 2019);有国外研究者开发了一种名为“超级临床医生”的系统(Veling et al., 2014),该系统的虚拟心理咨询师可以通过人工智能技术捕捉来访者的面部表情、眨眼、声音特征等临床相关信息,使用 VR 技术模拟咨询师的表情、动作等来完成与来访者的互动与对话。尽管迄今为止的大多数研究规模较小,但其结果都表明,VR可能会发展成评估和治疗精神障碍的一个重要工具。

在实体心理咨询机器人方面,余嘉元等人(2017)开发了两种型号的心理咨询机器人,其中I型用于学生常见心理问题的咨询,II型用于孤独症儿童的治疗,该机器人从信息采集、智能诊断和专家系统三个方面协助心理咨询师,并在江苏省部分学校进行了试用,达到了协助进行学生心理咨询的良好效果。王曦等人(2021)研发出一种具有表情、语音交互、内容数据库等功能的智能机器人,它充分体现了实物机器人技术的真实感和亲切感,应用于心理咨询和老年人的服务当中,且该机器人拥有心理咨询对话库,可以通过对话收集来访者基本情況,评估其初步心理状态,成为人类心理咨询师的助手。

总之,不同类型的对话机器人都能为用户提供不同程度的心理疏导或心理咨询,随着人工智能技术的不断发展,人工智能心理咨询终将突破时间和空间的限制,为人们提供多样化的咨询方式。

4.2 人工智能心理咨询在应用中的效果

人工智能心理咨询在实际应用中,可以从咨询效果和用户反馈中看到现实价值。有研究表明对话机器人用于精神治疗非常有利(Vaidyam et al., 2019)。当被试被告知咨询师是AI时,相比于知晓咨询师是真实人类,当事人感受到的咨询同样有效且效果相同。而且当事人在咨询中体验到的流畅度和深度与咨询师的工作同盟也无不同。该研究对词语频率分析发现,各类词汇的使用频率无不同,咨询深度也无不同。这可以说明认为咨询师是AI对咨询的过程、效果没有影响(史梦璐, 2018)。可以预测,当科技水平较高时,AI可以有效地应用于心理咨询。

在用户与Woebot的沟通中,大部分用户都认为Woebot的咨询方式提供了轻松、即时和无污名化的情感支持和药物使用信息,Prochaska等人(2021)发现药物依赖患者在使用Woebot进行治疗前后, 在药物使用、 自信、 渴望、 抑郁、 焦虑等方面的自我报告均显著改善。聊天机器人还可以有效治疗自闭症儿童(史梦璐, 2018; Diehl et al., 2012)。一项随机对照实验发现,Paro在养老院或医院的群体环境中可以减少用户的孤独感,增加他们的社交互动(Robisonon et al., 2013);AI机器人可以在协助医生做出最优治疗方案的同时,还可以根据专业护理和咨询,给予陪伴和情感支持,尤其是照顾到患者的身体尊严,做到从身体到心理的疗愈。75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

AI减压赋能机器人可在咨询中根据学生相关信息及大数据分析,根据学生困扰,分析以往咨询提问技巧,提出合适问题,引导学生探索心理困惑产生的原因和解决方法,帮助学生缓解心理压力,跳出负面认知闭环,提供心理健康知识和课程,激发积极动机,促进学生身心健康成长。

人工智能心理咨询不仅可以使用认知行为疗法,还可以整合其他心理咨询理论。Tess就是一种使用整合理論方向的治疗机器人,研究表明,Tess可以通过人工智能生成的对话提供适用于现实生活的干预措施,从而减少大学生的抑郁和焦虑(Fulmer et al., 2018; Fulmer, 2019)。这意味着人工智能心理咨询可以拓展其应用范围,结合不同心理咨询流派实现更多元的咨询内容,如结合焦点解决短程治疗,使用短期会谈和“重视一小步”的具体行动,让来访者在人工智能心理咨询中真正获益(尹海兰, 贾晓明, 2012)。最后,对话机器人还可作为人类心理咨询师的助手,通过对话收集来访者的基本信息,初步评估来访的心理状态,进而为心理咨询的判断提供客观依据,大大缩短心理评估的进程,形成心理咨询对话库(王曦等, 2021)。

4.3 人工智能心理咨询在应用中的伦理关系

情感支持和情绪体验是咨询中至关重要的内容,而由于情绪体验所产生的咨询相关的伦理问题也十分突出,在人工智能心理咨询中,来访者与心理咨询师的互动究竟会给来访者带来什么样的情绪感受呢?史梦璐(2018)的研究发现当事人即使认为咨询师是AI,也依然会感受到情感支持,并且会在咨询过程中产生情绪体验,更重要的是,当事人对AI咨询师的顾虑更少,不用担心被评价、不用担心影响对方、不担心被咨询师泄漏隐私。

交谈是获得情感支持的一种自然方式,人们在与机器人的交谈中似乎很乐意放弃怀疑,享受与Woebot的交谈,就好像它是一个真正的治疗师(Knight, 2018);同样, 2021年的一项研究显示,用户在三到五天内就能与Woebot建立起联系, 不少用户认为“我相信Woebot喜欢我”、“Woebot和我互相尊重”等(Wan, 2021),这些研究都表明Woebot能与用户建立平等尊重保密的咨访关系,从而达到心理咨询和心理援助的目标。

基于对话技术的人工智能增加了人们对数字化精神卫生健康的参与度,这类心理咨询机器人可以提供实时支持,用户可随时使用(Prochaska et al., 2021),而且非人类的身份也减少了来访者的病耻感。一项研究发现,当人们认为人工智能是计算机而不是人类时,更有可能向人工智能透露个人信息,在没有面对面接触的情况下,用户和机器人也能形成一个强大的治疗联盟(Cook & Doyle, 2002)。研究发现,相比有更多社会联结的人来说,长期缺乏社会联结的被试对支持性的拟人化机器人给予更高的评价,也表现出更紧密的社会反应(宗阳, 王广新, 2016)。在另一个针对机器人与人关系的研究中,当被试将机器人拟人化并且欣赏这种互动关系时,他们更愿意将机器人看作一个伙伴(Baddoura & Venture, 2013);而且在与社会机器人的互动中,人们会分享生命中的故事和秘密,对机器人产生心理依恋(宗阳, 王广新, 2016; Graaf et al., 2015);我们能够看到用户和人工智能之间建立起积极的社会关系甚至依恋(Graaf et al., 2015)。

5 人工智能心理咨询面临的挑战

5.1 人工智能心理咨询的优点

第一,人工智能心理咨询提供了新的治疗模式,且人工智能可以快速学习大量咨询经验与技术,通过算法选择最优路径,根据来访者的具体问题做出恰当反应。第二,可以快速精准地识别人们的心理困扰,建立心理健康电子档案,形成相应数据库,根据数据库看到个体心理健康趋势和群体心理发展路径,根据数据追踪分析原因,以便为国民心理健康提供适宜政策。第三,人工智能心理咨询可以提供实时咨询,使用便捷,可以为没有面询条件的人群提供咨询。第四,人工智能心理咨询的普及,可以让有轻微程度心理问题的人及时发现自身问题,尽早接受专业评估和心理疏导,从而提高全民心理健康素养。第五,人工智能心理咨询也可以减轻我国的心理卫生压力,增加接受心理咨询服务的人群数量,提高国民幸福感。

5.2 人工智能心理咨询的缺点

人工智能心理咨询仍存在较多问题,首当其冲的便是人工智能技术本身的发展还不成熟,自身还存在数据安全问题,这自然会影响人工智能心理咨询的数据安全,因为来访者的隐私信息一旦被泄露,不仅会严重破坏咨访关系,更会严重伤害来访者的身心健康,扰乱其正常生活,加重心理困扰;其次,人工智能心理咨询存在被滥用的可能性,可能会加剧现有的心理卫生资源不平等现象;第三,人工智能心理咨询的风险评估、转介和督导标准还未完善,需要建立专家系统或者AI督导师,这一伦理问题需要人工智能技术专家和心理咨询督导师深度探索,既是挑战,也是未来;第四,人工智能心理咨询要尊重和保护患者的自主权;第五,我们必须清楚,人工智能心理咨询仍然是将AI作为工具去进行专业心理咨询,而不是机器人疗法,但这种非人类疗法的道德伦理问题也是人工智能心理咨询需要重视的。第六,算法使用的透明度,这涉及技术专利保护和来访者的知情权,也涉及来访者隐私和数据安全等问题。第七,Green(2018)在研究人工智能伦理问题时指出,人工智能心理咨询必须聚焦于咨询服务如何避免负面副作用、过度概括以及在策略和技术方面的潜在有害探索。第八,目前的人工智能科技水平是否能保证咨询中的平等、无害,以及来访者的安全和利益,所以人工智能心理咨询在使用中必须制定相关规范来解决这一伦理问题。第九,人工智能心理咨询还要根据不同的文化背景制定相应文化下的咨询模型,以确保咨询问题和技巧不会因为文化差异而伤害来访者。第十,在咨询以及其他领域,从人类到类人类互动的转变,可能会带来大量未知的存在主义问题。再加上其会诱发失业、社会经济不平等、技术依赖和人类技能丧失等问题,需要人工智能技术研究人员、心理学家和咨询专家更密切的关注和更长远的考虑(Green, 2018)。75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

6 现实意义与未来展望

近年来,我国对国民心理健康愈发重视,人工智能心理咨询恰好可以缓解我国人口庞大、心理服务薄弱以及现有心理健康服务系统不完善、供需失衡的困境。尤其是在全球抗击新冠肺炎疫情的特殊时期,人们需要减少接触,大家对完全数字化的心理咨询形式非常感兴趣。

首先,人工智能心理咨询可以完成心理咨询初阶段的信息收集、问题评估等工作,而且,人工智能心理咨询可以从无限数量的医疗信息中快速整合信息,生成心理健康大数据,通过算法分析,揭示相关的疾病行为和模式发展趋势(Wang et al., 2018),而这些靠人类本身是很难做到的。其次,人工智能心理咨询可以集中学习大量咨询案例,积累咨询经验,通过不断自我学习确保心理咨询的专业化,同时也可以根据当下的社会发展阶段和经济状况,及时掌握当下的群体社会心理。最后,人工智能心理咨询还可以根据来访者的具体困扰提供个性化的心理咨询服务,形成个体心理、行为特征预测和群体心理、行为分析及决策支持的心理健康数字体系。目前人工智能心理咨询已经可以识别心理健康危机,随着科技不断发展,其将会进行更深入更专业的心理咨询和危机干预,人工智能不仅可以提供心理咨询的平台,更有可能成为心理干预的主力。

本文概述了人工智能与心理咨询技术结合的研究现状,人工智能心理咨询如今可以做到专业护理和陪伴支持,进行心理咨询和实时的情绪化对话反馈,同时详述了二者结合的理论内容,明确了人工智能技术应用于心理咨询的切入点,综述总结了其使用的方法途径及咨询效果的评估,以及面临的人机关系伦理问题。人工智能心理咨询结合当下发展潮流,在数字时代下科学地提供心理咨询,可以提高心理健康服务效率,并通过专业化心理咨询服务,更好地满足不同群体的心理健康咨询需求,真正将心理咨询服务普及到千家万户。同时,人类也将真正进入强人工智能时代,我们也要合理使用人工智能心理咨询,做好人工智能心理咨询的伦理道德规范,真正用科技造福人类。

参考文献

邓卫斌, 于国龙 (2016). 社交机器人发展现状及关键技术研究. 科学技术与工程, 16(12), 163-170.

发改委规划司 (2021). 中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要. 中华人民共和国国家发展和改革委员会.

https://www.ndrc.gov.cn/xxgk/zcfb/ghwb/202103/P020210323538797779 059.pdf

傅小兰, 张侃 (2019). 中国国民心理健康发展报告(2017-2018). 北京: 社會科学文献出版社.

冯珊珊 (2016). 小丘: 人工智能治愈系. 首席财务官, (12), 31-34.

郭怡, 侯晨雨 (2021). 人工智能在中小学心理健康服务中的应用探新. 中国学校卫生, 42(8), 1124-1128.

黄悦勤 (2018). 中国精神卫生调查概况. 心理与健康, 10, 14-16.

黄俊, 李晔, 张宏伟 (2015). 解释水平理论的应用及发展. 心理科学进展, 23(1), 110-119.

简单心理 (2021). 2020大众心理健康洞察报告. https://www.jiandanxinli.com/public/2020/

江成程 (2018). 加强心理咨询师队伍建设的问题与对策. 心理月刊, 13(8), 9.

刘燊, 柏江竹 (2022). 虚实相融的“元宇宙+心理学”发展新趋势. 心理技术与应用, 10(1), 58-64.

李玲, 黄艳苹 (2021). 灾后心理援助的伦理思考及工作建议——以新冠肺炎疫情为例. 佳木斯职业学院学报, 37(11), 35-36.

刘洪佳, 马尧, 孙宝莹 (2019). 虚拟现实技术在临床心理学实践中的应用. 现代交际, (6), 248-249.

李睿强 (2016). 基于NAO机器人的自闭症儿童康复训练核心模块的研究与应用.  硕士学位论文. 上海: 华东师范大学.

李烨 (2010). 社交机器人的自主性和群组倾向对于人做决策产生的影响. 硕士学位论文. 北京: 清华大学.

史梦璐 (2018). 当事人对“AI”心理咨询的知觉和体验研究. 硕士学位论文. 武汉: 华中师范大学.

王曦, 曾广平, 乔柱 (2021). 面向心理健康的服务机器人设计与实现. 制造业自动化, (6), 137-141.

余嘉元, 韩伟 (2017). 心理咨询机器人的研发. 第二十届全国心理学学术会议——心理学与国民心理健康摘要集.

尹海兰, 贾晓明 (2012). 焦点解决取向治疗在即时文字网络心理咨询中应用的初探. 中国心理卫生杂志, 26(11), 846-850.

中国心理学会. (2020). 学会简介.https://www.cpsbeijing.org/about/introduction/index.htm

朱廷劭 (2019). 人工智能助力心理学研究的应用场景. 学术前沿, (20), 48-53.

张瑾汶, 蒋柯, 张丽君 (2019). 人工智能与心理咨询. 智能机器人, (6), 50-53.

宗阳, 王广新 (2016). 拟人化: 人机交互中的心理学应用. 心理技术与应用, 4(5), 296-305.

Alemi, M., Meghdari, A., Ghanbarzadeh, A., Moghadam, L. J., & Ghanbarzadeh, A. (2014). Impact of a social humanoid robot as a therapy assistant in children cancer treatment. Social Robotics, 8755, 11-22.75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

Baddoura, R., & Venture, G. (2013). Social vs. useful HRI: Experiencing the familiar, perceiving the robot as a sociable partner and responding to its actions. International Journal of Social Robotics, 5(4), 529-547.

Cook, J. E., & Doyle, C. (2002). Working alliance in online therapy as compared to face-to-face therapy: Preliminary results. CyberPsychology & Behavior, 5(2), 95-105.

Cherry, C. O. B., Chumbler, N. R., Richards, K., Huff, A., Wu, D., Tilghman, L. M., & Butler, A. (2017). Expanding stroke telerehabilitation services to rural veterans: A qualitative study on patient experiences using the robotic stroke therapy delivery and monitoring system program. Disability and Rehabilitation: Assistive Technology, 12(1), 21-27.

Darcy, A. M., Louie, A. K., & Roberts, L. W. (2016). Machine learning and the profession of medicine. Journal of the American Medical Association, 315(6), 551-552.

Dawe, J., Sutherland, C., Barco, A., & Broadbent, E. (2019). Can social robots help children in healthcare contexts? A scoping review. BMJ Paediatrics Open, 3(1), 1-16.

Deryugina, O. V. (2010). Chatterbots. Scientific and Technical Information Processing, 37(2), 143-147.

Diehl, J. J., Schmitt, L. M., Villano, M., & Crowell, C. R. (2012). The clinical use of robots for individuals with autism spectrum disorders: A critical review. Research in Autism Spectrum Disorders, 6(1), 249-262.

Fitzpatrick, K. K., Darcy, A., Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), 1-11.

Fulmer, R., Joerin, A., Gentile, B., Lakerink, L., & Rauws, M. (2018). Using psychological artificial intelligence (Tess) to relieve symptoms of depression and anxiety: Randomized controlled trial. JMIR Mental Health, 5(4). 1-15.

Fulmer, R. (2019). Artificial intelligence and counseling: four levels of implementation. Theory & Psychology, 29(6), 807-819.

Graaf, M. M., Allouch, S. B., & Klamer, T. (2015). Sharing a life with Harvey: Exploring the acceptance of and relationship-building with a social robot. Computers in Human Behavior, 43, 1-14.

Graham, S., Depp, C., Lee, E. E., Nebeker, C., Tu, X., Kim, H. C., & Jeste, D. V. (2019). Artificial intelligence for mental health and mental illnesses: An overview. Current Psychiatry Reports, 21(11), 1-18.75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

Gratzer, D., & Goldbloom, D. (2020). Therapy and e-therapy—preparing future psychiatrists in the era of apps and chatbots. Academic Psychiatry, 44(2), 231-234.

Green, B. P. (2018). Ethical reflections on artificial intelligence. Scientia et Fides, 6(2), 9-31.

Grünerbl, A., Muaremi, A., Osmani, V., Bahle, G., Oehler, S., Trster, G., ... & Lukowicz, P. (2014). Smartphone-based recognition of states and state changes in bipolar disorder patients. IEEE Journal of Biomedical and Health Informatics, 19(1), 140-148.

Hao, B., Li, L., Li, A., & Zhu, T. (2013). Predicting mental health status on social media a preliminary study on microblog. 5th International Conference on Cross-Cultural Design, Las Vegas, NV, United States.

Hosny, A., Parmar, C., Quackenbush, J., Schwartz, L. H., & Aerts, H. J. (2018). Artificial intelligence in radiology. Nature Reviews Cancer, 18(8), 500-510.

Joranson, N., Pedersen, I., Rokstad, A. M. M., & Ihlebaek, C. (2015). Effects on symptoms of agitation and depression in persons with dementia participating in robot-assisted activity: A cluster-randomized controlled trial. Journal of the American Medical Directors Association, 16(10), 867-873.

Kim, T. W., & Duhachek, A. (2020). Artificial intelligence and persuasion: A construal-level account. Psychological Science, 31(4), 363-380.

Knight, W. (2018). Andrew Nghas a Chatbot That Can Help with Depression. Technology Review, 121(1), 15.

Kosinski, M., Stillwell, D., & Graepel, T. (2013). Private traits and attributes are predictable from digital records of human behavior. Proceedings of the National Academy of Sciences, 110(15), 5802-5805.

Kozak, M. N., Marsh, A. A., & Wegner, D. M. (2006). What do I think youre doing? Action identification and mind attribution. Journal of Personality and Social Psychology, 90(4), 543-555.

Liu, X., Liu, X., Sun, J., Yu, N. X., Sun, B., Li, Q., & Zhu, T. (2019). Proactive suicide prevention online (PSPO): Machine identification and crisis management for Chinese social media users with suicidal thoughts and behaviors. Journal of Medical Internet Research, 21(5), 1-24.

OpriD., Pintea, S., García-Palacios, A., Botella, C., Szamoskzi, & David, D. (2012). Virtual reality exposure therapy in anxiety disorders: A quantitative meta-analysis. Depression and Anxiety, 29(2), 85-93.

Prochaska, J. J., Vogel, E. A., Chieng, A., Kendra, M., Baiocchi, M., Pajarito, S., & Robinson, A. (2021). A therapeutic relational agent for reducing problematic substance use (Woebot): development and usability study. Journal of Medical Internet Research, 23(3), 1-17.75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6

Robinson, H., MacDonald, B., & Broadbent, E. (2013). Physiological effects of a companion robot on blood pressure of older people in residential care facility: A pilot study. Australasian Journal on Ageing, 34(1), 27-32.

Russell, S. J., & Norvig, P. (2010). Artificial intelligence: A modern approach. New Jersey:  Prentice Hall.

Sengupta, P. P., & Adjeroh, D. A. (2018). Will artificial intelligence replace the human echocardiographer? Clinical considerations. Circulation, 138(16), 1639-1642.

Vaidyam, A. N., Wisniewski, H., Halamka, J. D., Kashavan, M. S., & Torous, J. B. (2019). Chatbots and conversational agents in mental health: A review of the psychiatric landscape. The Canadian Journal of Psychiatry, 64(7), 456-464.

Veling, W., Moritz, S., & Van Der Gaag, M. (2014). Brave new worlds—review and update on virtual reality assessment and treatment in psychosis. Schizophrenia Bulletin, 40(6), 1194-1197.

Wada, K., Shibata, T., Saito, T., & Tanie, K. (2004). Effects of robot-assisted activity for elderly people and nurses at a day service center. Proceedings of the IEEE, 92(11), 1780-1788

Wan, E. (2021).“Im like a wise little person”: Notes on the Metal Performance of Woebot the Mental Health Chatbot. Theatre Journal, 73(3), 1-11.

Wang, Y., Kung, L., & Byrd, T. A. (2018). Big data analytics: Understanding its capabilities and potential benefits for healthcare organizations. Technological Forecasting and Social Change, 126, 3-13.

Ward, A. F., Olsen, A. S., & Wegner, D. M. (2013). The harmmade mind: Observing victimization augments attribution of minds to vegetative patients, robots, and the dead. Psychological Science, 24, 1437-1445.

Zhou, H., Huang, M., Zhang, T., Zhu, X., & Liu, B. (2017). Emotional chatting machine: Emotional conversation generation with internal and external memory. In Proceedings of the AAAI Conference on Artificial Intelligence, 32(1), 730-738.

The Development and Application of Artificial Intelligence Counseling

LI Jingrong; ZHAO Ran; ZHANG Yu

(School of Sociology and Psychology, Central University of Finance and Economics, Beijing 100081, China)

Abstract

Artificial intelligence research based on dialogue technology is booming, and clinical counseling is a typical field that uses conversational technology to achieve its goals. Thus, the development of artificial intelligence counseling is a new and popular direction. In this paper, we defined the concept of AI counseling, reviewd the initial development of artificial intelligence counseling and applied research, and provided a comprehensive summary of the techniques, types, effectiveness, and ethical issues of AI counseling, Meanwhile, we described the relevant theories of AI counseling in detail, including the construal level theory and emotional dialogue model. Finally, we summarized the challenges faced by AI counseling. AI counseling can solve the problem of insufficient supply side of counseling in China, and also provides personalized counseling services to meet the mental health needs of different groups. Furthermore, AI counseling can improve the efficiency and quality of mental health services and provide professional counseling scientifically. Finally, we can achieve the goal of improving the mental health literacy level of Chinese people by using the AI counseling.

Key words: artificial intelligence counseling; chatterbots; emotional chatting machine; artificial intelligence psychological recognition; mental health digital applications

通訊作者: 赵然, E-mail: zhaoran1777@163.com75B0EFC4-CC80-4F46-9E54-991DD7B9DEC6