APP下载

AI拯救自杀者

2022-06-17邓之湄

瞭望东方周刊 2022年12期
关键词:树洞志愿者人工智能

邓之湄

“你拍拍我的肩膀,讓我挺起胸膛。”这是网友对中科院心理研究所朱廷劭团队工作的形容。

用他们自己的话来说,这份工作是“通过人工智能,向处于自杀困境中的人提供帮助” 。

全世界每年有80多万人自杀死亡,自杀已经成为不容忽视的公共健康问题。随着科技的发展,研究人员已经能够通过机器学习算法来预测自杀倾向,进而干预。

拯救自杀者,AI在行动。从2012年启动研究至今,朱廷劭团队已进行逾三十万条微博分析,发现一万多例有自杀表达的个体。

“你好,我们是北京社工委领导下的中科院心理所咨询师志愿者团队。我们在‘走饭’的微博中看到了你的评论。你现在还好吗,情绪状态怎么样……我们每天的18:00-22:00在线为你解决问题。也许你现在处境艰难,但仍有许多人关心你,愿你安康。”

这是朱廷劭团队用微博账号“心理地图”向“走饭”评论区里有自杀风险的用户发出的私信。

“走饭”是2012年3月自杀的一名南京女大学生。十年前,她通过定时的时光机发出最后一条微博更新:“我有抑郁症,所以就去死一死,没什么重要的原因,大家不必在意我的离开。拜拜啦。”随后,经公安部门证实,该名女生在大学寝室里自缢身亡。

研究发现,人们对机器的信任感要高于对人类,跟机器交流可以明确答案,跟人打交道却可能有泄露隐私或被误读的风险。

让人意想不到的是,“走饭”最后一条留言的评论区成了网友们安放抑郁和绝望情绪的“树洞”。

“我已不知要如何爱自己了”“我妈妈真可恶啊!她一直在伤害我”……“树洞”里有的自言自语倾诉烦恼,有的好像在和“走饭”聊天寻求安慰。据2017年2月《冰点周刊》的统计,彼时已有58万条留言。

“现在已经超过100万条了,并且每月增加的速度非常快,大概有6000多条。”朱廷劭说,“我们就蹲守着这个‘树洞’,希望能劝住站在悬崖边缘的人且留一步。”

据《中国卫生统计年鉴2020》统计,2019年中国城市自杀率为每十万人中有4.16人自杀,农村自杀率为每十万人中有7.04人自杀。

自杀已经成为中国人的第五大死因,也是15岁到34岁青壮年人群的首要死因。

“每个人的心理都是一池浑浊且深不见底的水,但了解得越深,便显得越清澈。” 2012年5月5日,“心理地图”上线的第二天,对外发出了第二条微博。

虽然有自杀干预和救助热线,但不少自杀者隐秘行事,即便是求助,某些情况下也是一边割腕一边打电话,被发现时为时已晚。有没有可能及早主动发现那些企图自杀的风险者?在其刚开始有自杀意念或想法的时候就提供及时专业的指导,不要等事情不可挽回时再想办法补救?

经过三年理论研究,2015年,朱廷劭团队在线招募微博用户参与问卷调查,根据个体自杀可能性量表得分情况将982名受访者分为446名高自杀可能组和536名低自杀可能组,分析两组在微博提取的10类行为特征和88类语言特征上的差异。结果发现,高自杀可能组的用户与低自杀可能组相比,社交活跃度低、夜间更加活跃、关注别人更少、使用更多表达否定和死亡的词语。

“实际问题我们解决不了,但我们可以改变他怎么看待这个问题。”

接下来的研究更直接,他们经新浪微博认证用户提供的信息,收集了31名网络识别自杀死亡用户,对照收集了30名无自杀意念用户,比较两组用户在10种微博行为和88种语言特征方面的差异,发现自杀死亡用户的微博更频繁地使用表达排除意义的词语,情感层面上有更多消极表达。

为了辨识出企图自杀的风险者,他们最初采用的办法是人工标注,但工作量太大——“两三千条数据人工标注大约需要一周甚至两周,筛选出来可能就已经来不及了”。

不仅是效率不足,长时间处理负向信息还容易令工作人员超负荷承压,并容易脱敏,因此计算机科班出身的朱廷劭想到利用人工智能对网络上的信息做及时自动识别。

这是一个新鲜的领域。面对海量数据和个性化表达,如何训练人工智能识别自杀风险者?朱廷劭表示,他们的训练策略是多样的。

浙江嘉兴,武警浙江省总队医院心理咨询门诊内,心理专家正在接诊一名心理疾病患者

比如请自杀理论的研究生在培训后对微博数据进行标注,被识别为有自杀风险的微博作为正样本,随机选取的10000条没有自杀风险的微博作为负样本,组成训练集。

比如利用自杀相关词典,这个词典包含295个词或短语,如“厌倦了生活”“下辈子”“催眠药”“吊死我自己”等。

比如使用决策树、随机森林、逻辑回归等算法,进行10倍交叉验证来训练识别模型。

“机器学习的模型具有不可解释性,不是简单的关键词搜索。总之,我们用计算机抓取数据,然后用训练好的模型识别出有自杀意念的用户,再进行人工核查。通过模型的优化以及自然语言处理技术和人工智能技术的学习,现在我们对企图自杀风险者的识别准确率能达到84%。”朱廷劭说。

2017年4月,朱廷劭申请成立了中科院行为科学重点实验室互联网心理危机(自杀)监测预警中心。目前,团队有六名工作人员,一半计算机人员,一半是心理学人员,还有十来个学生和十来个志愿者。每天下午6点后,他们就按照排班,用“心理地图”微博账号给识别核查出来的企图自杀风险者发私信。

私信内容包括,“如果需要帮助,你可以登录(网页链接)点击必填问卷的前测问卷。在这里你可免费获得专业心理测评也可以找到更多的心理援助资源。我们的志愿者会依据你的测评结果进行反馈及心理援助。”

有人質疑,生死关头还要问卷评估,会不会延误进行紧急自杀干预的契机,会不会加剧自杀的心理暗示?

对此,曾在北京心理危机研究与干预中心工作近二十年的北京回龙观医院副主任医师徐东表示:“风险性必须评价。如果一个人已经在考虑自杀了,那你跟他提及自杀这件事对他的触动是很小的,这样的心理暗示几乎可以忽略不计。”

朱廷劭亦表示,心理测量不同于网上的娱乐测试,是通过专业的手段让测试者知道自己当前的情况究竟如何。他们将企图自杀的风险者按紧急情况分为三个等级,分别是有自杀意念、有自杀计划和有自杀实施,并提供热线转介、在线自助和志愿者交流三种干预方式。

“在线自助是因为我们发现很多人不愿意跟人讲话,更愿意跟机器交流。”朱廷劭称,研究发现,人们对机器的信任感高于对人类,跟机器交流可以明确答案,跟人打交道却可能有泄露隐私或被误读的风险。

研究发现,将近80%的人不知道向哪求助或者如何求助,有一半的人从未寻求过帮助。在求助人群里边,家人不仅不是第一位,且比例甚至低于陌生网友。

“很多时候我们认为家庭是一个人最主要也最重要的资源,但在最危机的时候,家人却不是第一位的,这是需要我们反思的一个问题。”他说。

当然,机器解决不了所有问题,团队仍需经常一起讨论。比如私信该发几次?发多了就是骚扰;但发少了又担心对方不看。后来他们定了五次。

比如有一个员工因为工作上的事情要自杀,干预者应该通知公司进行关怀吗?站在道德制高点劝公司留人是个好办法吗?

“大张旗鼓的方式不可取,把坏事当好事办的心态不能有。”朱廷劭坦言,“实际问题我们解决不了,但我们可以改变他怎么看待这个问题。”

至今,“心理地图”已进行逾三十万条微博分析,发现有自杀表达的个体超过一万。

“我们不敢说救了多少人。”朱廷劭说,自杀干预不是一件容易的事,很多自杀未遂者会再次尝试自杀,进行干预的志愿者好心未必干得成好事,“曾经就有志愿者因为帮不了求助者,主动退出了团队。”

庆幸的是,“心理地图”不是独行者,越来越多的研究者开始试图通过AI技术帮助轻生者。

据了解,2018年,首都医科大学教授黄智生开启了“树洞计划”。“树洞计划”寻找濒临危险的抑郁症患者的逻辑跟“心理地图”相差不大,都是利用AI进行筛查分级后介入。有所不同的是,树洞计划的自杀危险程度分级更多。十级为最高级,即自杀正在开始,九级是有明确的自杀计划,随后几级以悲观厌世的程度依次递减,在六级以下,志愿者一般不会直接介入。

同年,腾讯启动了“微光行动”:当用户通过手机QQ检索“自杀”“自残”等关键词时,QQ将优先呈现来自北京心理危机研究与干预中心的援助热线,以及“联系信任的人”“尝试放松自我”“寻求专业帮助”等专业建议,劝阻用户自杀、自残,保护其生命安全。

2020年,阿里巴巴推出“守护生命”项目,利用人工智能技术并联动商家、公安、第三方机构建立自杀干预机制,对有自杀倾向的人予以安抚干预……

拯救自杀者,AI在行动。

“传统心理学研究往往依赖于精确设计的实验范式,这很难全面揭示研究问题背后的多因素机制。”朱廷劭称,在人工智能时代,人们在自然情境下的活动数据,包括生理、动作、面部表情等多模态数据能够被大规模、细粒度地采集,这将帮助心理学研究者剖析高维数据背后的复杂规律,揭示可能的统计学规律。

同时他也指出:“人工智能是工具,可以帮助我们解决问题,但不能过于夸大技术。自杀包含很多现实问题,所以自杀干预也是一个社会工程,需要整个社会一起努力解决。”

猜你喜欢

树洞志愿者人工智能
志愿者
小小志愿者
志愿者精神 永不落幕
2019:人工智能
人工智能与就业
孔小空遇熊钻树洞
数读人工智能
下一幕,人工智能!
温暖的树洞
“中华慈善优秀工作者(志愿者)奖(共152名)