摘要:系统监测到,一个快手用户的直播间需要他关注。那是一个20岁出头的女孩,她在直播时情绪激动,时而哭泣、时而呐喊,“信不信我马上从楼上跳下去”。
2025年09月08日 12:29广东
作者 | 陆茗
一条预警系统推送的消息,向正值夜班的苟如凯发来风险提示。
系统监测到,一个快手用户的直播间需要他关注。那是一个20岁出头的女孩,她在直播时情绪激动,时而哭泣、时而呐喊,“信不信我马上从楼上跳下去”。
收到风险提示的时候,女孩的直播已被平台第一时间拉停,而苟如凯需要核实风险,确认这个女孩的安危,这是他作为快手自杀干预社会救助小组成员的职责。
根据女孩实名认证的信息,苟如凯给女孩打了一通电话:看到你在直播间里情绪激动,是遇到什么事了吗?
女孩说起自己和男友沟通的种种不愉快和焦虑。苟如凯也由此确认,这个女孩和直播间里那个说要自杀的女孩是同一人,而她暂时安全。苟如凯用了40多分钟开导女孩,直到她平复情绪、感受困意袭来。
用谈话进行心理疏导,能在一定程度上缓解自杀冲动/《死期将至》剧照
日常工作中,苟如凯和同事要直面平台预警系统推送的数条“自杀”风险预警信息,他们要做核实、干预乃至报警。
这不是一件容易的工作。他们要处理的信息各不相同,除了负向情绪的言论、自伤的行为、轻生的威胁,还有正在进行的轻生动作、乃至“自杀”剧本……他们每天要在4亿多日活用户发布的海量信息当中,结合大模型技术,识别出真正需要干预和帮助的人,联动全国各地警方,在关键时刻将他们从悬崖边上拉回来。
网络平台让一些有心理困境的人被看见,也让自杀干预得以面向更多普通人。但自杀干预讲究专业、考验能力,我们也因为禁忌对这项工作产生不少误解。
自2018年底开始,快手即开始利用AI技术等开展自杀干预,打捞网上的这些求救信号,2021年8月,正式组建自杀干预社会救助小组,7×24小时在线干预挽救有轻生倾向的人。
朱廷劭研究员和一线干预工作人员互动交流
在9月10日第23个世界预防自杀日之前,快手邀请中国科学院心理研究所朱廷劭研究员团队,为平台自杀干预社会救助小组开展培训。当中,华中师范大学心理学院讲师刘兴云理清了自杀干预的一大顾虑:
如果一个人表现出自杀风险,旁人真诚但直接的询问其实不会增强他的自杀意念、加速他的自杀行动,相反会让他感受到被关注和支持,降低自杀风险。我们其实可以谈论自杀。
这呼应了去年“9·10”世界预防自杀日倡导的主题:改变自杀的叙事,开始对话。
它主张从一种“沉默、污名和危机”的文化转变为一种“共情、教育、预防、支持和赋权”的文化,鼓励开放的对话,营造一个让有需要的人感到支持和理解的社会。它呼吁一个具体行动:不要害怕公开讨论自杀,问某人是否有自杀念头不会增加风险,它表明你关心并愿意提供帮助。
在直播中试图自杀的人
那是今年7月的事。凌晨3点,苟如凯打开了预警系统推来的一条包含风险摘要与关键信息链的预警信息。
苟如凯看到:画面定格在一名男子,他的衣服前襟上有明显血痕,疑似醉酒状态。回看直播内容,男子人在街道上,夜色让画质更显模糊,但可以辨认出男子在自伤。
苟如凯结合男子过往发布的作品,很快拼凑出其遭遇:账号简介显示他是一个喜欢打篮球的聋哑人;他公开发布的作品里,有很多写给女朋友的话“对不起我错了”“能不能不要离开,我会改”;他还发过一份病历,医生诊断他患有抑郁症。
苟如凯综合判定,该男子情况危急。
有些自杀只是为了寻求暂时的痛苦解脱/《死期将至》剧照
根据用户实名认证的信息和过往发布的短视频外显IP信息,苟如凯马上报警,约两分钟后,警察打来视频电话,希望平台能提供更多信息。
直播画面太模糊了,苟如凯不得不以0.5倍速,从画面中寻找更明确的位置线索。所幸,直播镜头曾晃过街边路牌和一间店铺。对照这一线索,警方出动2个派出所的警力沿街寻找。
不久后,警方回电,人找到了。男人瘫坐在街边,意识还清醒着,见警察上前,甚至笑着敬了个礼,男子随即被送医救治。凌晨的街边,如果不仔细探问,男子很容易被误认为是寻常醉汉。
从平台干预的众多案例来看,情感婚恋问题是引发他们在直播中做出轻生行为最多的因素。
在每天上百条的风险预警信息中,判定轻生行为的真假是一大难点,但从系统发出预警的那一刻起,小组成员从核实研判风险、安抚干预,再到完成报警,已形成一套要在10分钟内完成的干预流程,对达到报警标准的,会立即报警,对未达到报警标准的,会联系用户沟通安抚。目前平均完成一个案例,基本控制在6分钟左右。
相比于静态的图文和短视频,直播间是尤为惊险的救助窗口:它给了人们看见它并提供帮助的机会,但留给干预者的时间其实非常短暂。
这给技术的迭代升级提出更高要求。快手自杀干预社会救助小组负责人李恩宇介绍,今年3月底,平台预警系统接入大模型技术,基于大模型的意图洞察与风险定位能力,预警系统可以在海量的直播中,自动锁定高危风险信息并及时推送,同时大模型能自动生成风险摘要与关键信息链,使干预人员的研判效率提升超50%,核实的时间成本缩减至分钟级,这也为后续安抚和联动警方干预提供更多时间空间。
用户参与的直播社区自治规则,也为平台实现与“死神”赛跑提供了可能。今年4月,快手在直播场景的“举报”窗口,增加“自杀/轻生”标签。这意味着当一位用户在观看直播时,发现其他用户有自伤、轻生行为时,可以第一时间向平台举报,平台在接到举报信息后,会第一时间核实并实施评估和干预。
“我们希望通过更多的渠道,及时发现并挽救有轻生倾向的人。”李恩宇说。
自杀有征兆,但有时它很隐蔽
识别真实的自杀风险,是开展干预的第一步。
“任何人自杀都不是毫无征兆的,只是说这个信号,我们能不能把它识别出来。”刘兴云在培训中说。她提起多年前的“天门山约死”事件,其中一个自杀身亡者曾在朋友圈发文“你好,世界,再见”。只是事后,人们才意识到这是被忽略的遗言。
在李恩宇的经验里,“目的性”是识别自杀风险、判定风险严重程度的信号。他对南风窗举例:“问别人怎么走得体面一点?又或者想漂漂亮亮地走,有什么办法?这些都是指征性强的信号。”
但在互联网上,很多轻生意念表达得很隐晦,这需要干预的人员去打捞、去判断。
赵楠老师做情绪调节的相关培训讲解
参与培训的老师、中国科学院心理研究所青年特聘研究员赵楠告诉南风窗,亚文化和网络语言,是一重隐秘的屏障。
从游戏术语引申而来的“我要开个新号重练”,甚至暴雨、棺材、银河(比喻彼岸)这类文字或符号都可能与死亡有关。抑郁症超话中“溶化”可能指自毁,动漫社群中“变成星星”可能隐喻自杀。
语言之外,还有一些征兆通过细微的行动表现出来。有时是关注、评论或转发自杀相关的内容,或者清空社交账号、更换灰色头像,再如在美食等无关话题下突兀留言“最后吃一次”,又或者把自己的财产送给他人等。
2021年,刚成为快手自杀干预社会救助小组一员的黄蓉接到一条用户进线反馈,称一名男性用户可能有自杀倾向:他在动态里说“过了15号,如果我回来了,就是有人改变了我和孩子的一生”。
但黄蓉排查了该用户的视频作品和评论,找不到任何一条风险信息,可以佐证他真的会采取自杀的行为。
“看他的视频内容,有时去参加朋友的婚礼,有时晒晒娃,还有自己见网友的经过等。要说有什么地方显出他的情绪低落,大概只有偶尔几句‘还有谁爱我’之类的言论。”黄蓉说。
她也无法理解,在一众日常生活分享中,那张几次发出来的日历截图和上面被圈起来的日期,以及倒计时X天的配文意味着什么。直到那一天到来,男人自杀了,账号再没有更新。
“网络上我们能看到的只是他人生活的冰山一角,一张照片只是他生活的一瞬间,从这一瞬间你判断不出来他有自杀风险,或会判断有误。”刘兴云说。
但这也需要我们改变思路和方法。
我很关心你,我们可以聊聊吗?
自杀历来被视为一个敏感的禁忌话题,我们常常不知道应不应该和当事人谈论它,以及怎样谈论它。
“如果一个人看起来好像有轻生倾向,但我不一定拿得准,那我问他会不会导致他自杀风险提高呢?”在培训会上,刘兴云也指出一些心理危机干预者的常见顾虑。
明确这个疑问对自杀干预至关重要,而业界已有共识。
刘兴云解释道:“如果一个人本来没有自杀意念,不会因为跟你讨论了以后,自杀意念就增强。真诚关心不会导致他的自杀意念从无到有,也不会导致他的自杀风险更高。相反,真诚的关心,就是提供社会支持的开始。”
接受这个观念并不容易。但国际预防自杀协会也明确建议:如果你担心某人有自杀倾向,可以问问他们是否想要这样做。公开谈论自杀并不会增加他们的自杀风险。如果你愿意与他们谈论自杀问题,请尝试使用清晰直接的语言,例如“别人遇到这种事情,有时候会有自杀的想法,你有吗?”
对普通人来说,这个问题有些冒犯和突兀。但对有轻生倾向的人来说,看见和关心,分量更重。
《黑暗荣耀》剧照
在课题研究当中,刘兴云曾给有自杀风险的人发私信询问:我感觉你好像情绪有些低落,是不是需要帮助?她至今记得其中一条回复说:谢谢,你是第一个这么问我的人。
以询问消除不确定性,比纠结和推测能争取更多干预救助的时机。而对平台来说,对干预时机和方式的选择,其实是综合判断的结果,而非基于单一要素的决定。
“有的人他就发了一些文字,你也不确定他是恶作剧还是真的想自杀,但又怕万一,根据干预流程,先纳入观察。”李恩宇说。
倘若仅凭单一风险要素判断,并实施干预,可能会拉高误判率。尤其那些简单复制的抑郁症网红文案、从别处粘贴而来的病历图片,以自伤自杀博流量的恶俗表演,都可能造成干扰,不仅干扰警方的处置,也增加后台本就海量的工作量。
机器算法和AI提供了高效辅助,但分辨真假、查缺补漏,无法全然交给机器,最终仍需要人的经验加以平衡。
敞开的对话,沟通的艺术
对话是自杀干预的开始。倾诉、倾听与共情,被认为是有效的疏导方式。
在培训现场,进入快手自杀干预社会救助小组四年的苏原分享了一个微妙而现实的困惑。
收到平台预警信息,综合判断风险后,苏原给对方打电话,询问他是否需要平台帮助。
接通电话时,对方情绪平和,但很快他打开话匣子,说起对妻子的不满,情绪越发激动。
苏原听着对方诉苦,并择机询问对方,获取对方更多有关住址等方面的信息。
聊了许久后,对方撂下一句话:兄弟,你别劝我了,我等会儿就拍个视频去跳楼。电话随即被挂断。
情况似乎突然变得紧急起来,苏原赶紧报警,并在警方询问下,提供倾听过程中“套”来的更多信息。警察找到了人,确认人是安全的,并予以心理疏导。
在刘兴云看来,这是一个成功的干预案例。但苏原对如何避免激化情绪仍有困惑,这个案例也揭示出现实的复杂:倾听和宣泄,并不见得一定能起到预期的、即刻的、显著的舒缓效果。在仅有一个电话的时间里,“隔空”的干预者能做的事极其有限,而行动的最终决定权仍由对方掌握。
这也是普通人常有的顾虑。诸多不确定当中,沟通的艺术,或许是我们可以习得的一门技术,以此提高有效率。
赵楠对南风窗总结了一系列沟通安抚的“雷言雷语”。
类似“你这样做对得起父母吗”的表达,会造成道德评判的压力;“明天会好的”“你这么优秀”“至少你还有……”其实是在否定对方的真实感受,提供的是虚假安慰;标签化可能强化病耻感,类似“你这是边缘型人格障碍/回避性人格的表现”的评判,不利于沟通。
人最终是为自己而活,只有自己的感受才是真实的/《精神病房也会迎来清晨》剧照
赵楠更提倡另一些做法。比如“听起来你做了很多准备,这一定很煎熬”,以“验证式倾听”减少误解,建立理解与信任。过程中避免直接要求对方“别做傻事”,而是提出“小步骤合作”,比如“我们现在一起做一件事好吗”,又或者提供具体可及的资源或选择,比如拨打心理热线,帮忙联系家人等。
“有效倾听的核心是真正地看见和接纳被倾听者。”刘兴云说。
除了安抚情绪,降低风险,干预者往往需要从中“套”话,获取有效信息,以便在必要时转介警方,及时干预挽救生命。
获取信息可是不小的挑战。
“大多数是不愿意讲的。”李恩宇说,这时候需要一些迂回话术。
他干预过一个云南的案例,可云南太大了,需要更明确的坐标信息。李恩宇转移注意力,和对方聊起云南的好风光。对方就反驳:我们红河地区就很穷,一下雨就淹。李恩宇又追着“红河”问:哪边是少数民族聚集区?没多久,对方就透露了自己所在的村子。
除了“话术”,更多时候还得靠倾听。“每一个案例背后其实都有一个很复杂或辛酸的故事。探索到这个故事,就抓住了这件事的根本。”李恩宇说,而他们最终要做的,是围绕自杀的风险,联动全国各地的警方,7×24小时在线安抚干预和挽救生命。
“自杀干预工作者就像‘守门人’,就是在发现一个人有自杀风险或有自杀倾向时,我们要做的是给他提供心理援助的资源、帮助他保持安全的状态、并进行转介,而不是现场解决他长期的心理困扰、解决他自杀的根本原因。”刘兴云说,自杀意念的消除,往往需要进行长期的心理咨询,不是靠一时半会儿的沟通就可以消除。
自杀干预的背后也是平台与死神争分夺秒的过程,这不仅要求平台的AI等技术要具备比较高的识别准确率,还要求自杀干预社会救助小组的成员具备同理心,具备沟通安抚的相关心理学专业知识、审核判断风险的能力、较好的表达沟通能力。
李恩宇说,平台会不定期邀请心理健康领域的专家、民警等来开展授课培训,提高干预小组成员的危机干预专业能力,以更科学、高效的方法和行动关爱平台用户的心理健康,守护用户的生命安全。
《精神病房也会迎来清晨》剧照
去年,快手还上线“种太阳计划”,期望在通过技术识别风险、干预挽救生命的同时,发挥平台内容的优势,联动媒体、心理健康领域的专家、平台上的专业创作者等,通过向大众科普心理健康知识,给身边有心理危机的人更多帮助,在他人心里种个“太阳”。
在网络平台,以图片、文字、短视频、直播等方式公开自己的轻生意念和行为,是一个前所未有的现象。
赵楠认为,这并非意味着这些人有什么迥异的心理,而是人固有的心理需求和行为模式使然,“人都有自我表达的需要,有交流的需要,有获得社会支持的需要”。
早在网络平台出现之前,这些需求和风险就已经存在,只是从未像今天一样被大家看到,自杀默默发生,我们也没有太多救助渠道。“现在,它变得可见了,我们能够以更低的社会成本,让更多普通人有机会获取救助资源和服务。”赵楠说。
- End -
来源:安徽乡村振兴